JP7034529B1 - Training model generation method, learning model, checking device, checking method and computer program - Google Patents

Training model generation method, learning model, checking device, checking method and computer program Download PDF

Info

Publication number
JP7034529B1
JP7034529B1 JP2021572603A JP2021572603A JP7034529B1 JP 7034529 B1 JP7034529 B1 JP 7034529B1 JP 2021572603 A JP2021572603 A JP 2021572603A JP 2021572603 A JP2021572603 A JP 2021572603A JP 7034529 B1 JP7034529 B1 JP 7034529B1
Authority
JP
Japan
Prior art keywords
image
inspected
blob
information
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021572603A
Other languages
Japanese (ja)
Other versions
JPWO2023017611A1 (en
Inventor
俊輔 大塚
圭史 工藤
Original Assignee
株式会社ハシマ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ハシマ filed Critical 株式会社ハシマ
Application granted granted Critical
Publication of JP7034529B1 publication Critical patent/JP7034529B1/en
Publication of JPWO2023017611A1 publication Critical patent/JPWO2023017611A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter

Abstract

高い精度で被検査物の異常を検出することができる。学習モデルの生成方法は、被検査物に電磁波を照射するステップと、被検査物を透過した電磁波に応じて画像を取得するステップと、画像に対して画像処理された処理画像が有する画素の画素値に基づいて、被検査物が含むブロブを特定するステップと、特定されたブロブに対応した位置および形状にマスクされたマスク画像と、処理画像におけるマスク部分のオフセット情報およびブロブに該当するオブジェクトの種類であるブロブラベルを有する被検査物の異常に関する情報を含む異常情報とを取得するステップと、マスク画像および異常情報を含む教師データを取得するステップと、被検査物に電磁波を照射し、被検査物を透過した電磁波に応じて取得した画像が入力された場合に、教師データに基づいて、処理画像上にブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得するステップと、ヒートマップ画像を処理画像に合成することで、ヒートマップ画像を含む検査画像を出力する学習モデルを生成するステップとを含む。Abnormalities in the inspected object can be detected with high accuracy. The method of generating the learning model is a step of irradiating the object to be inspected with an electromagnetic wave, a step of acquiring an image according to the electromagnetic wave transmitted through the object to be inspected, and a pixel of a pixel of the processed image obtained by image processing the image. The step of identifying the blob contained in the inspected object based on the value, the mask image masked to the position and shape corresponding to the identified blob, the offset information of the mask part in the processed image, and the object corresponding to the blob. A step of acquiring anomaly information including information on an abnormality of an inspected object having a blob label of the type, a step of acquiring teacher data including a mask image and anomaly information, and a step of irradiating the inspected object with an electromagnetic wave to be inspected. When the image acquired according to the electromagnetic wave transmitted through the object is input, the step to acquire the heat map image in which the position and shape of the blob are displayed as a heat map on the processed image based on the teacher data, and the heat. It includes a step of generating a training model that outputs an inspection image including a heat map image by synthesizing the map image with the processed image.

Description

本発明は、物体検出に関し、とくに、服飾雑貨、食品、工業製品等を被検査物として検査し、被検査物に混入した異物を検出するための学習モデルの生成方法、学習モデル、検査装置、検査方法、およびコンピュータプログラムに関する。 The present invention relates to object detection, in particular, a method for generating a learning model for inspecting fashion accessories, foods, industrial products, etc. as an inspected object and detecting foreign substances mixed in the inspected object, a learning model, an inspection device, and the like. Checking methods and computer programs.

従来から、服飾雑貨、食品、工業製品等の検査、包装材に内容物が収納された包装体の検査に、X線、テラヘルツ波、赤外線および可視光等の検査波を使用した、非破壊、非接触かつ高速で異物検査・検知・検出が可能な装置が知られている(例えば、特許文献1および特許文献2参照)。このような装置は、被検査物に電磁波等の検査波を照射し、被検査物を透過した検査波の透過量を計測し、被検査物の検査波透過画像を検査画像として取得する。 Conventionally, non-destructive inspection waves such as X-rays, terahertz waves, infrared rays, and visible light have been used for inspections of fashion accessories, foods, industrial products, etc., and inspections of packages containing contents in packaging materials. Devices capable of non-contact and high-speed foreign matter inspection / detection / detection are known (see, for example, Patent Document 1 and Patent Document 2). Such a device irradiates the inspection object with an inspection wave such as an electromagnetic wave, measures the amount of the inspection wave transmitted through the inspection object, and acquires the inspection wave transmission image of the inspection object as an inspection image.

検査波、例えばX線を利用した検査では、X線透過画像から被検査物の濃度と異物の濃度をそれぞれ測定して異物抽出の濃度閾値を予め設定しておき、取得したX線透過画像の濃度分布内に存在する、閾値を超える濃度の特異箇所の面積や形状等に基づいて異物混入の有無を判定する。被検査物の形状の異常の有無は、検査画像のブロブ(塊)の面積および周囲長に基づいて行っていた。ブロブを構成する画素をカウントすることにより、ブロブの面積が算出され、ブロブの周囲を形成する背景画素の配列に基づき、ブロブの周囲長が算出される。また一般的に、X線の透過量は、X線を照射する対象物の密度と相関があり、対象物の密度が低いほどX線の透過能は高く、対象物の密度が高いほどX線の透過能は低い。そのため、原理上、被検査物と異物との密度差が大きいほど、X線透過画像における被検査物と異物の濃度差も大きくなり、安定した異物検出が可能になる。 In the inspection using inspection waves, for example, X-rays, the concentration of the object to be inspected and the concentration of foreign matter are measured from the X-ray transmission image, and the concentration threshold for foreign matter extraction is set in advance. The presence or absence of foreign matter contamination is determined based on the area, shape, etc. of the singular portion having a concentration exceeding the threshold value existing in the concentration distribution. The presence or absence of abnormalities in the shape of the object to be inspected was determined based on the area and perimeter of the blob (lump) in the inspection image. By counting the pixels that make up the blob, the area of the blob is calculated, and the perimeter of the blob is calculated based on the array of background pixels that form the periphery of the blob. In general, the amount of X-ray transmission correlates with the density of the object to be irradiated with X-rays. The lower the density of the object, the higher the transmission ability of X-rays, and the higher the density of the object, the higher the X-rays. Permeability is low. Therefore, in principle, the larger the density difference between the inspected object and the foreign matter, the larger the density difference between the inspected object and the foreign matter in the X-ray transmission image, and stable foreign matter detection becomes possible.

特開2018-138899号公報Japanese Unexamined Patent Publication No. 2018-138899 特許第5876116号公報Japanese Patent No. 5876116

このように、従来の異物検査方法は、閾値と比較することにより異物の有無を判定していたが、被検査物および異物の種類によっては、正常な領域と異物との画素値の差異が小さく、検査不能や異物検出の精度の低下という問題があった。 As described above, in the conventional foreign matter inspection method, the presence or absence of foreign matter is determined by comparing with the threshold value, but the difference in pixel value between the normal region and the foreign matter is small depending on the type of the object to be inspected and the foreign matter. There were problems such as inspectability and deterioration of foreign matter detection accuracy.

本発明は斯かる事情に鑑みてなされたものであり、高い精度で被検査物の異常を検出することができる学習モデルの生成方法、学習モデル、検査装置、検査方法、およびコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and provides a learning model generation method, a learning model, an inspection device, an inspection method, and a computer program capable of detecting an abnormality of an inspected object with high accuracy. The purpose is.

本発明の一様態に係る学習モデルの生成方法は、被検査物に電磁波を照射するステップと、前記被検査物を透過した電磁波に応じて画像を取得するステップと、前記画像に対して画像処理された処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定するステップと、特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とを取得するステップと、前記マスク画像、前記背景画像および前記異常情報を含む教師データを取得するステップと、前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて取得した画像が入力された場合に、前記教師データに基づいて、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得するステップと、前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する学習モデルを生成するステップとを含み、前記背景画像は、前記ブロブの形状とは異なる画像が前記処理画像の任意の位置に合成されている。 The method for generating a learning model according to the present invention includes a step of irradiating an object to be inspected with an electromagnetic wave, a step of acquiring an image according to the electromagnetic wave transmitted through the object to be inspected, and image processing on the image. A step of identifying a blob contained in the inspected object based on the pixel value of the pixel of the processed image, a mask image masked to a position and shape corresponding to the identified blob, and the blob are included. The background image which is not the processed image and the abnormality information including the offset information of the mask portion in the processed image and the information about the abnormality of the inspected object having the blob label which is the type of the object corresponding to the blob are acquired. The step, the step of acquiring the teacher data including the mask image, the background image, and the abnormality information, and the image acquired according to the electromagnetic wave transmitted through the inspected object by irradiating the inspected object with an electromagnetic wave are input. When this is done, a step of acquiring a heat map image in which the position and shape of the blob are displayed as a heat map on the processed image based on the teacher data, and the heat map image are combined with the processed image. This includes a step of generating a learning model that outputs an inspection image including the heat map image, and in the background image, an image different from the shape of the blob is synthesized at an arbitrary position of the processed image. ..

本発明の一様態に係る学習モデルは、被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて画像を取得し、前記画像に対して画像処理された処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定し、特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とが入力される入力層と、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得し、前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する出力層と、前記マスク画像および前記異常情報に基づいてパラメータが学習された中間層とを備え、前記マスク画像および前記異常情報が入力層に入力された場合に、前記中間層による演算を経て、前記ヒートマップ画像を含む前記検査画像を前記出力層から出力するようにコンピュータを機能させ、前記背景画像が入力層に入力された場合に、前記中間層による演算を経て、前記ヒートマップ画像を含まない前記検査画像を前記出力層から出力するようにコンピュータを機能させる。 In the learning model according to the uniformity of the present invention, an object to be inspected is irradiated with an electromagnetic wave, an image is acquired according to the electromagnetic wave transmitted through the object to be inspected, and the pixels of the processed image obtained by image-processing the image. Based on the pixel value of, the blob contained in the inspected object is identified, and the mask image masked to the position and shape corresponding to the specified blob, and the background image which is the processed image not including the blob. On the processed image, an input layer into which the offset information of the mask portion in the processed image and the abnormality information including the information regarding the abnormality of the inspected object having the blob label which is the type of the object corresponding to the blob are input. An output layer that outputs an inspection image including the heat map image by acquiring a heat map image in which the position and shape of the blob are displayed as a heat map and synthesizing the heat map image with the processed image. The heat map image is provided with the mask image and an intermediate layer whose parameters are learned based on the abnormality information, and when the mask image and the abnormality information are input to the input layer, the heat map image is calculated by the intermediate layer. The computer is made to function to output the inspection image including the above from the output layer, and when the background image is input to the input layer, the inspection image not including the heat map image is subjected to calculation by the intermediate layer. To function the computer to output from the output layer.

本発明の一様態に係る検査装置は、被検査物に電磁波を照射する照射部と、前記被検査物を透過した電磁波に応じて画像を生成する画像生成部と、前記画像に対して画像処理を実施し、処理画像を取得する画像処理部と、前記処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定する対象特定部と、特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とを教師データとして取得する取得部と、前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて取得した画像が入力された場合に、前記被検査物の異常に関する情報を出力する学習モデルに、前記取得部より取得した前記マスク画像および異常情報を入力して、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得する異常情報取得部と、前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する出力部とを備え、前記背景画像は、前記ブロブの形状とは異なる画像が前記処理画像の任意の位置に合成されていることを備える。 The inspection device according to the present invention includes an irradiation unit that irradiates an object to be inspected with an electromagnetic wave, an image generation unit that generates an image according to the electromagnetic wave transmitted through the object to be inspected, and an image processing on the image. Corresponds to the image processing unit that acquires the processed image, the target identification unit that specifies the blob included in the inspected object based on the pixel value of the pixel of the processed image, and the specified blob. The mask image masked in position and shape, the background image which is the processed image not including the blob, the offset information of the mask portion in the processed image, and the blob label which is the type of the object corresponding to the blob. An acquisition unit that acquires anomaly information including information on an abnormality of the inspected object as teacher data, and an image obtained by irradiating the inspected object with an electromagnetic wave and acquiring the image in response to the electromagnetic wave transmitted through the inspected object are input. In this case, the mask image and abnormality information acquired from the acquisition unit are input to the learning model that outputs information on the abnormality of the object to be inspected, and the position and shape of the blob are used as a heat map on the processed image. The background image is provided with an abnormality information acquisition unit that acquires the displayed heat map image and an output unit that outputs an inspection image including the heat map image by synthesizing the heat map image with the processed image. , It is provided that an image different from the shape of the blob is synthesized at an arbitrary position of the processed image.

本発明の一様態に係る検査方法は、被検査物に電磁波を照射するステップと、前記被検査物を透過した電磁波に応じて画像を取得するステップと、前記画像に対して画像処理された処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定するステップと、特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とを取得するステップと、前記マスク画像前記背景画像および前記異常情報を含む教師データを取得するステップと、前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて取得した画像が入力された場合に、前記教師データに基づいて、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得するステップと、前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する学習モデルを生成するステップとを含む処理をコンピュータに実行させ、前記背景画像は、前記ブロブの形状とは異なる画像が前記処理画像の任意の位置に合成されている。 The inspection method according to the present invention includes a step of irradiating an object to be inspected with an electromagnetic wave, a step of acquiring an image according to the electromagnetic wave transmitted through the object to be inspected, and a process of performing image processing on the image. A step of identifying a blob contained in the inspected object based on the pixel value of the pixel of the image, a mask image masked to a position and shape corresponding to the identified blob, and the process not including the blob. A step of acquiring a background image which is an image, an abnormality information including offset information of the mask portion in the processed image, and information about an abnormality of the inspected object having a blob label which is a type of an object corresponding to the blob. The mask image When the step of acquiring the teacher data including the background image and the abnormality information and the image acquired according to the electromagnetic wave transmitted through the inspected object by irradiating the inspected object with an electromagnetic wave are input. , The step of acquiring a heat map image in which the position and shape of the blob are displayed as a heat map on the processed image based on the teacher data, and by synthesizing the heat map image with the processed image. A computer is made to execute a process including a step of generating a learning model that outputs an inspection image including a heat map image, and an image different from the shape of the blob is synthesized at an arbitrary position of the processed image in the background image. ing.

本発明の一様態に係るコンピュータプログラムは、被検査物に電磁波を照射するステップと、前記被検査物を透過した電磁波に応じて画像を取得するステップと、前記画像に対して画像処理された処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定するステップと、特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とを取得するステップと、前記マスク画像前記背景画像および前記異常情報を含む教師データを取得するステップと、前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて取得した画像が入力された場合に、前記教師データに基づいて、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得するステップと、前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する学習モデルを生成するステップとを含む処理をコンピュータに実行させ、前記背景画像は、前記ブロブの形状とは異なる画像が前記処理画像の任意の位置に合成されている。 The computer program according to the uniformity of the present invention includes a step of irradiating an object to be inspected with an electromagnetic wave, a step of acquiring an image according to the electromagnetic wave transmitted through the object to be inspected, and a process of performing image processing on the image. A step of identifying a blob contained in the inspected object based on the pixel value of the pixel of the image, a mask image masked to a position and shape corresponding to the identified blob, and the process not including the blob. A step of acquiring a background image which is an image, an abnormality information including offset information of the mask portion in the processed image, and information about an abnormality of the inspected object having a blob label which is a type of an object corresponding to the blob. The mask image When the step of acquiring the teacher data including the background image and the abnormality information and the image acquired according to the electromagnetic wave transmitted through the inspected object by irradiating the inspected object with an electromagnetic wave are input. , The step of acquiring a heat map image in which the position and shape of the blob are displayed as a heat map on the processed image based on the teacher data, and by synthesizing the heat map image with the processed image. A computer is made to execute a process including a step of generating a learning model that outputs an inspection image including a heat map image, and an image different from the shape of the blob is synthesized at an arbitrary position of the processed image in the background image. ing.

本発明によれば、被検査物の検査画像において、正常部分と異常部分との画素値の差異が小さい場合、異物の形状が特異な場合、および異物のサイズが極小な場合においても、高い精度で、正常部分と異常部分とを判別でき、異物混入等の異常状態を特定できる。
したがって、異物の有無等の異常の有無に関する情報を精度良く検出できる。
なお、本発明により、ユーザは大変な集中力を要する長時間、繰り返しの単純作業から開放され、疲労の軽減や疲労に伴う事故等から開放されること、異物混入事故による健康被害の減少につながることから、国連が主導する持続可能な開発目標(SDGs)の目標3「すべての人に健康と福祉を」および目標8「働きがいも経済成長も」に貢献することが可能となる。
According to the present invention, in the inspection image of the object to be inspected, high accuracy is achieved even when the difference in pixel value between the normal part and the abnormal part is small, the shape of the foreign matter is peculiar, and the size of the foreign matter is extremely small. Therefore, the normal part and the abnormal part can be discriminated, and the abnormal state such as foreign matter contamination can be specified.
Therefore, it is possible to accurately detect information regarding the presence or absence of an abnormality such as the presence or absence of a foreign substance.
It should be noted that the present invention frees the user from long-term, repetitive simple work that requires a great deal of concentration, reduces fatigue, frees people from accidents associated with fatigue, and reduces health hazards caused by foreign matter contamination accidents. Therefore, it will be possible to contribute to Goal 3 “Health and Welfare for All” and Goal 8 “Rewarding Work and Economic Growth” of the Sustainable Development Goals (SDGs) led by the United Nations.

本発明の実施形態1に係る異常検査システムの構成を示す概略図である。It is a schematic diagram which shows the structure of the abnormality inspection system which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る異常検査システムの構成を示すブロック図である。It is a block diagram which shows the structure of the abnormality inspection system which concerns on Embodiment 1 of this invention. Mask R-CNN畳み込みニューラルネットワークの既知の実施例を示す概略図である。FIG. 6 is a schematic diagram showing a known embodiment of a Mask R-CNN convolutional neural network. 本発明の実施形態1に係る検査画像DB151のレコードレイアウトの一例を示す概略図である。It is a schematic diagram which shows an example of the record layout of the inspection image DB 151 which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る異常検出モデルの生成処理に関する概略図である。It is a schematic diagram regarding the generation processing of the abnormality detection model which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る異常検出モデルの生成処理に関するフローチャート図である。It is a flowchart about the generation process of the abnormality detection model which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る異常検査システムによる異常検出処理の処理手順のフローチャート図である。It is a flowchart of the processing procedure of the abnormality detection processing by the abnormality inspection system which concerns on Embodiment 1 of this invention. 被検査物の処理画像を示す概略図である。It is a schematic diagram which shows the processed image of the object to be inspected. 被検査物のマスク画像を示す概略図である。It is a schematic diagram which shows the mask image of the object to be inspected. 異物が混入していない被検査物の処理画像を示す概略図である。It is a schematic diagram which shows the processed image of the inspected object which is not mixed with foreign matter. 背景画像処理を実施するためのマーキング画像を示す概略図である。It is a schematic diagram which shows the marking image for carrying out the background image processing. 背景画像処理を実施後の処理画像を示す概略図である。It is a schematic diagram which shows the processed image after performing the background image processing. 異物が混入している被検査物の処理画像を示す概略図である。It is a schematic diagram which shows the processed image of the object to be inspected which a foreign substance is mixed. 処理画像に異物が複数存在する際の教師データ作成処理を示す概略図である。It is a schematic diagram which shows the teacher data creation processing when a plurality of foreign matters exist in a processed image. 異物検出処理を実施後における被検査物の検査画像を示す概略図である。It is a schematic diagram which shows the inspection image of the object to be inspected after performing the foreign matter detection process. 検査対象である被検査物を示す概略図である。It is a schematic diagram which shows the object to be inspected which is the object of inspection. 本発明の実施形態2に係る異常検査システムの構成を示すブロック図である。It is a block diagram which shows the structure of the abnormality inspection system which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る再学習処理の発生条件に関する概略図である。It is a schematic diagram regarding the occurrence condition of the relearning process which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る再学習処理の処理手順を示すフローチャート図である。It is a flowchart which shows the processing procedure of the relearning process which concerns on Embodiment 2 of this invention.

以下、本発明の実施の形態について図面を参照して説明する。
なお、説明の便宜上、各図に付与された同一の符号は、特に言及が無い限り同一部分または相当部分を示すものとし、また同様の構造および/または機能を有する要素を意図し、必要以上に詳細な説明は省略する場合がある。
さらに、重複する説明は、適宜簡略化あるいは省略する。
また、本実施形態において「~」の記号を用いて数値範囲を表す場合があるが、「~」の前後に記載される数値は当該数値範囲に含まれる。
(実施形態1)
[異常検査システム]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
For convenience of explanation, the same reference numerals given to the respective figures indicate the same parts or equivalent parts unless otherwise specified, and are intended to be elements having the same structure and / or function, more than necessary. Detailed explanation may be omitted.
Further, duplicate description will be simplified or omitted as appropriate.
Further, in the present embodiment, the numerical value range may be represented by using the symbol "-", but the numerical values described before and after "-" are included in the numerical value range.
(Embodiment 1)
[Abnormality inspection system]

図1は、本発明の実施形態1に係る異常検査システム10の構成を示す概略図であり、図2は異常検査システム10の構成を示すブロック図である。
異常検査システム10は、情報処理装置1と、X線検査装置2とを備える。本実施形態1においては、X線検査装置2の搬送部(コンベア)6の搬送ベルト61上に分散した状態で被検査物4を載置し、被検査物4に対しX線を用いて撮像した画像に基づいて異常を検出する異常検査システム10について説明する。被検査物4の一例として、靴、鞄、衣類および食品等が挙げられる。なお、被検査物4は、先に列挙された靴等の対象物には限定されず、画像により形状を検知できるものであれば適用可能である。また、被検査物4は、先に列挙された靴等の対象物そのものには限定されず、包装材に収納されたものでも、トレイに載置されたものでも適用可能である。情報処理装置1とX線検査装置2とは、分離されていても、一体化されていても構成可能である。
[X線検査装置]
FIG. 1 is a schematic diagram showing the configuration of the abnormality inspection system 10 according to the first embodiment of the present invention, and FIG. 2 is a block diagram showing the configuration of the abnormality inspection system 10.
The abnormality inspection system 10 includes an information processing device 1 and an X-ray inspection device 2. In the first embodiment, the object 4 to be inspected is placed on the conveyor belt 61 of the transfer unit (conveyor) 6 of the X-ray inspection device 2 in a dispersed state, and the image to be inspected is imaged using X-rays on the object 4 to be inspected. The abnormality inspection system 10 for detecting an abnormality based on the image obtained will be described. Examples of the object 4 to be inspected include shoes, bags, clothing, food and the like. The object 4 to be inspected is not limited to the objects such as shoes listed above, and can be applied as long as the shape can be detected by an image. Further, the object 4 to be inspected is not limited to the object itself such as the shoes listed above, and can be applied to the object stored in the packaging material or the object placed on the tray. The information processing device 1 and the X-ray inspection device 2 can be configured even if they are separated or integrated.
[X-ray inspection device]

X線検査装置2は、照射部3、搬送ベルト60、発光部24、受光部25、コントローラ27、表示部22を備える。表示部22は、第1の表示部41および第2の表示部42を備える。
また、X線検査装置2は、横長の直方体状をなす下側筐体23と、下側筐体23上に設けられ、下側筐体23より小さい上側筐体21とを備える。
下側筐体23内に搬送部6が設けられている。搬送部6は、搬送ベルト60、搬送ベルト駆動部61および搬送ベルト制御部62を備える。搬送ベルト制御部62は、被検出物4を搬送する距離や速度等を含む指令を制御部11から受け取り、当該指令に基づき搬送ベルト駆動部61の動作を制御する。
The X-ray inspection device 2 includes an irradiation unit 3, a conveyor belt 60, a light emitting unit 24, a light receiving unit 25, a controller 27, and a display unit 22. The display unit 22 includes a first display unit 41 and a second display unit 42.
Further, the X-ray inspection device 2 includes a horizontally long rectangular parallelepiped lower housing 23 and an upper housing 21 provided on the lower housing 23 and smaller than the lower housing 23.
A transport unit 6 is provided in the lower housing 23. The transport unit 6 includes a transport belt 60, a transport belt drive unit 61, and a transport belt control unit 62. The transport belt control unit 62 receives a command including a distance, a speed, and the like for transporting the object to be detected 4 from the control unit 11, and controls the operation of the transport belt drive unit 61 based on the command.

上側筐体21には、照射部3が収納されている。照射部3は、照射体31および照射制御部32を有する。照射制御部32は、X線を照射するX線照射時間や、X線強度など細かな設定を含む指令を制御部11から受け取り、当該指令に基づき照射体31から照射されるX線を制御する。また、照射部3は、被検査物4に対して任意の角度(例えば、図1に記載の座標軸X,Y,Zに対して、それぞれ0°、25°および45°等)からX線を照射するよう制御可能である。角度を変えた照射により取得できるX線照射画像により、異物混入の有無は、より正確に確認可能である。上側筐体21の正面には、表示部22が設けられている。表示部22は、後述する画像生成部111が生成した被検査物4のX線画像等を表示する。表示部22は、例えばLCD(Liquid Crystal Display)等の表示装置であり、表示部22が備える第1の表示部41および第2の表示部42は、同一の表示装置内で画面分割されていてもよく、別々の表示装置でもよい。
上側筐体21には、検知部7が設けられている。検知部7は、TDI(Time Delay Integration)カメラまたはTDIセンサと呼ばれるものであり、X線の強度に応じて蛍光を発するシンチレータと、シンチレータで発せられた蛍光を検知する多数のフォトダイオードとを有している。
The irradiation unit 3 is housed in the upper housing 21. The irradiation unit 3 has an irradiation body 31 and an irradiation control unit 32. The irradiation control unit 32 receives a command from the control unit 11 including detailed settings such as the X-ray irradiation time for irradiating X-rays and the X-ray intensity, and controls the X-rays emitted from the irradiator 31 based on the command. .. Further, the irradiation unit 3 emits X-rays from an arbitrary angle with respect to the object 4 to be inspected (for example, 0 °, 25 °, 45 °, etc. with respect to the coordinate axes X, Y, Z shown in FIG. 1, respectively). It can be controlled to irradiate. The presence or absence of foreign matter can be confirmed more accurately by the X-ray irradiation image obtained by irradiation at different angles. A display unit 22 is provided on the front surface of the upper housing 21. The display unit 22 displays an X-ray image or the like of the object 4 to be inspected generated by the image generation unit 111, which will be described later. The display unit 22 is, for example, a display device such as an LCD (Liquid Crystal Display), and the first display unit 41 and the second display unit 42 included in the display unit 22 are divided into screens in the same display device. It may be a separate display device.
The upper housing 21 is provided with a detection unit 7. The detection unit 7 is called a TDI (Time Delay Integration) camera or TDI sensor, and has a scintillator that emits fluorescence according to the intensity of X-rays and a large number of photodiodes that detect the fluorescence emitted by the scintillator. is doing.

TDIカメラでは、フォトダイオードが、被検査物の移動方向であるY方向と直交するX方向に直線的に並んで1つの検知ラインが構成され、この検知ラインが複数並んで設けられている。複数の検知ラインは被検査物の移動方向であるY方向へ向けて平行に並んで配置されている。なお、1つのTDIカメラの筐体内に、複数のフォトダイオードがX方向とY方向に規則的に並んで配置され、X方向に並ぶフォトダイオードで1ラインの検知ラインが構成されている。 In the TDI camera, the photodiodes are linearly arranged in the X direction orthogonal to the Y direction, which is the moving direction of the object to be inspected, to form one detection line, and a plurality of these detection lines are provided side by side. The plurality of detection lines are arranged side by side in parallel toward the Y direction, which is the moving direction of the object to be inspected. In the housing of one TDI camera, a plurality of photodiodes are regularly arranged side by side in the X direction and the Y direction, and one line of detection lines is composed of the photodiodes arranged in the X direction.

まず検査時においては、ユーザは、被検査物4を搬送ベルト60上に載せて、コントローラ27を操作して、被検査物4を照射部3の下方へ位置するまで搬送する。被検査物4がX線照射部3の下方に搬送されると、照射部3は被検査物4に向けてX線を照射する。この照射されたX線は、被検査物4を透過し、搬送ベルト60の下方にある発光部24に到達する。発光部24は、その到達したX線の量に応じて発光し、受光部25はその発光した光を受光する。そして、X線検査装置2は、受光部25で受光した光から制御部11内の画像生成部111によりX線照射画像を生成し、表示部22に表示する。 First, at the time of inspection, the user puts the inspected object 4 on the conveying belt 60 and operates the controller 27 to convey the inspected object 4 until it is located below the irradiation unit 3. When the object 4 to be inspected is conveyed below the X-ray irradiation unit 3, the irradiation unit 3 irradiates the X-ray to the object 4 to be inspected. The irradiated X-rays pass through the object 4 to be inspected and reach the light emitting portion 24 below the transport belt 60. The light emitting unit 24 emits light according to the amount of X-rays that have reached it, and the light receiving unit 25 receives the emitted light. Then, the X-ray inspection device 2 generates an X-ray irradiation image from the light received by the light receiving unit 25 by the image generation unit 111 in the control unit 11 and displays it on the display unit 22.

ユーザは、表示部22に表示されたX線照射画像を目視して、被検査物4内に異物が混入していないかを判断する。なお、このX線検査装置2の基本構成は、従来から知られているX線検査装置と同様の構成であり、本実施形態に限定されることはない。 The user visually observes the X-ray irradiation image displayed on the display unit 22 and determines whether or not foreign matter is mixed in the object to be inspected 4. The basic configuration of the X-ray inspection device 2 is the same as that of the conventionally known X-ray inspection device, and is not limited to the present embodiment.

つぎに、図2に、本発明に係るX線検査装置2の各構成要素の関係を表したブロック図の概略を示す。X線検査装置2は、制御部11により中央管理され、X線検査装置2に含まれる各構成要素は制御部11の指令に基づいて制御されている。この制御部11は、画像生成部111、画像処理部112、対象特定部113、取得部114、異常情報取得部115、出力部116、制御表示部117、判別部118を備える。
なお、この制御部11は既存のコンピュータ(CPUや記憶装置などを装備したもの)に実装される。また、制御部11、画像生成部111、画像処理部112、対象特定部113、取得部114、異常情報取得部115、出力部116、制御表示部117、判別部118は、ソフトウェア上で実現されている。
Next, FIG. 2 shows an outline of a block diagram showing the relationship of each component of the X-ray inspection apparatus 2 according to the present invention. The X-ray inspection device 2 is centrally managed by the control unit 11, and each component included in the X-ray inspection device 2 is controlled based on a command from the control unit 11. The control unit 11 includes an image generation unit 111, an image processing unit 112, a target identification unit 113, an acquisition unit 114, an abnormality information acquisition unit 115, an output unit 116, a control display unit 117, and a discrimination unit 118.
The control unit 11 is mounted on an existing computer (equipped with a CPU, a storage device, or the like). Further, the control unit 11, the image generation unit 111, the image processing unit 112, the target identification unit 113, the acquisition unit 114, the abnormality information acquisition unit 115, the output unit 116, the control display unit 117, and the discrimination unit 118 are realized on software. ing.

搬送ベルト60は、搬送ベルト駆動部61と搬送ベルト制御部62とを備える。搬送ベルト制御部62は、被検査物4を搬送する距離や速度等を含む指令を制御部11から受け取り、当該指令に基づき搬送ベルト駆動部61の動作を制御する。 The conveyor belt 60 includes a conveyor belt drive unit 61 and a conveyor belt control unit 62. The transport belt control unit 62 receives a command including a distance, a speed, and the like for transporting the object 4 to be inspected from the control unit 11, and controls the operation of the transport belt drive unit 61 based on the command.

発光部24は、照射体31から照射され、被検査物4を通過したX線を受けて発光する。そして、受光部25は、その発光した光を受光し、画像生成部111へ伝達する。 The light emitting unit 24 receives X-rays emitted from the irradiating body 31 and passed through the object 4 to be inspected, and emits light. Then, the light receiving unit 25 receives the emitted light and transmits it to the image generation unit 111.

画像生成部111は、受光部25から伝達されてきた光から、被検査物4を透視したX線照射画像を生成する。なお、伝達されてきた光量に応じて白黒画像を生成し、白黒の濃度値等に応じて色彩を付すことで、カラー画像化されたX線照射画像を生成することも可能である。 The image generation unit 111 generates an X-ray irradiation image through which the object 4 to be inspected is seen through from the light transmitted from the light receiving unit 25. It is also possible to generate a color imaged X-ray irradiation image by generating a black-and-white image according to the amount of transmitted light and adding color according to a black-and-white density value or the like.

この画像処理には、既存の処理方法を用いることができ、ユーザが被検査物4に混入した異物を発見しやすいように、画像に施される処理を適宜変更することが可能である。例えば、画像に付す色彩を変更したり、輝度や明度を変更したり、解像度を変更したり、画像処理ソフトを変更したりと、画像処理に関するあらゆる各種設定情報を変更することができる。 An existing processing method can be used for this image processing, and the processing applied to the image can be appropriately changed so that the user can easily find the foreign matter mixed in the object 4 to be inspected. For example, it is possible to change all kinds of setting information related to image processing, such as changing the color attached to an image, changing the brightness and brightness, changing the resolution, and changing the image processing software.

データファイル生成部220(図示せず)は、画像生成部111により生成されたX線照射画像を、少なくとも、検査時のX線検査装置2の設備設定情報、画像生成処理情報、被検出物情報、およびユーザ情報のいずれかを含む検査情報と共に保存したデータファイルを生成する。 The data file generation unit 220 (not shown) displays the X-ray irradiation image generated by the image generation unit 111 at least as equipment setting information, image generation processing information, and detected object information of the X-ray inspection apparatus 2 at the time of inspection. , And generate a data file saved with inspection information including any of the user information.

このデータファイル生成部220で生成されたデータファイルは、他の画像表示装置により読み込み可能な形式、例えば、JPEG形式やMPEG形式で保存されている。そのため、これらの形式を読込可能な画像ソフトを搭載している既存の画像表示装置(コンピュータやタブレット端末など)で、従来と同様に、X線照射画像を表示することができる。 The data file generated by the data file generation unit 220 is stored in a format that can be read by another image display device, for example, a JPEG format or an MPEG format. Therefore, an existing image display device (computer, tablet terminal, etc.) equipped with image software capable of reading these formats can display an X-ray irradiation image as in the conventional case.

さらに、下記で詳述する補助記憶部15は、データファイル生成部220により生成されたデータファイルを保存することができる。この補助記憶部15は、制御部11に備え付けられた主記憶部(RAMなど)の他に、外部記憶媒体(CD、DVDなど)等でもよい。 Further, the auxiliary storage unit 15 described in detail below can store the data file generated by the data file generation unit 220. The auxiliary storage unit 15 may be an external storage medium (CD, DVD, etc.) or the like, in addition to the main storage unit (RAM, etc.) provided in the control unit 11.

データ読込部221(図示せず)は、補助記憶部15に保存されたデータファイルを読み込むことができる。そして、データ読込部221で読み込まれた検査情報は制御部11に伝達され、制御部11が照射部3、搬送ベルト60、または画像生成部111に指令を送る。
[情報処理装置]
The data reading unit 221 (not shown) can read the data file stored in the auxiliary storage unit 15. Then, the inspection information read by the data reading unit 221 is transmitted to the control unit 11, and the control unit 11 sends a command to the irradiation unit 3, the transport belt 60, or the image generation unit 111.
[Information processing device]

情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、コンピュータである。コンピュータには、使用目的、仕様、スペック、性能等により、パーソナルコンピュータ(パソコン)、ワークステーション、サーバコンピュータ(サーバ)、メインフレーム、スーパーコンピュータ(スパコン)、ウルトラコンピュータ、ミニコンピュータ(ミニコン)、オフィスコンピュータ(オフコン)、ポケットコンピュータ(ポケコン)、マイクロコンピュータ(マイコン)、携帯情報端末(PDA)およびシーケンサ(PLC:プログラマブルロジックコントローラ)等のように分類されるが、情報処理装置は、これらのすべてが適用可能である。X線検査装置2はLAN、インターネット等のネットワークNを介して情報処理装置1に接続され、通信可能となっている。また、インターネット等のネットワークNを介して通信可能に接続されたクラウドコンピュータが、情報処理装置1の処理を実行することも可能である。
本実施形態では情報処理装置1は、パーソナルコンピュータとし、以下に説明する。
The information processing device 1 is an information processing device capable of transmitting and receiving various types of information processing and information, and is a computer. Computers include personal computers (personal computers), workstations, server computers (servers), mainframes, supercomputers (spacons), ultracomputers, minicomputers (minicons), and office computers, depending on the purpose of use, specifications, specifications, performance, etc. (Off-con), pocket computer (pokecon), microcomputer (microcomputer), mobile information terminal (PDA), sequencer (PLC: programmable logic controller), etc. are classified, but all of these are applicable to information processing equipment. It is possible. The X-ray inspection device 2 is connected to the information processing device 1 via a network N such as a LAN or the Internet, and can communicate with the information processing device 1. It is also possible for a cloud computer, which is communicably connected via a network N such as the Internet, to execute the processing of the information processing apparatus 1.
In the present embodiment, the information processing device 1 is a personal computer, and will be described below.

情報処理装置1は、被検査物4を撮像した画像を取得し、該画像に基づき被検査物4の異常の有無を検出する処理を行う。本実施の形態で情報処理装置1は、機械学習により画像内から被検査物4の異常を検出(識別)するよう学習済みの後述する異常検出モデル152を用いて異常の有無の検出を行う。異常検出モデル152は、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定される。
情報処理装置1は、X線検査装置2を用いて被検査物4を撮像した画像に基づいて画像処理された画像である処理画像50を異常検出モデル152に入力し、被検査物4の異常の有無を示す識別結果を出力として取得する。情報処理装置1の制御部11が、異常検出モデル152からの指令に従って、入力層に入力されたマスク画像51および/または背景画像52等に対し演算を行い、異常の有無を示す識別結果を出力するように動作する。異常の有無とは、被検査物4の形状の異常(変形)の有無および異物の有無等に該当する。
以下、本実施形態では、被検査物4の異常の種類が異物の有無であり、情報処理装置1が異常検出モデル152にマスク画像51および/または背景画像52等を入力し、被検査物4に異物が混入していた場合、当該異物の位置、形状等をヒートマップ画像53として取得する場合につき説明する。
つづいて、情報処理装置1は、ヒートマップ画像53を処理画像50と合成した検査画像54を出力する。
情報処理装置1は、取得したヒートマップ等の異常情報に応じて、被検査物4を製造元へ返却するか否か等の選別を行う。
ここで、異常情報とは、処理画像50上で異物として特定されたブロブに対応した位置および形状にヒートマップ画像53を含む検査画像54において、ヒートマップ部分のオフセット情報およびブロブに該当するオブジェクトの種類であるブロブラベル等の被検査物の異常に関する情報を含む。
The information processing apparatus 1 acquires an image obtained by capturing an image of the object to be inspected 4, and performs a process of detecting the presence or absence of an abnormality in the object to be inspected 4 based on the image. In the present embodiment, the information processing apparatus 1 detects the presence or absence of an abnormality by using the abnormality detection model 152, which will be described later, which has been learned so as to detect (identify) the abnormality of the inspected object 4 from the image by machine learning. The anomaly detection model 152 is expected to be used as a program module that is a part of artificial intelligence software.
The information processing apparatus 1 inputs a processed image 50, which is an image processed based on an image obtained by capturing an image of the inspected object 4 using the X-ray inspection apparatus 2, into the abnormality detection model 152, and an abnormality of the inspected object 4 is obtained. The identification result indicating the presence or absence of is acquired as an output. The control unit 11 of the information processing apparatus 1 performs an operation on the mask image 51 and / or the background image 52 and the like input to the input layer according to the command from the abnormality detection model 152, and outputs an identification result indicating the presence or absence of an abnormality. It works like that. The presence / absence of abnormality corresponds to the presence / absence of abnormality (deformation) in the shape of the object 4 to be inspected, the presence / absence of foreign matter, and the like.
Hereinafter, in the present embodiment, the type of abnormality of the object to be inspected 4 is the presence or absence of a foreign substance, and the information processing apparatus 1 inputs a mask image 51 and / or a background image 52 or the like to the abnormality detection model 152, and the object to be inspected 4 is inspected. A case where the position, shape, etc. of the foreign matter are acquired as the heat map image 53 when the foreign matter is mixed in the foreign matter will be described.
Subsequently, the information processing apparatus 1 outputs an inspection image 54 in which the heat map image 53 is combined with the processed image 50.
The information processing apparatus 1 selects whether or not to return the inspected object 4 to the manufacturer according to the acquired abnormality information such as the heat map.
Here, the abnormality information is the offset information of the heat map portion and the object corresponding to the blob in the inspection image 54 including the heat map image 53 at the position and shape corresponding to the blob identified as a foreign object on the processed image 50. Contains information on abnormalities in the inspected object such as blob labels of the type.

情報処理装置1は、制御部11、主記憶部12、通信部13、入力部14および補助記憶部15を備える。
制御部11は、1つまたは複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部15に記憶されたプログラム153を読み出して実行することにより、情報処理装置1に係る種々の情報処理、制御処理等を行う。図2の各機能部は、制御部11がプログラム153に基づいて動作することにより実行される。
The information processing device 1 includes a control unit 11, a main storage unit 12, a communication unit 13, an input unit 14, and an auxiliary storage unit 15.
The control unit 11 has an arithmetic processing unit such as one or a plurality of CPUs (Central Processing Units), MPUs (Micro-Processing Units), GPUs (Graphics Processing Units), and is a program 153 stored in the auxiliary storage unit 15. Is read and executed to perform various information processing, control processing, and the like related to the information processing unit 1. Each functional unit of FIG. 2 is executed by the control unit 11 operating based on the program 153.

制御部11は、機能部として、画像生成部111、画像処理部112、対象特定部113、取得部114、異常情報取得部115、出力部116、制御表示部117および判別部118を備える。
画像生成部111は、被検査物4を透過し、検知部7により検知されたX線に基づき、X線画像を生成する。
画像処理部112は、X線画像に対し平滑化フィルタ、特徴抽出フィルタ等により画像処理を行い、処理画像50を生成する。
対象特定部113は、処理画像50に基づいて、被検査物4のブロブ解析を行い、ブロブを特定する。
取得部114は、特定画像取得部124および特定情報取得部134を備える。特定画像取得部124は、対象特定部113によって特定されたブロブに対応した位置および形状にマスクされたマスク画像51を取得する。ここで、マスク画像51とは、発見したい異物の部分をマスク(白または黒に塗りつぶし、その他は逆の色で塗りつぶす)した画像である。また、特定画像取得部124は、ブロブを含まない処理画像50である背景画像を取得する。背景画像の生成方法については、下記に詳述する。
特定情報取得部134は、処理画像50におけるマスク部分のオフセット情報およびブロブに該当するオブジェクトの種類であるブロブラベルを有する被検査物4の異常に関する情報を含む異常情報を取得する。また、マスク画像51、背景画像52および異常情報は、教師データとして異常検出モデル152に入力される。
異常情報取得部115は、被検査物4に電磁波を照射し、被検査物4を透過した電磁波に応じて取得した画像が入力された場合に、被検査物4の異常に関する情報を出力する学習モデルに、取得部114より取得したマスク画像51および異常情報を入力して、処理画像50上にブロブの位置および形状をヒートマップとして表示されたヒートマップ画像53を取得する。
出力部116は、異常情報取得部115が取得したヒートマップ画像53を処理画像50上に合成し、ヒートマップ画像53を含む検査画像54を出力する。
The control unit 11 includes an image generation unit 111, an image processing unit 112, a target identification unit 113, an acquisition unit 114, an abnormality information acquisition unit 115, an output unit 116, a control display unit 117, and a discrimination unit 118 as functional units.
The image generation unit 111 passes through the object 4 to be inspected and generates an X-ray image based on the X-rays detected by the detection unit 7.
The image processing unit 112 performs image processing on the X-ray image by a smoothing filter, a feature extraction filter, or the like, and generates a processed image 50.
The target specifying unit 113 analyzes the blob of the inspected object 4 based on the processed image 50, and identifies the blob.
The acquisition unit 114 includes a specific image acquisition unit 124 and a specific information acquisition unit 134. The specific image acquisition unit 124 acquires a mask image 51 masked to a position and shape corresponding to the blob specified by the target identification unit 113. Here, the mask image 51 is an image in which a portion of a foreign substance to be found is masked (painted in white or black, and the others are painted in the opposite color). Further, the specific image acquisition unit 124 acquires a background image which is a processed image 50 that does not include a blob. The method of generating the background image will be described in detail below.
The specific information acquisition unit 134 acquires abnormality information including the offset information of the mask portion in the processed image 50 and the information regarding the abnormality of the inspected object 4 having the blob label which is the type of the object corresponding to the blob. Further, the mask image 51, the background image 52, and the abnormality information are input to the abnormality detection model 152 as teacher data.
The abnormality information acquisition unit 115 irradiates the inspected object 4 with an electromagnetic wave, and when an image acquired according to the electromagnetic wave transmitted through the inspected object 4 is input, the abnormality information acquisition unit 115 outputs information on the abnormality of the inspected object 4. The mask image 51 and the abnormality information acquired from the acquisition unit 114 are input to the model, and the heat map image 53 in which the position and shape of the blob is displayed as a heat map on the processed image 50 is acquired.
The output unit 116 synthesizes the heat map image 53 acquired by the abnormality information acquisition unit 115 on the processed image 50, and outputs the inspection image 54 including the heat map image 53.

制御表示部117は、図2に記載の異常検査システムを構成する各種機能部に対する設定入力情報、設定変更情報および設定確認情報等を表示する。また、制御表示部117は、補助記憶部15が備える検査画像DB151、異常検出モデル152およびプログラム153が有するデータおよびプログラムを追加、削除および編集も実施可能である。
判別部118は、被検査物4に関するヒートマップ画像53を含む検査画像54および異常情報に基づいて、検査物4を製造元へ返却するか否かの選別を行ったり、搬送部6を停止させたり、被検査物4を異常検出済みか否かを示す印のマーキングをしたりする。
The control display unit 117 displays setting input information, setting change information, setting confirmation information, and the like for various functional units constituting the abnormality inspection system shown in FIG. Further, the control display unit 117 can add, delete, and edit the data and the program included in the inspection image DB 151, the abnormality detection model 152, and the program 153 included in the auxiliary storage unit 15.
The discriminating unit 118 selects whether to return the inspected object 4 to the manufacturer based on the inspection image 54 including the heat map image 53 relating to the inspected object 4 and the abnormality information, or stops the transport unit 6. , Marking a mark indicating whether or not an abnormality has been detected in the object 4 to be inspected.

主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。 The main storage unit 12 is a temporary storage area for SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), flash memory, etc., and temporarily stores data necessary for the control unit 11 to execute arithmetic processing. Remember. The communication unit 13 is a communication module for performing processing related to communication, and transmits / receives information to / from the outside.

補助記憶部15は大容量メモリ、ハードディスク等であり、制御部11が処理を実行するために必要なプログラム153、その他のデータを記憶している。また、補助記憶部15は、検査画像DB151および前記異常検出モデル152を記憶している。検査画像DB151は、異常検出対象である被検査物4の情報を格納したデータベースである。 The auxiliary storage unit 15 is a large-capacity memory, a hard disk, or the like, and stores the program 153 and other data necessary for the control unit 11 to execute the process. Further, the auxiliary storage unit 15 stores the inspection image DB 151 and the abnormality detection model 152. The inspection image DB 151 is a database that stores information on the inspected object 4 that is an abnormality detection target.

補助記憶部15に記憶されるプログラム153は、プログラム153を読み取り可能に記録した記録媒体より提供されてもよい。記録媒体は、例えば、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード、マイクロSDカード、コンパクトフラッシュ(登録商標)等の可搬型のメモリである。記録媒体に記録されるプログラム153は、図に示していない読取装置を用いて記録媒体から読み取られ、補助記憶部15に保存される。また、情報処理装置1が外部通信装置と通信可能な通信部を備える場合、補助記憶部15に記憶されるプログラム153は、通信部を介した通信により提供されてもよい。 The program 153 stored in the auxiliary storage unit 15 may be provided from a recording medium in which the program 153 is readablely recorded. The recording medium is, for example, a portable memory such as a USB (Universal Serial Bus) memory, an SD (Secure Digital) card, a micro SD card, and a compact flash (registered trademark). The program 153 recorded on the recording medium is read from the recording medium using a reading device (not shown in the figure) and stored in the auxiliary storage unit 15. When the information processing device 1 includes a communication unit capable of communicating with an external communication device, the program 153 stored in the auxiliary storage unit 15 may be provided by communication via the communication unit.

なお、補助記憶部15には、情報処理装置1に接続された外部記憶装置を適用可能である。また、情報処理装置1には、複数のコンピュータからなるマルチコンピュータを適用可能であり、ソフトウェアによって仮想的に構築された仮想マシンも適用可能である。 An external storage device connected to the information processing device 1 can be applied to the auxiliary storage unit 15. Further, a multi-computer composed of a plurality of computers can be applied to the information processing apparatus 1, and a virtual machine virtually constructed by software can also be applied.

図3は、対象特定部113が特定したブロブに対応した位置および形状にマスクされたマスク画像51を示す概略図である。制御部11の対象特定部113は、パターンマッチング、エッジ検出、またはR-CNN(Regions with Convolutional Neural Networks)等によりブロブの検出を行う。マスク画像51は、マスク部分を白色、その他の背景を黒色として示されている。
本発明に係る対象特定部113は、Mask R-CNN(Mask Regions with Convolutional Neural Networks)のアーキテクチャを利用している。
[Mask R-CNN]
FIG. 3 is a schematic view showing a mask image 51 masked to a position and shape corresponding to a blob specified by the target identification unit 113. The target identification unit 113 of the control unit 11 detects blobs by pattern matching, edge detection, R-CNN (Regions with Convolutional Neural Networks), or the like. In the mask image 51, the mask portion is shown as white and the other background is shown as black.
The target identification unit 113 according to the present invention uses the architecture of Mask R-CNN (Mask Regions with Convolutional Neural Networks).
[Mask R-CNN]

Mask R-CNNネットワークは既知であり、そのアーキテクチャを図3に示す。図3を参照すると、Mask R-CNNは、2つのセットに分割されたCNNであり、処理はステージ1及びステージ2に分かれている。 The Mask R-CNN network is known and its architecture is shown in FIG. Referring to FIG. 3, the Mask R-CNN is a CNN divided into two sets, and the processing is divided into stage 1 and stage 2.

「ステージ1」は、入力画像の前処理を可能にし、本質的に、第1の特徴ピラミッドネットワーク(FPN)サブネットワークを含み、その動作については、以下でより詳細に説明する。 "Stage 1" allows for preprocessing of the input image and essentially includes a first feature pyramid network (FPN) subnet, the operation of which will be described in more detail below.

「ステージ2」は、検出を完了し、終了する(所望の出力、すなわち、検出された対象要素のセグメンテーションマスク、および/または1つ以上の検出ボックスおよび/またはクラスを生成する)。 "Stage 2" completes and terminates the detection (produces the desired output, ie, the segmentation mask of the detected element of interest, and / or one or more detection boxes and / or classes).

Mask R-CNNのステージ1はまた、検出ネットワークでもある領域提案ネッワーク(RPN)タイプの第3のサブネットワーク、およびトリミングモジュール(「ROIアライン、ROIは「対象領域」を意味する)を含む。FPNは、FPN出力の特徴マップ(すなわち、対象要素を含む可能性が高い)の潜在的な対象領域を識別し、トリミングモジュールは、検出ネットワークの動作を容易にするために、これらの対象領域の座標に従って特徴マップを「再アライン」する。 Stage 1 of the Mask R-CNN also includes a region proposal network (RPN) type third subnet that is also a detection network, and a trimming module (“ROI alignment, ROI means“ target region ”). The FPN identifies potential target areas in the FPN output feature map (ie, likely to contain the target element), and the trimming module uses these target areas to facilitate the operation of the detection network. "Realign" the feature map according to the coordinates.

また、本CNNは、少なくとも第1のFPNタイプネットワークおよび第2の検出ネットワークタイプサブネットワーク、ならびに任意選択的に、第3のRPNタイプサブネットワークおよびトリミングモジュールを含む。 The CNN also includes at least a first FPN type network and a second detection network type subnetwork, and optionally a third RPN type subnetwork and trimming module.

ここで、FPN(第1のサブネットワーク)は、Mask R-CNNネットワークの最も重要な部分である。 Here, the FPN (first subnetwork) is the most important part of the Mask R-CNN network.

FPNは、上昇分岐(「ボトムアップ」)、および下降分岐(「トップダウン」)、ならびに上昇分岐と下降分岐との間の横方向接続で構成されるという点で異なる。 FPN differs in that it consists of an ascending branch (“bottom-up”), a descending branch (“top-down”), and a lateral connection between the ascending and descending branches.

全体としてネットワークのバックボーンとしても既知である上昇分岐は、多くのタイプであり得る従来の特徴抽出ネットワーク、とくに従来のCNN(畳み込み層の直接連続ブロックCONV、バッチ正規化層BN、および非線形層NL)である。バックボーンは、異なるスケールで入力画像を表す複数の初期特徴マップを、入力画像から抽出する。より正確には、バックボーンは、複数の連続する畳み込みブロックからなり、それによって第1のブロックが、入力画像から第1の初期特徴マップを生成し、ついで、第2のブロックが、第2の初期特徴マップを第1の初期特徴マップに対して生成する、などである。 The ascending branch, also known as the backbone of the network as a whole, can be of many types of conventional feature extraction networks, especially conventional CNNs (convolutional layer direct continuous block CONV, batch normalization layer BN, and nonlinear layer NL). Is. The backbone extracts from the input image multiple initial feature maps that represent the input image on different scales. More precisely, the backbone consists of a plurality of convolutional blocks, whereby the first block produces the first initial feature map from the input image, and then the second block is the second initial. A feature map is generated for the first initial feature map, and so on.

従来は、畳み込みニューラルネットワークの場合、それぞれの連続するマップでスケールがより小さくなる(すなわち、分解能が低下すると、特徴マップが「より小さく」なり、したがって詳細度が低下する)が、ますます高レベルの構造の画像がキャプチャされているため、セマンティック深度がより増大することが理解されている。具体的には、初期特徴マップは、そのサイズが減少するにつれて、チャネルの数を増大させる。 Traditionally, for convolutional neural networks, each contiguous map has a smaller scale (ie, lower resolution makes the feature map "smaller" and therefore less detailed), but at an increasingly higher level. It is understood that the semantic depth is further increased because the image of the structure of is captured. Specifically, the initial feature map increases the number of channels as its size decreases.

実際には、プーリング層が2つのブロックの間に配置されて、サイズを2分の1に減少させ、1つのブロックから他のブロックに、使用される畳み込み層のフィルタの数(一般に、3×3畳み込み)が増大され(好ましくは2倍にされ)、例えば、5レベルのケースでは、例えば、32、64、128、256、および512の連続するチャネル番号、および512x512、256x256、128x128、64x64、および32x32の(512x512入力画像に対する)連続するマップサイズが存在する。
[学習モデルの生成処理]
In practice, the pooling layer is placed between the two blocks, reducing the size by half, and the number of convolutional layer filters used from one block to the other (generally 3x). 3 convolutions) are increased (preferably doubled), for example, in the case of 5 levels, for example, 32, 64, 128, 256, and 512 consecutive channel numbers, and 512x512, 256x256, 128x128, 64x64, And there are 32x32 contiguous map sizes (for 512x512 input images).
[Learning model generation process]

図4は、検査画像DB151のレコードレイアウトの一例を示す概略図である。検査画像DB151は、マスク画像ID列、オフセット情報列、ブロブラベル列およびマスク画像列を含む。マスク画像IDは、マスク画像51を識別するための情報を示している。オフセット情報(X,Y,W,H)は、X線照射領域において、搬送ベルト60上に載置された被検査物4のマスク画像51上におけるマスク部分の位置に関する座標情報を示している。ここで、XおよびYは、X座標およびY座標に関する情報を示しており、WおよびHはマスク画像51の横および縦に関する情報を示している。ブロブラベル(異物種類ラベル)は、マスク部分に該当する異常状態の種類を示しており、傷、鉄球、針および汚れ等が該当する。
さらに、検査画像DB151は、ブロブを含まない処理画像50である背景画像52を記憶する。またさらに、検査画像DB151は、ヒートマップ画像53を含む検査画像54を異物混入画像として、またヒートマップ画像53を含まない検査画像54を異物非混入画像(背景画像)として記録する。
FIG. 4 is a schematic diagram showing an example of the record layout of the inspection image DB 151. The inspection image DB 151 includes a mask image ID string, an offset information column, a blob label column, and a mask image string. The mask image ID indicates information for identifying the mask image 51. The offset information (X, Y, W, H) indicates coordinate information regarding the position of the mask portion on the mask image 51 of the object 4 to be inspected placed on the transport belt 60 in the X-ray irradiation region. Here, X and Y indicate information regarding the X coordinate and the Y coordinate, and W and H indicate information regarding the horizontal and vertical directions of the mask image 51. The blob label (foreign matter type label) indicates the type of abnormal state corresponding to the mask portion, and corresponds to scratches, iron balls, needles, stains, and the like.
Further, the inspection image DB 151 stores a background image 52, which is a processed image 50 that does not include a blob. Further, the inspection image DB 151 records the inspection image 54 including the heat map image 53 as a foreign matter mixed image, and the inspection image 54 not including the heat map image 53 as a foreign matter non-mixed image (background image).

図5は、異常検出モデル152の生成処理に関する概略図を示している。図5は、機械学習を行って異常検出モデル152を生成する処理を概念的に示している。 FIG. 5 shows a schematic diagram regarding the generation process of the abnormality detection model 152. FIG. 5 conceptually shows a process of performing machine learning to generate an abnormality detection model 152.

情報処理装置1は、異常検出モデル152として、被検査物4の処理画像50内における異常の画像特徴量を学習することで、処理画像50等を入力し、被検査物4の形状の異常、および異物の有無を示す情報を出力とするニューラルネットワークを構築(生成)する。ニューラルネットワークはMASK R-CNN(Mask Regions with Convolutional Neural Network)であり、マスク画像51および/または背景画像52等の入力を受け付ける入力層と、異常の有無の識別結果を出力する出力層と、マスク画像51および/または背景画像52等の画像特徴量を抽出する中間層とを有する。 The information processing apparatus 1 inputs the processed image 50 or the like by learning the image feature amount of the abnormality in the processed image 50 of the inspected object 4 as the abnormality detection model 152, and the abnormality in the shape of the inspected object 4 is displayed. And build (generate) a neural network that outputs information indicating the presence or absence of foreign matter. The neural network is MASK R-CNN (Mask Regions with Convolutional Neural Network), and has an input layer that accepts inputs such as a mask image 51 and / or a background image 52, an output layer that outputs an identification result of the presence or absence of an abnormality, and a mask. It has an intermediate layer for extracting an image feature amount such as an image 51 and / or a background image 52.

入力層は、検査画像54に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素を中間層に受け渡す。中間層は、検査画像54の画像特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量を出力層に受け渡す。図6において、中間層の層数は3とされているが、これに限定されない。例えば異常検出モデル152がCNNである場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成を有し、検査画像54の画素情報を圧縮しながら最終的に画像の特徴量を抽出する。図6において、コンボリューション層、およびプーリング層の記載は省略している。出力層は、被検査物4の異常を識別した識別結果を出力する三つのニューロンを有し、中間層から出力された画像特徴量に基づいて被検査物4の形状の異常の有無、異物の有無を識別する。第1のニューロンは被検査物4の正常の確率値を出力し、第2のニューロンは被検査物4の形状の異常の確率値を出力し、第3のニューロンは被検査物4が異物を有する確率値を出力する。なお、異常の種類は3以上であってもよい。 The input layer has a plurality of neurons that receive the input of the pixel value of each pixel included in the inspection image 54, and passes the input pixel to the intermediate layer. The intermediate layer has a plurality of neurons for extracting the image feature amount of the inspection image 54, and passes the extracted image feature amount to the output layer. In FIG. 6, the number of layers of the intermediate layer is set to 3, but the number of layers is not limited to this. For example, when the abnormality detection model 152 is CNN, the intermediate layer alternates between a convolutional layer that convolves the pixel values of each pixel input from the input layer and a pooling layer that maps the pixel values convoluted by the convolutional layer. It has a configuration connected to the image 54, and finally extracts the feature amount of the image while compressing the pixel information of the inspection image 54. In FIG. 6, the description of the convolution layer and the pooling layer is omitted. The output layer has three neurons that output the identification results that identify the abnormality of the object 4 to be inspected, and the presence or absence of the abnormality in the shape of the object 4 to be inspected and the presence or absence of foreign matter based on the image feature amount output from the intermediate layer. Identify the presence or absence. The first neuron outputs the normal probability value of the inspected object 4, the second neuron outputs the probability value of the abnormal shape of the inspected object 4, and the third neuron outputs the foreign substance in the inspected object 4. Output the probability value to have. The type of abnormality may be 3 or more.

なお、本実施の形態では異常検出モデル152がCNNであるものとして説明するが、異常検出モデル152はCNNに限定されず、CNN以外のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木など、他の学習アルゴリズムで構築された学習済みモデルも適用可能である。 In this embodiment, the anomaly detection model 152 is described as being a CNN, but the anomaly detection model 152 is not limited to the CNN, and is not limited to the CNN, but is a neural network other than the CNN, an SVM (Support Vector Machine), a Bayesian network, and a regression tree. Trained models built with other training algorithms are also applicable.

情報処理装置1は、複数のマスク画像51と、各マスク画像51における被検査物4の異常を示す情報とが対応付けられた教師データを用いて学習を行う。ここで、以上を示す情報とは、被検査物4の処理画像50上において判断される異常の有無等であって、異常が有ると判断された場合は、被検査物4の形状の異常、および異物の有無等に関する情報である。例えば図5に示すように、教師データは、被検査物4のマスク画像51に対し、マスク画像51のIDと、オフセット情報およびブロブラベルとがラベル付けされたデータならびに/または背景画像52等のデータである。 The information processing apparatus 1 performs learning by using the teacher data in which the plurality of mask images 51 and the information indicating the abnormality of the inspected object 4 in each mask image 51 are associated with each other. Here, the information indicating the above is the presence or absence of an abnormality determined on the processed image 50 of the inspected object 4, and if it is determined that there is an abnormality, the shape of the inspected object 4 is abnormal. And information on the presence or absence of foreign matter. For example, as shown in FIG. 5, the teacher data includes data in which the ID of the mask image 51, offset information, and blob label are labeled with respect to the mask image 51 of the object 4 to be inspected, and / or data such as a background image 52. Is.

情報処理装置1は、教師データであるマスク画像51および/または背景画像52等を入力層に入力し、中間層での演算処理を経て、出力層から被検査物4の異常の有無を示す識別結果を取得する。なお、出力層から出力される識別結果は、マスク画像51が入力層に入力された場合はヒートマップ画像53を含む検査画像54であり、背景画像が入力層に入力された場合はヒートマップ画像53を含まない検査画像54である。 The information processing apparatus 1 inputs the mask image 51 and / or the background image 52, which are teacher data, to the input layer, undergoes arithmetic processing in the intermediate layer, and identifies from the output layer whether or not the inspected object 4 is abnormal. Get the result. The identification result output from the output layer is an inspection image 54 including a heat map image 53 when the mask image 51 is input to the input layer, and a heat map image when the background image is input to the input layer. It is an inspection image 54 which does not include 53.

情報処理装置1は、出力層から出力された識別結果を、教師データにおいてマスク画像51に対しラベル付けされた情報、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えば情報処理装置1は誤差逆伝播法を用いて各種パラメータの最適化を行う。 The information processing apparatus 1 compares the identification result output from the output layer with the information labeled with respect to the mask image 51 in the teacher data, that is, the correct answer value, so that the output value from the output layer approaches the correct answer value. , Optimize the parameters used for arithmetic processing in the intermediate layer. The parameters are, for example, a weight between neurons (coupling coefficient), a coefficient of an activation function used in each neuron, and the like. The method of optimizing the parameters is not particularly limited, but for example, the information processing apparatus 1 optimizes various parameters by using the error back propagation method.

情報処理装置1は、教師データに含まれる各検査画像54について上記の処理を行い、異常検出モデル152を生成する。情報処理装置1は被検査物4の処理画像50を取得した場合、異常検出モデル152を用いて被検査物4の異物の有無を検出する。 The information processing apparatus 1 performs the above processing on each inspection image 54 included in the teacher data, and generates an abnormality detection model 152. When the information processing apparatus 1 acquires the processed image 50 of the inspected object 4, the information processing apparatus 1 detects the presence or absence of foreign matter in the inspected object 4 by using the abnormality detection model 152.

図6は、制御部11による異常検出モデル152の生成処理の処理手順の一例を示すフローチャートである。
制御部11は、被検査物4の複数のマスク画像51と、各処理画像50内における被検査物4の前記異常を示す情報とを対応付けたデータ、および/または被検査物4の異常が無い背景画像52であるデータを教師データとして取得する(S11)。
FIG. 6 is a flowchart showing an example of the processing procedure of the generation processing of the abnormality detection model 152 by the control unit 11.
The control unit 11 has data in which the plurality of mask images 51 of the inspected object 4 are associated with the information indicating the abnormality of the inspected object 4 in each processed image 50, and / or the abnormality of the inspected object 4 is found. The data that is the background image 52 that does not exist is acquired as the teacher data (S11).

制御部11は教師データを用いて、被検査物4のマスク画像51および/または背景画像52を入力した場合に被検査物4の異常有無情報を出力する異常検出モデル152(学習済みモデル)を生成する(S12)。
具体的には、制御部11は、教師データであるマスク画像51および/または背景画像52をニューラルネットワークの入力層に入力し、処理画像50内の被検査物4の形態の異常の有無、被検査物4に混入した異物の有無を識別した識別結果を出力層から取得する。制御部11は、取得した識別結果を教師データの正解値(マスク画像51に対してラベル付けられた情報、または背景画像52に対する異常無し情報)と比較し、出力層から出力される識別結果が正解値に近づくよう、中間層での演算処理に用いるパラメータ(重み等)を最適化する。なお、マスク画像51および背景画像52の種類や数を増加させ、学習回数を増やすことでも、異常検出モデル152は最適化され、精度は向上する。制御部11は、生成した異常検出モデル152を補助記憶部15に格納し、一連の処理を終了する。
なお、本実施形態における学習モデルの生成処理は、教師データにマスク画像51のみを用いることも可能ではあるが、被検査物4の処理画像50に存在し、異物には酷似しているが異物には該当しないブロブ等については、異常検出モデル152に背景画像として学習させておくことで、異常検出モデル152の学習効果は向上し、異常検査システム10による異常検出処理の精度がさらに向上する。
[異常検出処理]
The control unit 11 uses the teacher data to generate an abnormality detection model 152 (learned model) that outputs the abnormality presence / absence information of the inspected object 4 when the mask image 51 and / or the background image 52 of the inspected object 4 is input. Generate (S12).
Specifically, the control unit 11 inputs the mask image 51 and / or the background image 52, which are teacher data, to the input layer of the neural network, and determines whether or not there is an abnormality in the form of the object 4 to be inspected in the processed image 50. The identification result for identifying the presence or absence of foreign matter mixed in the inspection object 4 is acquired from the output layer. The control unit 11 compares the acquired identification result with the correct answer value of the teacher data (information labeled for the mask image 51 or no abnormality information for the background image 52), and the identification result output from the output layer is obtained. The parameters (weights, etc.) used for the arithmetic processing in the intermediate layer are optimized so as to approach the correct answer value. By increasing the types and numbers of the mask image 51 and the background image 52 and increasing the number of learnings, the abnormality detection model 152 is optimized and the accuracy is improved. The control unit 11 stores the generated abnormality detection model 152 in the auxiliary storage unit 15, and ends a series of processes.
Although it is possible to use only the mask image 51 for the teacher data in the learning model generation process in the present embodiment, it exists in the processed image 50 of the object 4 to be inspected, and although it is very similar to the foreign substance, it is a foreign substance. By training the abnormality detection model 152 as a background image for blobs and the like that do not correspond to the above, the learning effect of the abnormality detection model 152 is improved, and the accuracy of the abnormality detection process by the abnormality inspection system 10 is further improved.
[Abnormality detection processing]

図7は、異常検査システム10による異常検出処理の処理手順の一例を示すフローチャート図である。
X線検査装置2の照射部3は、X線を被検査物4に照射し、検知部7により検知されたX線に基づき、情報処理装置1における制御部11の画像生成部111は、X線照射画像を生成する(S21)。
制御部11の画像処理部112は、X線画像に対し平滑化フィルタ、特徴抽出フィルタ等により画像処理を行い、処理画像50を生成する(S22)。
制御部11の対象特定部113は、処理画像50に基づいて、被検査物4のブロブ解析を行い、ブロブを特定する(S23)。
制御部11の取得部114は、S22において生成された処理画像50およびS23において特定されたブロブに基づいて、マスク画像51および異常情報等を取得する(S24)。
制御部11の異常情報取得部115は、S24において取得したマスク画像51等に基づいて、ヒートマップ画像53を取得する(S25)。
制御部11の出力部116は、ヒートマップ画像53を処理画像50上に合成し、ヒートマップ画像53を含む検査画像54を出力し(S26)、処理を終了する。
FIG. 7 is a flowchart showing an example of a processing procedure for abnormality detection processing by the abnormality inspection system 10.
The irradiation unit 3 of the X-ray inspection device 2 irradiates the inspected object 4 with X-rays, and based on the X-rays detected by the detection unit 7, the image generation unit 111 of the control unit 11 in the information processing device 1 uses X-rays. A line irradiation image is generated (S21).
The image processing unit 112 of the control unit 11 performs image processing on the X-ray image with a smoothing filter, a feature extraction filter, or the like to generate a processed image 50 (S22).
The target specifying unit 113 of the control unit 11 performs blob analysis of the inspected object 4 based on the processed image 50, and identifies the blob (S23).
The acquisition unit 114 of the control unit 11 acquires the mask image 51, abnormality information, and the like based on the blobs specified in the processed images 50 and S23 generated in S22 (S24).
The abnormality information acquisition unit 115 of the control unit 11 acquires the heat map image 53 based on the mask image 51 or the like acquired in S24 (S25).
The output unit 116 of the control unit 11 synthesizes the heat map image 53 on the processed image 50, outputs the inspection image 54 including the heat map image 53 (S26), and ends the processing.

以上のように、本実施形態によれば、被検査物4の処理画像50において、正常部分と異常部分との画素値の差異が小さい場合においても、精度良く、正常部分と異常部分とを判別できる。
従って、被検査物4の形状の異常、被検査物4のへ混入した異物の有無等の異常有無情報を精度良く検出できる。
また、被検査物4の処理画像50に存在し、異物には酷似しているが異物には該当しないブロブ等については、異常検出モデル152に背景画像として学習させておくことで、異常検査システム10による異常検出処理の精度がさらに向上する。
そのため、異常検査システム10の精度がさらに向上すると、ユーザ(作業者)の目視による異常の検出の実施が低減または不要となり、異常検出作業の効率化を図ることができる。
[画像]
As described above, according to the present embodiment, in the processed image 50 of the object 4 to be inspected, even when the difference between the pixel values of the normal portion and the abnormal portion is small, the normal portion and the abnormal portion can be accurately discriminated. can.
Therefore, it is possible to accurately detect the presence / absence of abnormality information such as an abnormality in the shape of the object to be inspected 4 and the presence / absence of a foreign substance mixed in the object to be inspected 4.
Further, for a blob or the like that exists in the processed image 50 of the object 4 to be inspected and is very similar to a foreign substance but does not correspond to a foreign substance, the abnormality detection model 152 is trained as a background image to perform an abnormality inspection system. The accuracy of the abnormality detection process according to 10 is further improved.
Therefore, if the accuracy of the abnormality inspection system 10 is further improved, it becomes possible to reduce or eliminate the need for the user (operator) to visually detect the abnormality, and it is possible to improve the efficiency of the abnormality detection work.
[image]

本発明の異常検出処理の実施において使用される各種画像の説明を行う。
図8の(a)、(b)、(c)は、被検査物4の処理画像50を示す概略図である。処理画像50は、X線照射画像に画像処理を施し生成される。
つぎに、図9の(a)、(b)、(c)は、処理画像50から特定されたブロブに対して、マスキング処理を実施して取得した、被検査物のマスク画像を示す概略図である。マスキング処理において、ブロブに該当する部分を白、ブロブ以外の領域を黒で処理される。
つぎに、図10は、異常検出処理またはユーザ(検査作業者)の目視により、ブロブが特定されず、異物が混入していないと判断された被検査物の処理画像50を示す概略図である。当該画像は、マスク画像に対し、所定の画像処理を施され、背景画像52として異常検出モデル152に学習される。なお、当該画像においてブロブが特定されても、当該ブロブが異物と判断されない場合は、上記と同様に背景画像52として処理され学習される。
Various images used in carrying out the abnormality detection process of the present invention will be described.
8 (a), (b), and (c) are schematic views showing a processed image 50 of the object 4 to be inspected. The processed image 50 is generated by performing image processing on the X-ray irradiation image.
Next, FIGS. 9A, 9B, and 9C are schematic views showing mask images of the inspected object obtained by performing masking processing on the blobs identified from the processed image 50. Is. In the masking process, the part corresponding to the blob is treated with white, and the area other than the blob is treated with black.
Next, FIG. 10 is a schematic view showing a processed image 50 of the object to be inspected, in which the blob is not identified by the abnormality detection process or the visual inspection of the user (inspector) and it is determined that no foreign matter is mixed. .. The image is subjected to predetermined image processing on the mask image, and is learned by the abnormality detection model 152 as the background image 52. Even if the blob is specified in the image, if the blob is not determined to be a foreign substance, it is processed and learned as the background image 52 in the same manner as described above.

つぎに、図11の(a)、(b)は、背景画像処理を実施するためのマーキング画像を示す概略図である。図11の(a)、(b)のそれぞれの左上には、被検査物4の正常な処理画像50を背景画像化するためのマーキングログが表示されている。当該マーキングロゴは、異物検出処理やユーザの目視によってブロブとして判断されないよう、想定された様々な種類のブロブとは全く異なる形状に作成されている。図11(a)はマーキングロゴを白とし、マーキングロゴ以外の領域を黒で処理されている。なお、図11(b)は、図11(a)のネガポジ反転画像であり、処理画像50の二階調レベルに応じて適切に使用される。異常検出モデル152は、当該マーキングロゴを含む画像はすべて背景画像として学習する。背景画像52の学習により、処理画像上にブロブが特定された場合でも、当該ブロブが異物か否かを正確に判断可能となる。
つぎに、図12は、図10に示す異物が混入されていない処理画像50である正常画像と、図11に示すマーキング画像とを合成することにより取得された背景画像52を示す概略図である。
Next, FIGS. 11A and 11B are schematic views showing marking images for performing background image processing. At the upper left of each of FIGS. 11A and 11B, a marking log for converting a normal processed image 50 of the object 4 to be inspected into a background image is displayed. The marking logo is created in a completely different shape from the various types of blobs envisioned so that it will not be judged as a blob by foreign matter detection processing or the user's visual inspection. In FIG. 11A, the marking logo is white, and the area other than the marking logo is black. Note that FIG. 11B is a negative / positive inverted image of FIG. 11A, and is appropriately used according to the two gradation level of the processed image 50. The abnormality detection model 152 learns all the images including the marking logo as background images. By learning the background image 52, even when a blob is specified on the processed image, it is possible to accurately determine whether or not the blob is a foreign substance.
Next, FIG. 12 is a schematic view showing a background image 52 obtained by synthesizing a normal image which is a processed image 50 in which foreign matter shown in FIG. 10 is not mixed and a marking image shown in FIG. ..

つぎに、図13は、異物が混入している被検査物4の処理画像50を示す概略図である。円形および楕円形の点線で囲まれた部分に異物が示されている。
つぎに、図14の(a)、(b)、(c)は、複数の異物が混入した被検査物4の処理画像50に対して異物検出処理を実施する際に、予め実施される画像処理を示す概略図である。複数の異物が混入した被検査物4の処理画像50は、それぞれの画像が異なる異物を示す、異物の数と同等数の画像を複製する。図14の(a)には異物を2つ含む処理画像が示されている。異物検査処理の精度を高めるために、図14の(a)に示す処理画像50は、1つずつの異物を含む処理画像50である図14の(b)および図14の(c)の処理画像50に複製される。その後、図14の(b)および図14の(c)の処理画像50に対してマスク画像51が生成される。
Next, FIG. 13 is a schematic view showing a processed image 50 of the inspected object 4 in which foreign matter is mixed. Foreign matter is shown in the circled and oval dotted lines.
Next, FIGS. 14A, 14B, and 14C are images that are previously performed when the foreign matter detection process is performed on the processed image 50 of the object 4 to be inspected in which a plurality of foreign substances are mixed. It is a schematic diagram which shows the process. The processed image 50 of the inspected object 4 in which a plurality of foreign substances are mixed duplicates the same number of images as the number of foreign substances, each of which shows a different foreign substance. FIG. 14A shows a processed image containing two foreign substances. In order to improve the accuracy of the foreign matter inspection process, the processed image 50 shown in FIG. 14 (a) is a processed image 50 containing one foreign substance, which is the process of FIGS. 14 (b) and 14 (c). It is duplicated in the image 50. After that, the mask image 51 is generated for the processed image 50 of FIG. 14 (b) and FIG. 14 (c).

つぎに、図15の(a)、(b)は、異物検出処理を実施後における被検査物の検査画像を示す概略図である。図15(a)は、異物検出処理前の処理画像50であり、図15(b)は、異物検出処理前の処理画像50である検査画像54を示している。異物検出処理を実施後、図15(b)には、処理画像50の異物部分にヒートマップが表示され、異物の存在、おおよその形状および位置が明瞭に示されている。詳細には、図15(b)の検査画像54は、図15(a)の処理画像50に対して、異物検出処理によって得られた異常情報等に基づいて生成されたヒートマップ画像を合成することで取得される。
つぎに、図16の(a)、(b)は、検査対象である被検査物の一例を示す概略図である。図16(a)からわかるように、鉄球形状の異物であれば、0.8mm、1.0mm、1.2mm、1.5mm、2.0mm、2.5mm等、様々なサイズのものを検出可能である。また、図16(b)は、鉄球形状以外の異物の一例である。図16(b)からわかるように、まち針、ホチキス、折れ針、ヘアゴム、ライター等が異物検出の対象である。なお、撮影可能な異物であれば、異常検出モデル152に異物として登録し、学習させることで、検出は可能になる。
(実施形態2)
[再学習]
Next, FIGS. 15A and 15B are schematic views showing inspection images of the object to be inspected after the foreign matter detection process is performed. FIG. 15A shows a processed image 50 before the foreign matter detection process, and FIG. 15B shows an inspection image 54 which is a processed image 50 before the foreign matter detection process. After performing the foreign matter detection process, FIG. 15B displays a heat map on the foreign matter portion of the processed image 50, and clearly shows the presence, approximate shape and position of the foreign matter. Specifically, the inspection image 54 of FIG. 15 (b) synthesizes a heat map image generated based on the abnormality information or the like obtained by the foreign matter detection process with the processed image 50 of FIG. 15 (a). Is obtained by.
Next, FIGS. 16A and 16B are schematic views showing an example of an inspected object to be inspected. As can be seen from FIG. 16A, if the foreign matter has an iron ball shape, various sizes such as 0.8 mm, 1.0 mm, 1.2 mm, 1.5 mm, 2.0 mm, and 2.5 mm can be used. It is detectable. Further, FIG. 16B is an example of a foreign substance other than the iron ball shape. As can be seen from FIG. 16B, foreign matter detection targets include gusset needles, staplers, broken needles, hair ties, and lighters. If it is a foreign substance that can be photographed, it can be detected by registering it as a foreign substance in the abnormality detection model 152 and learning it.
(Embodiment 2)
[Re-learning]

図17は、実施形態2に係る異常検査システム20の構成を示すブロック図である。
実施形態2に係る異常検査システム20は、制御部11が機能部として再学習部119
を有すること以外は、実施形態1に係る異常検査システム10と同様の構成を有し、同様の処理を行う。図2と同一部分は同一符号を付して詳細な説明を省略する。
FIG. 17 is a block diagram showing the configuration of the abnormality inspection system 20 according to the second embodiment.
In the abnormality inspection system 20 according to the second embodiment, the control unit 11 serves as a functional unit and the re-learning unit 119.
It has the same configuration as the abnormality inspection system 10 according to the first embodiment, and performs the same processing except that the abnormality inspection system 10 is provided. The same parts as those in FIG. 2 are designated by the same reference numerals, and detailed description thereof will be omitted.

本発明の異物検出処理において、第1の表示部41は処理画像50を表示し、当該処理画像50の異物の有無等をユーザ(作業者)が目視で異物の確認をする。また、第2の表示部42は異常検査システム20による異物検出処理後の検査画像54を表示し、ユーザが検査画像54上のヒートマップの有無を目視で確認する。 In the foreign matter detection process of the present invention, the first display unit 41 displays the processed image 50, and the user (operator) visually confirms the presence or absence of foreign matter in the processed image 50. Further, the second display unit 42 displays the inspection image 54 after the foreign matter detection process by the abnormality inspection system 20, and the user visually confirms the presence or absence of the heat map on the inspection image 54.

この際、ユーザによる目視での異物混入の判断と、異物検出処理による異常検査システム20の判断とが異なる場合が問題となる。ここで、前提としてユーザの目視による判断が正解とする。図18は、ユーザの判断と異常検査システム20の検出結果とが異なる場合を整理した概略図である。図18からわかるように、問題となるのは、ユーザが目視で異物有りと判断した際に異常検査システム20が異物無しと検出した場合、およびユーザが目視で異物無しと判断した際に異常検査システム20が異物有りと検出した場合である。
すなわち、処理画像50が再学習されるケースは以下の(パターン1)、(パターン2)である。
(パターン1)本発明に係る異常検査システム20が、被検査物4の検査画像54にヒートマップを表示していないが、ユーザが目視により、異物が混入していると判断したケース。
(パターン2)本発明に係る異常検査システム20が、被検査物4の検査画像54にヒートマップを表示しているが、ユーザが目視により、異物が混入していないと判断したケース。
At this time, there is a problem that the visual determination of foreign matter by the user and the determination of the abnormality inspection system 20 by the foreign matter detection process are different. Here, as a premise, the user's visual judgment is the correct answer. FIG. 18 is a schematic diagram showing cases where the judgment of the user and the detection result of the abnormality inspection system 20 are different. As can be seen from FIG. 18, the problem is that when the user visually determines that there is a foreign substance, the abnormality inspection system 20 detects that there is no foreign substance, and when the user visually determines that there is no foreign substance, the abnormality inspection is performed. This is the case when the system 20 detects that there is a foreign substance.
That is, the cases where the processed image 50 is relearned are the following (Pattern 1) and (Pattern 2).
(Pattern 1) A case in which the abnormality inspection system 20 according to the present invention does not display a heat map on the inspection image 54 of the object 4 to be inspected, but the user visually determines that foreign matter is mixed.
(Pattern 2) A case where the abnormality inspection system 20 according to the present invention displays a heat map on the inspection image 54 of the inspected object 4, but the user visually determines that no foreign matter is mixed.

再学習部119は、本発明に係る学習モデルの出力結果とユーザの目視による判定結果との間に齟齬が発生した際に、再度ユーザの目視により処理画像50を確認して被検査物4の正常/異常状態判定を実施する。
再学習部119は、検査画像54と、ユーザから入力された異常検出モデル152の判断の良否の判定とを対応付けた教師データを用いて、異常検出モデル152を再学習する。
ここで、第2の表示部42は、第1の操作ボタンであるOKボタン70(図示せず)および第2の操作ボタンであるNGボタン71(図示せず)を備える。
第1の表示部41および第2の表示部42にそれぞれ表示された画像において、上記(パターン1)および(パターン2)の状態が発生した場合に、制御部11はユーザによるOKボタン70およびNGボタン71の押下の状態を検知し、検査画像54と異常状態の有無、例えば異物混入の有無とを関連付けし、再学習対象のデータとして特定する。
第2の表示部42は、被検査物4の異常の種類の入力を受け付ける選択ボタン72を更に備える。
上記(パターン1)の場合、ユーザはNGボタン71の押下に加え、選択ボタンを押下することで、第2の表示部42に表示された画像が含む異常の種類、例えば異物の種類を選択および入力することができる。
選択および入力された異常の種類は、異常状態の有無に加えて更に検査画像54と関連付けられる。
上記(パターン1)および(パターン2)において、誤判定となった画像に対して正確な情報を追加し、異常検出モデル152による再学習後、同様の異常の発生に対して、第2の表示部は異常の種類に基づいたヒートマップ画像を異常画像上に表示する。
すなわち、再学習部119は、判別部118により、再判別された検査画像54についても異常検出モデル152を再学習する。再学習部119による異常検出モデル152の再学習は、例えば、夜間に自動学習等により実施する。該当する処理画像50の正しい判定結果については、検査画像DB151に保存、蓄積され、新たな被検査物4の検査において活用される。
ユーザによる異物混入の判断結果と異常検査システムによる異物混入の判断結果とが異なっていた場合、異常検査システムが将来同様の誤認、誤検出、誤判断をしないよう、対象の処理画像に対して異常検出モデル152へ再学習をさせる必要がある。
When a discrepancy occurs between the output result of the learning model according to the present invention and the visual determination result of the user, the re-learning unit 119 confirms the processed image 50 again by the user's visual inspection and confirms the processed image 50 of the inspected object 4. Perform normal / abnormal status judgment.
The re-learning unit 119 relearns the abnormality detection model 152 by using the teacher data in which the inspection image 54 and the judgment of the quality of the abnormality detection model 152 input by the user are associated with each other.
Here, the second display unit 42 includes an OK button 70 (not shown) which is a first operation button and an NG button 71 (not shown) which is a second operation button.
When the states of (Pattern 1) and (Pattern 2) occur in the images displayed on the first display unit 41 and the second display unit 42, respectively, the control unit 11 has the OK button 70 and NG by the user. The state of pressing the button 71 is detected, the inspection image 54 is associated with the presence or absence of an abnormal state, for example, the presence or absence of foreign matter contamination, and the data is specified as data to be relearned.
The second display unit 42 further includes a selection button 72 that accepts an input of the type of abnormality of the object 4 to be inspected.
In the case of the above (pattern 1), the user presses the selection button in addition to pressing the NG button 71 to select the type of abnormality included in the image displayed on the second display unit 42, for example, the type of foreign matter. You can enter it.
The type of anomaly selected and entered is further associated with the inspection image 54 in addition to the presence or absence of anomalous conditions.
In the above (Pattern 1) and (Pattern 2), accurate information is added to the image that has been erroneously determined, and after re-learning by the abnormality detection model 152, a second display is made for the occurrence of the same abnormality. The unit displays a heat map image based on the type of abnormality on the abnormality image.
That is, the re-learning unit 119 relearns the abnormality detection model 152 for the re-discriminated inspection image 54 by the discrimination unit 118. The re-learning of the abnormality detection model 152 by the re-learning unit 119 is performed, for example, by automatic learning at night. The correct determination result of the corresponding processed image 50 is stored and stored in the inspection image DB 151, and is utilized in the inspection of a new inspected object 4.
If the judgment result of foreign matter contamination by the user and the judgment result of foreign matter contamination by the abnormality inspection system are different, an abnormality is made to the target processed image so that the abnormality inspection system does not make the same misidentification, false detection, or false judgment in the future. It is necessary to retrain the detection model 152.

図19は、情報処理装置1の制御部11による再学習処理の処理手順の一例を示すフローチャートである。 FIG. 19 is a flowchart showing an example of the processing procedure of the relearning process by the control unit 11 of the information processing apparatus 1.

制御部11は、選択された検査画像54に対し、ユーザによる第2の表示部42が備えるOKボタン70またはNGボタン71の押下に基づき、異常検査システム20による異物検出の判断の良否の判定を受け付ける(S31)。
異常検査システム20による異物検出の結果が、ユーザの目視の判断と異なった場合、ユーザはNGボタン71を押下する。上記パターン1の場合は、当該押下によって、検査画像54からマスク画像等を取得し(S31)、これらを教師データとして異常検出モデル152に学習させ、新たな異常検出モデル152を生成し(S32)、検査画像DB151に保存する。
また、上記パターン2の場合は、当該NGボタン71の押下によって、検査画像54はマスキング画像と合成され、背景画像52を取得し(S31)、これらを教師データとして異常検出モデル152に学習させ、新たな異常検出モデル152を生成し(S32)、検査画像DB151に保存する。
ユーザの目視による異物判断結果と異常検査システム20の異物検出処理結果が同じであった場合、ユーザはOKボタン70を押下することで、異物検出処理は終了する。
これらの再学習処理により、異常検出処理を継続するほど異常検出モデル152が再学習し、より正確な、精度の高い異常検出を行うことができるようになる
The control unit 11 determines whether or not the abnormality inspection system 20 determines whether or not the foreign matter detection is good or bad based on the user pressing the OK button 70 or the NG button 71 provided on the second display unit 42 with respect to the selected inspection image 54. Accept (S31).
When the result of foreign matter detection by the abnormality inspection system 20 is different from the visual judgment of the user, the user presses the NG button 71. In the case of the above pattern 1, by pressing the button, a mask image or the like is acquired from the inspection image 54 (S31), these are trained by the abnormality detection model 152 as teacher data, and a new abnormality detection model 152 is generated (S32). , Saved in the inspection image DB 151.
Further, in the case of the above pattern 2, by pressing the NG button 71, the inspection image 54 is combined with the masking image, a background image 52 is acquired (S31), and these are trained by the abnormality detection model 152 as teacher data. A new abnormality detection model 152 is generated (S32) and stored in the inspection image DB 151.
When the foreign matter determination result by the user's visual inspection and the foreign matter detection processing result of the abnormality inspection system 20 are the same, the user presses the OK button 70 to end the foreign matter detection processing.
By these re-learning processes, the anomaly detection model 152 is relearned as the anomaly detection process is continued, and more accurate and accurate anomaly detection can be performed.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
例えば、検査物は服飾製品、食品に限定されず、包装体、工業製品等であってもよい。
被検査物4に照射する電磁波はX線に限定されず、テラヘルツ波、赤外線および可視光等であってもよい。
また、以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。
The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
For example, the inspection product is not limited to clothing products and food products, but may be packages, industrial products, and the like.
The electromagnetic wave irradiating the object 4 to be inspected is not limited to X-rays, and may be terahertz waves, infrared rays, visible light, or the like.
Further, in the process or operation described above, the process or operation is performed as long as there is no contradiction in the process or operation such as using data that should not be available in that step in a certain step. You can change it freely. Further, each of the examples described above is an example for explaining the present invention, and the present invention is not limited to these examples. The present invention can be carried out in various forms as long as it does not deviate from the gist thereof.

1 情報処理装置
2 X線検査装置
3 照射部
4 被検査物
6 搬送部(コンベア)
7 検知部
10、20 異常検査システム
11 制御部
12 記憶部
13 通信部
14 入力部
15 補助記憶部
21 小さい上側筐体
21 上側筐体
22 表示部
23 下側筐体
24 発光部
25 受光部
27 コントローラ
31 照射体
32 照射制御部
41 第1の表示部
42 第2の表示部
50 処理画像
51 マスク画像
52 背景画像
53 ヒートマップ画像
54 検査画像
60 搬送ベルト
61 搬送ベルト駆動部
62 搬送ベルト制御部
70 OKボタン(第1の操作ボタン)
71 NGボタン(第2の操作ボタン)
72 選択ボタン
111 画像生成部
112 画像処理部
113 対象特定部
114 取得部
115 異常情報取得部
116 出力部
117 制御表示部
118 判別部
119 学習部
124 特定画像取得部
134 特定情報取得部
152 異常検出モデル
153 プログラム
220 データファイル生成部
221 データ読込部
DB151 検査画像
N ネットワーク
1 Information processing device 2 X-ray inspection device 3 Irradiation unit 4 Inspected object 6 Conveyor unit (conveyor)
7 Detection unit 10, 20 Abnormality inspection system 11 Control unit 12 Storage unit 13 Communication unit 14 Input unit 15 Auxiliary storage unit 21 Small upper housing 21 Upper housing 22 Display unit 23 Lower housing 24 Light emitting unit 25 Light receiving unit 27 Controller 31 Irradiating body 32 Irradiation control unit 41 First display unit 42 Second display unit 50 Processing image 51 Mask image 52 Background image 53 Heat map image 54 Inspection image 60 Conveyance belt 61 Conveyance belt drive unit 62 Conveyance belt control unit 70 OK Button (first operation button)
71 NG button (second operation button)
72 Select button 111 Image generation unit 112 Image processing unit 113 Target identification unit 114 Acquisition unit 115 Abnormal information acquisition unit 116 Output unit 117 Control display unit 118 Discrimination unit 119 Learning unit 124 Specific image acquisition unit 134 Specific information acquisition unit 152 Abnormality detection model 153 Program 220 Data file generation unit 221 Data reading unit DB151 Inspection image N network

Claims (12)

被検査物に電磁波を照射するステップと、
前記被検査物を透過した電磁波に応じて画像を取得するステップと、
前記画像に対して画像処理された処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定するステップと、
特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とを取得するステップと、
前記マスク画像、前記背景画像および前記異常情報を含む教師データを取得するステップと、
前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて取得した画像が入力された場合に、前記教師データに基づいて、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得するステップと、
前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する学習モデルを生成するステップとを含み、
前記背景画像は、前記ブロブの形状とは異なる画像が前記処理画像の任意の位置に合成されていることを特徴とする学習モデルの生成方法。
The step of irradiating the object to be inspected with electromagnetic waves,
The step of acquiring an image according to the electromagnetic wave transmitted through the object to be inspected, and
A step of identifying a blob contained in the inspected object based on the pixel value of the pixel of the processed image that has been image-processed with respect to the image.
A mask image masked to a position and shape corresponding to the specified blob, a background image which is the processed image not including the blob, offset information of the mask portion in the processed image, and an object corresponding to the blob. The step of acquiring anomalous information including information on the anomaly of the inspected object having a blob label of the type of
A step of acquiring teacher data including the mask image, the background image, and the abnormality information, and
When the object to be inspected is irradiated with an electromagnetic wave and an image acquired in response to the electromagnetic wave transmitted through the object to be inspected is input, the position and shape of the blob are displayed on the processed image based on the teacher data. Steps to get the heatmap image displayed as a heatmap,
A step of generating a learning model that outputs an inspection image including the heat map image by synthesizing the heat map image with the processed image is included.
The background image is a method of generating a learning model, characterized in that an image different from the shape of the blob is synthesized at an arbitrary position of the processed image.
前記電磁波はX線であり、
該X線に応じて取得した画像のうち、前記ブロブを特定し、該ブロブに対応した位置および形状にマスクされたマスク画像を生成するステップと、
生成された前記マスク画像を表示するステップと、
前記マスク画像に含まれる前記被検査物の前記異常情報を特定するステップ
とを含むことを特徴とする請求項1に記載の学習モデルの生成方法。
The electromagnetic wave is an X-ray,
A step of identifying the blob from the images acquired in response to the X-ray and generating a masked image masked to a position and shape corresponding to the blob.
The step of displaying the generated mask image and
The method for generating a learning model according to claim 1, further comprising a step of identifying the abnormality information of the object to be inspected included in the mask image.
前記被検査物に関する前記マスク画像と、前記被検査物の前記異常情報とを取得するステップと、
前記マスク画像及び前記異常情報に基づき、前記学習モデルを再学習するステップ
とを含むことを特徴とする請求項1または2に記載の学習モデルの生成方法。
A step of acquiring the mask image of the inspected object and the abnormality information of the inspected object, and
The method for generating a learning model according to claim 1 or 2, further comprising a step of re-learning the learning model based on the mask image and the abnormality information.
被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて画像を取得し、前記画像に対して画像処理された処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定し、特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とが入力される入力層と、
前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得し、前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する出力層と、
前記マスク画像および前記異常情報に基づいてパラメータが学習された中間層とを備え、
前記マスク画像および前記異常情報が入力層に入力された場合に、前記中間層による演算を経て、前記ヒートマップ画像を含む前記検査画像を前記出力層から出力するようにコンピュータを機能させ、
前記背景画像が入力層に入力された場合に、前記中間層による演算を経て、前記ヒートマップ画像を含まない前記検査画像を前記出力層から出力するようにコンピュータを機能させる学習モデル。
The object to be inspected is irradiated with an electromagnetic wave, an image is acquired according to the electromagnetic wave transmitted through the object to be inspected, and the object to be inspected is based on the pixel value of the pixel of the processed image that has been image-processed for the image. A mask image masked to a position and shape corresponding to the identified blob, a background image which is the processed image not including the blob, and offset information of the mask portion in the processed image. And an input layer into which anomalous information including information about anomalies of the inspected object having a blob label, which is the type of object corresponding to the blob, is input.
An inspection image including the heat map image is output by acquiring a heat map image in which the position and shape of the blob are displayed as a heat map on the processed image and synthesizing the heat map image with the processed image. Output layer and
The mask image and the intermediate layer whose parameters are learned based on the abnormality information are provided.
When the mask image and the abnormality information are input to the input layer, the computer is made to function so as to output the inspection image including the heat map image from the output layer through the calculation by the intermediate layer.
A learning model in which, when the background image is input to the input layer, the computer functions to output the inspection image, which does not include the heat map image, from the output layer through calculations by the intermediate layer.
被検査物に電磁波を照射する照射部と、
前記被検査物を透過した電磁波に応じて画像を生成する画像生成部と、
前記画像に対して画像処理を実施し、処理画像を取得する画像処理部と、
前記処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定する対象特定部と、
特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とを教師データとして取得する取得部と、
前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて取得した画像が入力された場合に、前記被検査物の異常に関する情報を出力する学習モデルに、前記取得部より取得した前記マスク画像および異常情報を入力して、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得する異常情報取得部と、
前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する出力部とを備え、
前記背景画像は、前記ブロブの形状とは異なる画像が前記処理画像の任意の位置に合成されていることを備える検査装置。
The irradiation part that irradiates the object to be inspected with electromagnetic waves,
An image generator that generates an image according to the electromagnetic waves transmitted through the object to be inspected,
An image processing unit that performs image processing on the image and acquires the processed image,
A target identification unit that identifies a blob contained in the inspected object based on the pixel value of the pixel of the processed image.
A mask image masked to a position and shape corresponding to the specified blob, a background image which is the processed image not including the blob, offset information of the mask portion in the processed image, and an object corresponding to the blob. An acquisition unit that acquires anomaly information including information on an abnormality of the inspected object having a blob label of the type as teacher data, and an acquisition unit.
When the image to be inspected is irradiated with electromagnetic waves and an image acquired in response to the electromagnetic waves transmitted through the inspected object is input, the acquisition unit is used in a learning model to output information regarding an abnormality in the inspected object. An abnormality information acquisition unit that inputs the acquired mask image and abnormality information and acquires a heat map image in which the position and shape of the blob are displayed as a heat map on the processed image.
It is provided with an output unit that outputs an inspection image including the heat map image by synthesizing the heat map image with the processed image.
The background image is an inspection device including an image different from the shape of the blob is synthesized at an arbitrary position of the processed image.
前記電磁波はX線であり、
画像生成部は、前記X線に基づく画像を生成することを特徴とする請求項5に記載の検査装置。
The electromagnetic wave is an X-ray,
The inspection device according to claim 5, wherein the image generation unit generates an image based on the X-ray.
表示部を備え、
前記表示部は、前記X線照射後に取得した画像に基づく画像を出力する第1の表示部と、前記ヒートマップ画像を含まない、被検査物が正常である状態を示す画像である正常画像または前記ヒートマップ画像を含む、被検査物が異常である状態を示す画像である異常画像を出力する第2の表示部とを並べて前記表示部に表示し、
前記表示部は、ユーザにより、前記被検査物に対する正常情報または異常情報の入力を受け付ける第1の操作ボタンおよび第2の操作ボタンを有することを特徴とする請求項6に記載の検査装置。
Equipped with a display
The display unit includes a first display unit that outputs an image based on the image acquired after the X-ray irradiation, and a normal image or an image showing a normal state of the object to be inspected, which does not include the heat map image. A second display unit that outputs an abnormal image, which is an image indicating a state in which the object to be inspected is abnormal, including the heat map image, is displayed side by side on the display unit .
The inspection device according to claim 6, wherein the display unit has a first operation button and a second operation button that receive input of normal information or abnormality information to the object to be inspected by the user.
前記第2の表示部に表示された画像、および前記第1の操作ボタンおよび前記第2の操作ボタンが受け付けた前記正常情報または前記異常情報に基づき、前記学習モデルを再学習する再学習部を備えることを特徴とする請求項7に記載の検査装置。 A re-learning unit that relearns the learning model based on the image displayed on the second display unit and the normal information or the abnormal information received by the first operation button and the second operation button. The inspection apparatus according to claim 7, wherein the inspection apparatus is provided. 前記第2の表示部は、前記被検査物の異常の種類の入力を受け付ける選択ボタンを備え、
前記選択ボタンが前記入力を受け付けた場合、前記第2の表示部は前記異常の種類に基づいた前記ヒートマップ画像を前記異常画像上に表示することを特徴とする請求項7または8に記載の検査装置。
The second display unit includes a selection button that accepts an input of the type of abnormality of the object to be inspected.
The seventh or eighth aspect of the present invention, wherein when the selection button accepts the input, the second display unit displays the heat map image based on the type of the abnormality on the abnormality image. Inspection device.
前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて画像を取得し、前記画像に対して画像処理アルゴリズムを適用して画像処理を施すことで前記ブロブを特定し、特定された前記ブロブに対応した位置および形状にマスクされたマスク画像に基づいて、前記被検査物の異常に関する情報を取得する第2の取得部を備え、
前記異常情報取得部は、前記第2の取得部が取得した前記情報に応じ、前記ヒートマップ画像を入力することを特徴とする請求項5ないし9のいずれか1項に記載の検査装置。
The blob is identified by irradiating the object to be inspected with an electromagnetic wave, acquiring an image according to the electromagnetic wave transmitted through the object to be inspected, and applying image processing to the image to perform image processing. A second acquisition unit is provided to acquire information regarding an abnormality of the object to be inspected based on a mask image masked to a position and shape corresponding to the identified blob.
The inspection device according to any one of claims 5 to 9, wherein the abnormality information acquisition unit inputs the heat map image according to the information acquired by the second acquisition unit.
被検査物に電磁波を照射するステップと、
前記被検査物を透過した電磁波に応じて画像を取得するステップと、
前記画像に対して画像処理された処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定するステップと、
特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とを取得するステップと、
前記マスク画像前記背景画像および前記異常情報を含む教師データを取得するステップと、
前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて取得した画像が入力された場合に、前記教師データに基づいて、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得するステップと、
前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する学習モデルを生成するステップとを含む処理をコンピュータに実行させ、
前記背景画像は、前記ブロブの形状とは異なる画像が前記処理画像の任意の位置に合成されていることを特徴とする検査方法。
The step of irradiating the object to be inspected with electromagnetic waves,
The step of acquiring an image according to the electromagnetic wave transmitted through the object to be inspected, and
A step of identifying a blob contained in the inspected object based on the pixel value of the pixel of the processed image that has been image-processed with respect to the image.
A mask image masked to a position and shape corresponding to the specified blob, a background image which is the processed image not including the blob, offset information of the mask portion in the processed image, and an object corresponding to the blob. The step of acquiring anomalous information including information on the anomaly of the inspected object having a blob label of the type of
The step of acquiring the teacher data including the mask image, the background image, and the abnormality information, and
When the object to be inspected is irradiated with an electromagnetic wave and an image acquired in response to the electromagnetic wave transmitted through the object to be inspected is input, the position and shape of the blob are displayed on the processed image based on the teacher data. Steps to get the heatmap image displayed as a heatmap,
By synthesizing the heat map image with the processed image, a computer is made to execute a process including a step of generating a learning model that outputs an inspection image including the heat map image.
The background image is an inspection method characterized in that an image different from the shape of the blob is synthesized at an arbitrary position of the processed image.
被検査物に電磁波を照射するステップと、
前記被検査物を透過した電磁波に応じて画像を取得するステップと、
前記画像に対して画像処理された処理画像が有する画素の画素値に基づいて、前記被検査物が含むブロブを特定するステップと、
特定された前記ブロブに対応した位置および形状にマスクされたマスク画像と、前記ブロブを含まない前記処理画像である背景画像と、前記処理画像における前記マスク部分のオフセット情報および前記ブロブに該当するオブジェクトの種類であるブロブラベルを有する前記被検査物の異常に関する情報を含む異常情報とを取得するステップと、
前記マスク画像、前記背景画像および前記異常情報を含む教師データを取得するステップと、
前記被検査物に電磁波を照射し、前記被検査物を透過した電磁波に応じて取得した画像が入力された場合に、前記教師データに基づいて、前記処理画像上に前記ブロブの位置および形状をヒートマップとして表示されたヒートマップ画像を取得するステップと、
前記ヒートマップ画像を前記処理画像に合成することで、前記ヒートマップ画像を含む検査画像を出力する学習モデルを生成するステップとを含む処理をコンピュータに実行させ、
前記背景画像は、前記ブロブの形状とは異なる画像が前記処理画像の任意の位置に合成されていることを特徴とするコンピュータプログラム。
The step of irradiating the object to be inspected with electromagnetic waves,
The step of acquiring an image according to the electromagnetic wave transmitted through the object to be inspected, and
A step of identifying a blob contained in the inspected object based on the pixel value of the pixel of the processed image that has been image-processed with respect to the image.
A mask image masked to a position and shape corresponding to the specified blob, a background image which is the processed image not including the blob, offset information of the mask portion in the processed image, and an object corresponding to the blob. The step of acquiring anomalous information including information on the anomaly of the inspected object having a blob label of the type of
A step of acquiring teacher data including the mask image, the background image, and the abnormality information, and
When the object to be inspected is irradiated with an electromagnetic wave and an image acquired in response to the electromagnetic wave transmitted through the object to be inspected is input, the position and shape of the blob are displayed on the processed image based on the teacher data. Steps to get the heatmap image displayed as a heatmap,
By synthesizing the heat map image with the processed image, a computer is made to execute a process including a step of generating a learning model that outputs an inspection image including the heat map image.
The background image is a computer program characterized in that an image different from the shape of the blob is synthesized at an arbitrary position of the processed image.
JP2021572603A 2021-08-13 2021-08-13 Training model generation method, learning model, checking device, checking method and computer program Active JP7034529B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/029791 WO2023017611A1 (en) 2021-08-13 2021-08-13 Learning model generation method, learning model, inspection device, inspection method, and computer program

Publications (2)

Publication Number Publication Date
JP7034529B1 true JP7034529B1 (en) 2022-03-14
JPWO2023017611A1 JPWO2023017611A1 (en) 2023-02-16

Family

ID=81213486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021572603A Active JP7034529B1 (en) 2021-08-13 2021-08-13 Training model generation method, learning model, checking device, checking method and computer program

Country Status (3)

Country Link
JP (1) JP7034529B1 (en)
CN (1) CN117813492A (en)
WO (1) WO2023017611A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200161081A1 (en) * 2018-11-15 2020-05-21 Kla-Tencor Corporation Using deep learning based defect detection and classification schemes for pixel level image quantification
US20200210785A1 (en) * 2018-12-28 2020-07-02 Nuctech Company Limited Empty container identification method and system
WO2020189043A1 (en) * 2019-03-19 2020-09-24 株式会社システムスクエア Learning model generation method, learning model, inspection device, abnormality detection method, and computer program
WO2020189044A1 (en) * 2019-03-19 2020-09-24 株式会社システムスクエア Inspection device, abnormality detection method, computer program, learning model generation method, and learning model
JP2021012108A (en) * 2019-07-05 2021-02-04 株式会社イシダ Image generation device, inspection apparatus and learning device
WO2021044146A1 (en) * 2019-09-06 2021-03-11 Smiths Heimann Sas Image retrieval system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200161081A1 (en) * 2018-11-15 2020-05-21 Kla-Tencor Corporation Using deep learning based defect detection and classification schemes for pixel level image quantification
US20200210785A1 (en) * 2018-12-28 2020-07-02 Nuctech Company Limited Empty container identification method and system
WO2020189043A1 (en) * 2019-03-19 2020-09-24 株式会社システムスクエア Learning model generation method, learning model, inspection device, abnormality detection method, and computer program
WO2020189044A1 (en) * 2019-03-19 2020-09-24 株式会社システムスクエア Inspection device, abnormality detection method, computer program, learning model generation method, and learning model
JP2021012108A (en) * 2019-07-05 2021-02-04 株式会社イシダ Image generation device, inspection apparatus and learning device
WO2021044146A1 (en) * 2019-09-06 2021-03-11 Smiths Heimann Sas Image retrieval system

Also Published As

Publication number Publication date
WO2023017611A1 (en) 2023-02-16
CN117813492A (en) 2024-04-02
JPWO2023017611A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
Ferguson et al. Detection and segmentation of manufacturing defects with convolutional neural networks and transfer learning
WO2020189044A1 (en) Inspection device, abnormality detection method, computer program, learning model generation method, and learning model
CN107230203B (en) Casting defect identification method based on human eye visual attention mechanism
Dubey et al. Application of image processing in fruit and vegetable analysis: a review
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
Zhang et al. Applications of computer vision techniques to cotton foreign matter inspection: A review
CN111507976B (en) Defect detection method and system based on multi-angle imaging
CA2917310C (en) Optical method and apparatus for identifying wood species of a raw wooden log
JP2021140739A (en) Program, method for creating learned model, information processing method and information processing device
WO2019151393A1 (en) Food inspection system, food inspection program, food inspection method and food production method
Bahaghighat et al. A machine learning-based approach for counting blister cards within drug packages
Adem et al. Defect detection of seals in multilayer aseptic packages using deep learning
Eshkevari et al. Automatic dimensional defect detection for glass vials based on machine vision: A heuristic segmentation method
CN110763700A (en) Method and equipment for detecting defects of semiconductor component
Sarkar et al. Edge detection aided geometrical shape analysis of Indian gooseberry (Phyllanthus emblica) for freshness classification
Ghamisi et al. Anomaly detection in automated fibre placement: learning with data limitations
JP7034529B1 (en) Training model generation method, learning model, checking device, checking method and computer program
CN116051541B (en) Bearing end face gentle abrasion detection method and device based on stroboscopic light source
Janardhana et al. Computer aided inspection system for food products using machine vision—a review
Shi et al. Nondestructive discrimination of analogous density foreign matter inside soy protein meat semi-finished products based on transmission hyperspectral imaging
JP6742037B1 (en) Learning model generation method, learning model, inspection device, abnormality detection method, and computer program
Lopez-Juarez et al. A hybrid non-invasive method for internal/external quality assessment of potatoes
WO2021119946A1 (en) Food inspection solution
CN112069841A (en) Novel X-ray contraband parcel tracking method and device
Taspinar Classification of Biscuit Defect States and Foreign Objects Using CNN-Based Features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220222

R150 Certificate of patent or registration of utility model

Ref document number: 7034529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150