JP2022120734A - Learning data generation device, method for generating learning data, and learning data generation program - Google Patents

Learning data generation device, method for generating learning data, and learning data generation program Download PDF

Info

Publication number
JP2022120734A
JP2022120734A JP2021017837A JP2021017837A JP2022120734A JP 2022120734 A JP2022120734 A JP 2022120734A JP 2021017837 A JP2021017837 A JP 2021017837A JP 2021017837 A JP2021017837 A JP 2021017837A JP 2022120734 A JP2022120734 A JP 2022120734A
Authority
JP
Japan
Prior art keywords
detection target
image
target image
learning data
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021017837A
Other languages
Japanese (ja)
Inventor
吉男 井下田
Yoshio Igeta
和博 田島
Kazuhiro Tajima
恵祐 岡崎
Keisuke Okazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2021017837A priority Critical patent/JP2022120734A/en
Publication of JP2022120734A publication Critical patent/JP2022120734A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To allow easy generation of learning data of a transmissive image.SOLUTION: The acquisition unit acquires a detection target image as a transmissive image of a detection target object and a transmissive image of an object that is not a detection target object. A display manner changing unit changes the manner of display of the detection target object in the detection target image. A synthesis processing unit generates learning data by synthesizing the detection target image of the detection target object with the changed display manner with the image not to be detected. In that way, changing the display manner of the detection target image by the display manner changing unit and synthesizing the image with the image not to be detected alone makes it possible to generate learning data of transmissive images of different patterns.SELECTED DRAWING: Figure 4

Description

本発明は、学習データ生成装置、学習データ生成方法及び学習データ生成プログラムに関する。 The present invention relates to a learning data generation device, a learning data generation method, and a learning data generation program.

今日において、例えば空港又は工場等で、荷物又は製造物等を開被又は破壊することなく、収納物又は内部構造等を視認可能な物体検査装置が知られている。このような物体検査装置では、特許文献1(特開平11-230918号公報)に開示されているように、一例としてX線で撮像された透過画像が用いられる。 Object inspection devices are known today, for example in airports, factories, etc., which allow visual inspection of stored items, internal structures, etc., without opening or destroying luggage, manufactured products, or the like. In such an object inspection apparatus, as disclosed in Patent Document 1 (Japanese Unexamined Patent Application Publication No. 11-230918), an X-ray transmission image is used as an example.

透過画像は、検査を行う物体に照射したX線の減衰率(原子番号に応じて異なる)及び物体の密度に応じて着色される。また、収納物又は内部構造等を撮影して得た透過画像とこの透過画像に関する情報(撮影されている物体の種類や検出対象となる物体であるか否か等)を含む学習データが生成される。そして、物体検査装置は、多くの学習データを用いて学習し、検査時に撮像された透過画像で示される内容物又は内部構造等を判定して内容物等に応じて着色処理等を施した判定画像を表示する。検査員は、この判定画像に基づいて、荷物又は製造物等の内容物又は内部構造等を判断し、必要に応じて開被検査等を行う。 The transmission image is colored according to the attenuation rate of the X-rays irradiating the inspected object (depending on the atomic number) and the density of the object. In addition, learning data including transmission images obtained by photographing the stored items or the internal structure and information about the transmission images (such as the type of the object being photographed and whether or not it is an object to be detected) is generated. be. Then, the object inspection apparatus learns using a large amount of learning data, judges the contents or internal structure, etc. shown in the transmission image captured during the inspection, and makes a judgment by applying coloring processing etc. according to the contents, etc. Display an image. Based on this determination image, the inspector judges the contents, internal structure, etc. of the package or manufactured product, etc., and conducts an open inspection, etc., as necessary.

特開平11-230918号公報JP-A-11-230918

ここで、学習データを用いて学習した物体検査装置では、事前の学習結果をもとに内容物等が何であるかを判定する。したがって、正確な検査結果を得るためには、多くの学習データに基づく深層学習(ディープラーニング)が必要となる。しかし、透過画像の学習データは、一枚ずつ透過画像を撮像し、撮像した各透過画像に対してそれぞれ手作業でアノテーションを施す作業を経て生成される。このため、一枚の学習データの生成に多くの手間と時間を要し、いわゆる学習コストが高くなる問題があった。 Here, the object inspection apparatus that has learned using the learning data determines what the contents are based on the result of prior learning. Therefore, in order to obtain accurate inspection results, deep learning based on a large amount of learning data is required. However, the learning data of transmission images is generated through a process of capturing transmission images one by one and manually annotating each of the captured transmission images. For this reason, it takes a lot of time and effort to generate one piece of learning data, and there is a problem that the so-called learning cost increases.

本発明は、上述の課題に鑑みてなされたものであり、簡単に透過画像の学習データを生成可能とした学習データ生成装置、学習データ生成方法及び学習データ生成プログラムの提供を目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a learning data generating apparatus, a learning data generating method, and a learning data generating program that enable easy generation of learning data for transparent images.

上述した課題を解決し、目的を達成するために、本発明は、検出対象物の透過画像である検出対象画像、及び、検出対象物ではない物体の透過画像である検出対象外画像を取得する取得部と、検出対象画像の検出対象物の表示形態を変更する表示形態変更部と、表示形態が変更された検出対象物の検出対象画像を、検出対象外画像に合成して学習データを生成する合成処理部と、を有する。 In order to solve the above-described problems and achieve the object, the present invention acquires a detection target image that is a transmission image of a detection target, and a detection non-target image that is a transmission image of an object that is not the detection target. An acquisition unit, a display format changing unit that changes the display format of the detection target in the detection target image, and a detection target image of the detection target whose display format has been changed, combined with the non-detection target image to generate learning data. and a synthesis processing unit that

本発明によれば、簡単に透過画像の学習データを生成可能とすることができる。 According to the present invention, it is possible to easily generate learning data for transparent images.

図1は、実施の形態となる物体検査装置の外観を示す図である。FIG. 1 is a diagram showing the appearance of an object inspection apparatus according to an embodiment. 図2は、実施の形態となる物体検査装置のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of the object inspection apparatus according to the embodiment. 図3は、実施の形態となる物体検査装置の機能ブロック図である。FIG. 3 is a functional block diagram of the object inspection device according to the embodiment. 図4は、実施の形態となる物体検査装置における、教師画像データの生成動作の流れを示すフローチャートである。FIG. 4 is a flow chart showing the flow of operations for generating teacher image data in the object inspection apparatus according to the embodiment. 図5は、検出対象画像及び検出対象外画像の一例を示す図である。FIG. 5 is a diagram showing an example of a detection target image and a non-detection target image. 図6は、検出対象画像の回転、移動等の拡張処理を説明するための図である。FIG. 6 is a diagram for explaining expansion processing such as rotation and movement of the detection target image. 図7は、検出対象画像の色調変更処理を説明するための図である。FIG. 7 is a diagram for explaining the color tone change processing of the detection target image. 図8は、教師ラベル画像の生成処理を説明するための図である。FIG. 8 is a diagram for explaining the process of generating a teacher label image. 図9は、透過画像を考慮した透過合成処理による教師画像データの生成動作を説明するための図である。FIG. 9 is a diagram for explaining the operation of generating teacher image data by transparent composition processing in consideration of a transparent image.

以下、図面を参照して、本発明の学習データ生成装置、学習データ生成方法及び学習データ生成プログラムを適用した実施の形態の物体検査装置を説明する。 Hereinafter, an object inspection apparatus of an embodiment to which a learning data generation device, a learning data generation method, and a learning data generation program of the present invention are applied will be described with reference to the drawings.

(外観構成)
図1は、実施の形態の物体検査装置1の外観を示す斜視図である。この図1に示すように、物体検査装置1は、本体16、撮像物4の入口16a及び撮像物4の出口16bを有している。また,物体検査装置1は、モニタ装置14を有している。本体16は、入口16aから搬入された撮像物4が、ローラコンベア22により出口16bまで移動される間に、撮像物4に例えばX線を照射して透過画像を形成し、モニタ装置14に表示する。
(Appearance configuration)
FIG. 1 is a perspective view showing the appearance of an object inspection device 1 according to an embodiment. As shown in FIG. 1, the object inspection apparatus 1 has a main body 16, an entrance 16a for the object 4 to be imaged, and an exit 16b for the object 4 to be imaged. The object inspection apparatus 1 also has a monitor device 14 . The main body 16 irradiates the object 4 to be imaged with, for example, X-rays while the object 4 to be imaged carried in from the entrance 16 a is moved to the exit 16 b by the roller conveyor 22 , forms a transmission image, and displays it on the monitor device 14 . do.

ここで、この物体検査装置1の場合、検査等を行っていない物体非検査時に、例えば刃物等の検出対象である物体(検出対象物)の透過画像である検出対象画像、及び、手提げバッグ等の検出対象ではない物体の透過画像である検出対象外画像を撮像する。そして、検出対象画像に回転処理、移動処理及び色調変更処理等を施して検出対象外画像に合成した合成画像を生成する。そして、合成画像とこの合成画像に関する情報(撮影されているものの種類や検出対象物であるか否か等)を含む教師画像データを学習データとして記憶する。これにより、様々なパターンの多くの学習データを簡単かつ短時間で生成することができる。詳しくは後述する。 Here, in the case of this object inspection apparatus 1, when an object is not being inspected and the like is not being inspected, a detection target image, which is a transmission image of an object (detection target), such as a knife, and a handbag, etc. A non-detection target image, which is a transmission image of an object that is not a detection target, is captured. Then, the detection target image is subjected to rotation processing, movement processing, color tone change processing, and the like, and a synthesized image is generated by synthesizing the detection target image with the non-detection target image. Then, a synthesized image and teacher image data including information about this synthesized image (such as the type of object being photographed and whether or not it is an object to be detected) are stored as learning data. As a result, a large amount of learning data with various patterns can be generated easily and in a short time. Details will be described later.

物体検査装置1は、このようにして形成された学習データに基づいて、いわゆる深層学習(ディープラーニング)を行う。そして、物体検査時には、学習した結果に基づいて、透過画像で示される撮像物4内の検出対象である物体の有無等を判定し、この判定結果となる判定画像をモニタ装置14に供給する。検査員は、モニタ表示される判定画像に基づいて、撮像物4内の検出対象である物体の有無等を判断し、必要に応じて開被検査等を行う。 The object inspection apparatus 1 performs so-called deep learning based on the learning data thus formed. During object inspection, the presence or absence of an object to be detected in the imaged object 4 shown in the transmission image is determined based on the learned result, and a determination image as the determination result is supplied to the monitor device 14 . Based on the judgment image displayed on the monitor, the inspector judges whether or not there is an object to be detected in the imaged object 4, and performs an open inspection or the like as necessary.

(物体検査装置のハードウェア構成)
図2は、物体検査装置1のハードウェア構成を示す図である。この図2に示すように、物体検査装置1は、撮像物4に対してX線を照射するX線源21、入口16aから搬入された撮像物4を出口16bまで移動させるローラコンベア22を有している。また、物体検査装置1は、撮像物4を透過したX線を検出するX線検出器23、X線検出器23のX線検出出力に対応するRGBフォーマットの透過画像(RGB画像)を形成する演算処理部24を有している。物体検査時には、透過画像(RGB画像)は、上述のように検出対象である物体の有無の判定に用いられる。
(Hardware configuration of object inspection device)
FIG. 2 is a diagram showing the hardware configuration of the object inspection apparatus 1. As shown in FIG. As shown in FIG. 2, the object inspection apparatus 1 has an X-ray source 21 for irradiating an object 4 to be imaged with X-rays, and a roller conveyor 22 for moving the object 4 carried in from an entrance 16a to an exit 16b. is doing. The object inspection apparatus 1 also forms an X-ray detector 23 that detects X-rays that have passed through the object 4, and an RGB format transmission image (RGB image) corresponding to the X-ray detection output of the X-ray detector 23. It has an arithmetic processing unit 24 . During object inspection, the transmitted image (RGB image) is used to determine the presence or absence of the object to be detected as described above.

また、演算処理部24は、物体非検査時において、検出対象画像のRGB画像に対して、回転処理、移動処理、変形処理及び色調変更処理の他、検出対象外画像との合成処理等の演算処理を施して合成画像を生成する。そして、合成画像とこの合成画像に関する情報(撮影されている物の種類や検出対象物であるか否か等)を含む教師画像データを生成する。記憶部25は、このような教師画像データを学習データとして記憶する。また、記憶部25には、このような教師画像データを生成するための学習データ生成プログラムが記憶されている。演算処理部24は、記憶部25に記憶されている学習データ生成プログラムに基づいて、教師画像の生成動作を行う。 In addition, when the object is not inspected, the arithmetic processing unit 24 performs arithmetic operations such as rotation processing, movement processing, deformation processing, and color tone change processing on the RGB image of the detection target image, as well as synthesis processing with the non-detection target image. Processing is applied to generate a composite image. Then, teacher image data including a synthesized image and information about this synthesized image (such as the type of object being photographed and whether or not it is an object to be detected) is generated. The storage unit 25 stores such teacher image data as learning data. The storage unit 25 also stores a learning data generation program for generating such teacher image data. The arithmetic processing unit 24 performs a teacher image generation operation based on the learning data generation program stored in the storage unit 25 .

(機能構成)
図3は、物体非検査時において、演算処理部24が、記憶部25に記憶されている学習データ生成プログラムを実行することで実現される各機能の機能ブロック図である。この図3に示すように、演算処理部24は、学習データ生成プログラムを実行することで、撮像制御部31、記憶制御部32、入力処理部33、表示制御部34、色調変更処理部35、教師ラベル画像生成部36及び透過合成処理部37として機能する。なお、入力処理部33、表示制御部34及び色調変更処理部35は、表示形態変更部の一例である。
(Functional configuration)
FIG. 3 is a functional block diagram of each function realized by executing the learning data generation program stored in the storage unit 25 by the arithmetic processing unit 24 when the object is not inspected. As shown in FIG. 3, the arithmetic processing unit 24 executes a learning data generation program to perform an imaging control unit 31, a storage control unit 32, an input processing unit 33, a display control unit 34, a color tone change processing unit 35, It functions as a teacher label image generation unit 36 and a transparency synthesis processing unit 37 . Note that the input processing unit 33, the display control unit 34, and the color tone change processing unit 35 are examples of the display form change unit.

(教師画像データの生成動作)
図4は、物体非検査時において、演算処理部24が学習データ生成プログラムを実行することで行われる教師画像データの生成動作の流れを示すフローチャートである。教師画像データを生成する場合、作業者は、例えば刃物等の検出対象物の透過画像(検出対象画像)を撮像すると共に、手提げバッグ等の検出対象物ではない物体の透過画像(検出対象外画像)を撮像する。撮像制御部31は、取得部の一例であり、作業者に指定されたタイミングで、検出対象画像及び検出対象外画像を撮像するように、X線源21、ローラコンベア22及びX線検出器23等を制御する。
(Generation operation of teacher image data)
FIG. 4 is a flow chart showing the flow of the teacher image data generation operation performed by the arithmetic processing unit 24 executing the learning data generation program when the object is not inspected. When generating teacher image data, an operator captures a transmission image (detection target image) of a detection target such as a knife, and an object other than a detection target such as a handbag (non-detection target image). ) is imaged. The imaging control unit 31 is an example of an acquisition unit, and controls the X-ray source 21, the roller conveyor 22, and the X-ray detector 23 so as to capture the detection target image and the non-detection target image at the timing specified by the operator. etc.

図5(a)は、検出対象画像の一例である。この図5(a)の例は、木製の柄に金属製の刃が固定された包丁の透過画像を示している。また、図5(b)は、検出対象外画像の一例である。この図5(b)の例は、携帯機器、小分け袋等が収納された手提げバッグの透過画像を示している。なお、検出対象外画像は、包丁等の検出対象物が収納されていない状態で撮像される。 FIG. 5A is an example of a detection target image. The example of FIG. 5(a) shows a transparent image of a kitchen knife with a metal blade fixed to a wooden handle. FIG. 5(b) is an example of a non-detection target image. The example of FIG. 5(b) shows a transparent image of a handbag in which portable devices, subdivided bags, etc. are stored. Note that the non-detection target image is captured in a state in which the detection target such as a kitchen knife is not stored.

このような検出対象画像及び検出対象外画像の撮像が行われると、図4のフローチャートが開始となり、ステップS1から処理が進められる。ステップS1では、入力処理部33が、クラスタリングにより、検出対象画像及び検出対象外画像のノイズ除去処理を行う。 When such detection target images and non-detection target images are captured, the flowchart in FIG. 4 starts, and the process proceeds from step S1. In step S1, the input processing unit 33 performs noise removal processing on the detection target image and the non-detection target image by clustering.

次に、検出対象画像に対して拡張処理が施される(ステップS2)。具体的には、作業者は、操作部を介して検出対象画像の回転、移動、拡大、縮小及び変形等を指示することで、検出対象画像に含まれる検出対象である物体の表示形態を変更する。入力処理部33は、操作部を介して行われる回転及び移動等の指示を取得する。表示制御部34は、入力処理部33で取得された回転及び移動等の指示に対応して、モニタ装置14に表示している検出対象画像を回転や移動させて表示する。さらに、変形が指示された場合は、検出対象画像に含まれる検出対象物の形状を変形させてモニタ装置14に表示する。検出対象画像に拡大や縮小及び変形等の処理を施すことで、一つの検出対象画像をもとに同一素材で別形状の検出対象である物体の検出対象画像を生成できる。 Next, expansion processing is performed on the detection target image (step S2). Specifically, the operator changes the display form of the detection target object included in the detection target image by instructing rotation, movement, enlargement, reduction, deformation, etc. of the detection target image via the operation unit. do. The input processing unit 33 acquires instructions such as rotation and movement performed via the operation unit. The display control unit 34 rotates or moves the detection target image displayed on the monitor device 14 in accordance with the instructions for rotation, movement, etc. acquired by the input processing unit 33 . Furthermore, when the deformation is instructed, the shape of the detection object included in the detection target image is deformed and displayed on the monitor device 14 . By subjecting the detection target image to processing such as enlargement, reduction, deformation, etc., it is possible to generate a detection target image of a detection target object having the same material and a different shape based on one detection target image.

図6(a)は、図5(a)に示す検出対象画像を所定分回転させた例である。また、図6(b)は、検出対象画像を所定分回転させると共に、表示位置を右上に移動させた例である。検出対象画像を回転又は移動等させることで、様々な姿勢、位置及び形状とした検出対象である物体の検出対象画像を、簡単かつ短時間で量産することができる。 FIG. 6(a) is an example in which the detection target image shown in FIG. 5(a) is rotated by a predetermined amount. FIG. 6B shows an example in which the detection target image is rotated by a predetermined amount and the display position is moved to the upper right. By rotating or moving the detection target image, it is possible to easily and quickly mass-produce detection target images of objects that are detection targets in various postures, positions, and shapes.

次に、ステップS3において、入力処理部33は、例えばオープンソースのコンピュータ向けライブラリである「Open CV(登録商標)(Open Source Computer Vision Library)」のスネークアルゴリズムに基づいて、検出対象画像から検出対象である物体の輪郭を抽出し、輪郭で囲まれた領域内の画素を検出対象である物体として抽出する。同様に、ステップS4では、入力処理部33が、検出対象外画像から手提げバッグ等を抽出する。 Next, in step S3, the input processing unit 33 extracts a detection target from the detection target image based on the snake algorithm of "Open CV (registered trademark) (Open Source Computer Vision Library)", which is an open source library for computers, for example. is extracted, and the pixels within the area surrounded by the contour are extracted as the object to be detected. Similarly, in step S4, the input processing unit 33 extracts a handbag or the like from the non-detection image.

次に、作業者は、刃物等の検出対象である物体の色調(表示形態)を、操作部を介して変更指示する。一般に、物体検査装置は、材質に対応する色のマップ(カラーマップ)を有し、物体の原子番号によって異なるX線の減衰率をもとに材質を特定するとともに減衰率に応じて着色した透過画像を生成する。したがって、透過画像である検出対象画像は、実際に撮像した検出対象である物体の材質に対応する色となる。そこで、図5(a)に示す検出対象画像に写る検出対象である包丁について、作業者が、例えば検出対象である金属製の刃の部分をアルミニウム、鉄、セラミック等の異なる材質に変更するよう指示する。入力処理部33は、操作部を介して指示された材質の情報を取得して色調変更処理部35に供給する。 Next, the operator instructs to change the color tone (display form) of an object to be detected, such as a knife, via the operation unit. In general, an object inspection apparatus has a color map (color map) corresponding to the material, identifies the material based on the X-ray attenuation rate that differs depending on the atomic number of the object, and also colors the transmitted light according to the attenuation rate. Generate an image. Therefore, the detection target image, which is a transmission image, has a color corresponding to the material of the detection target object that is actually captured. Therefore, for the kitchen knife, which is the detection target image shown in FIG. instruct. The input processing unit 33 acquires information on the material specified via the operation unit and supplies the information to the color tone change processing unit 35 .

色調変更処理部35は、カラーマップをもとに入力処理部33で取得された材質に対応する色調に、モニタ装置14に表示している検出対象である物体の色を変更制御する(ステップS5)。図7(a)は、検出対象である物体(ここでは包丁の刃の部分)を該材質に対応する斜線で示す色調で示している。この斜線で示す色調の材質がアルミニウムであり、作業者により、セラミックへの変更が指示された場合、色調変更処理部35は、図7(b)に網掛けで示すように、セラミックに対応する色調に、検出対象である物体の色調を変更してモニタ表示する。これにより、異なる材質の検出対象物をそれぞれ購入して検出対象画像を撮像する手間、時間及びコストを大幅に削減できる。 Based on the color map, the color tone change processing unit 35 changes and controls the color of the detection target object displayed on the monitor device 14 to a color tone corresponding to the material acquired by the input processing unit 33 (step S5 ). FIG. 7(a) shows the object to be detected (here, the blade of the kitchen knife) in shades corresponding to the material. When the material of the shaded color tone is aluminum and the operator instructs to change it to ceramic, the color tone change processing section 35 changes the material to ceramic as indicated by hatching in FIG. 7(b). The color tone of the object to be detected is changed and displayed on the monitor. As a result, it is possible to greatly reduce the labor, time, and cost of purchasing detection targets made of different materials and capturing detection target images.

なお、カラーマップは物体検査装置毎に異なるため、色調変更処理部35は、予め各機種に対応するカラーマップを有することで、他の物体検査装置で撮像した検出対象画像および検出対象外画像を所望の物体検査装置用のカラーマップに適応するよう検出対象画像および検出対象外画像の色を調整することで、他の物体検査装置にて撮像した検出対象画像や検出対象外画像により所望の物体検査装置に対応する検出対象画像や検出対象外画像を入手することができる。 Since the color map differs for each object inspection apparatus, the color tone change processing unit 35 has a color map corresponding to each model in advance, so that the detection target image and the non-detection target image captured by other object inspection apparatuses can be changed. By adjusting the colors of the detection target image and the non-detection target image so as to adapt to the color map for the desired object inspection device, the desired object can be detected by the detection target image and the non-detection target image captured by other object inspection devices. A detection target image and a non-detection target image corresponding to the inspection device can be obtained.

次に、ステップS6では、教師ラベル画像生成部36が、図8に示すように、ステップS5で色を変更した検出対象画像に当該検出対象画像に関する情報を付した教師ラベル画像を生成する。記憶制御部32は、この教師ラベル画像を記憶部25に保存する。 Next, in step S6, as shown in FIG. 8, the teacher label image generation unit 36 generates a teacher label image in which information about the detection target image is attached to the detection target image whose color has been changed in step S5. The storage control unit 32 stores this teacher label image in the storage unit 25 .

次に、ステップS7~ステップS11において、透過合成処理部37は、合成処理部の一例であり、透過画像の特徴を考慮して、検出対象画像及び検出対象外画像の透過合成処理を行う。 Next, in steps S7 to S11, the transparency processing unit 37, which is an example of a composition processing unit, performs transparency synthesis processing of the detection target image and the non-detection target image in consideration of the characteristics of the transmission image.

一般的に、画像合成処理を行う場合、合成する各画像の輝度f、fに、各々係数α、1-αを乗算処理して最後にこれらを加算処理することで輝度gを算出する「アルファブレンディング」と呼ばれる合成手法が用いられることが多い。 In general, when image synthesis is performed, the brightnesses f 1 and f 2 of each image to be synthesized are multiplied by coefficients α and 1−α, respectively, and finally added to calculate the brightness g. A synthesis technique called "alpha blending" is often used.

g=αf+(1-α)f g=αf 1 +(1−α)f 2

しかし、透過画像を合成処理する場合、各物体の透過率を調整したうえで合成処理する必要がある。参考文献(特許第4471032号公報)に開示されている合成処理技術の場合、X線装置毎に異なる厚さxの物体を撮影した時の輝度yを定式化し、複数種類のX線装置で撮影した結果から装置固有のパラメータを算出する。そして、この算出結果から、各X線装置で撮影した結果を正規化することで、それぞれ異なるX線装置で撮影した透過画像を合成可能としている。 However, when synthesizing transmissive images, it is necessary to adjust the transmittance of each object before synthesizing. In the case of the synthesis processing technology disclosed in the reference (Japanese Patent No. 4471032), the luminance y when an object with a different thickness x is imaged for each X-ray apparatus is formulated, and the brightness y is obtained by imaging with a plurality of types of X-ray apparatus. Device-specific parameters are calculated from the results. Then, by normalizing the result of imaging by each X-ray device from this calculation result, it is possible to synthesize transmission images that are imaged by different X-ray devices.

y=ae-bx (aはX線装置に固有の係数、e-bxは、X線透過率) y = ae - bx (a is a coefficient specific to the X-ray device, e -bx is the X-ray transmittance)

例えば、厚さxの板を2枚重ねたとき輝度y12は、以下の数式で算出される。 For example, the brightness y12 when two plates having a thickness of x are superimposed is calculated by the following formula.

12=ae-bx-bx y 12 =ae −bx e −bx

ここで、同じ機種のX線装置の透過画像を合成する場合、参考文献(特許第4471032号公報)に開示されている合成処理技術のように、透過率を厳密に求める必要はない。このため、実施の形態の物体検査装置1の場合、以下に説明するように簡易的な合成処理を行っている。 Here, when synthesizing transmission images of X-ray apparatuses of the same model, it is not necessary to strictly obtain the transmittance unlike the synthesis processing technique disclosed in the reference (Japanese Patent No. 4471032). For this reason, in the case of the object inspection apparatus 1 of the embodiment, simple synthesis processing is performed as described below.

すなわち、上述のアルファブレンドで発生する輝度値算出時のオーバーフローを抑制するために、透過合成処理部37は、合成するN枚の画像のうちn枚目の合成する画素位置i、jの輝度をInとしたとき、各画素を合成する前に、予め輝度の最大値ImaxからInを減算処理し、輝度を反転させてから(ステップS7)、検出対象画像及び検出対象外画像を合成処理して合成画像を形成する(ステップS8)。 That is, in order to suppress the overflow that occurs in the above-described alpha blending when calculating the luminance value, the transparency processing unit 37 sets the luminance of the n-th composite pixel position i and j among the N images to be composited to When In is assumed to be In, before synthesizing each pixel, In is subtracted from the maximum luminance value Imax in advance, the luminance is inverted (step S7), and then the detection target image and the non-detection image are synthesized. A composite image is formed (step S8).

次に、透過合成処理部37は、当該合成画像を用いて深層学習を行う物体検査装置のカラーマップに対応する最大値以下となるように、合成画像の輝度を調整処理(上限処理)する(ステップS9)。 Next, the transparency processing unit 37 adjusts the brightness of the synthesized image (upper limit processing) so that it is equal to or less than the maximum value corresponding to the color map of the object inspection apparatus that performs deep learning using the synthesized image ( step S9).

次に、透過合成処理部37は、輝度の最大値Imaxを再び減算処理して輝度をネガ反転させて戻すことで、合成後の輝度g(i,j)とした合成画像を生成して出力する(ステップS10、ステップS11)。図9(a)及び図9(b)は、このようにして生成された合成画像の一例である。この図9(a)及び図9(b)に示すように、検出対象画像を回転させ、また、位置を移動させて検出対象外画像と合成することで、簡単に多くのパターンの合成画像を形成できる。なお、図9(a)は、検出対象ではない手提げバッグのほぼ中央に、検出対象である包丁が収納されている状態の合成画像である。また、図9(b)は、検出対象外の手提げバッグの右上から、検出対象である包丁が突出している状態の合成画像である。 Next, the transparency synthesis processing unit 37 subtracts the maximum luminance value Imax again to negatively invert the luminance and returns it, thereby generating and outputting a synthesized image with the luminance after synthesis g(i, j). (step S10, step S11). FIGS. 9A and 9B are examples of composite images generated in this way. As shown in FIGS. 9A and 9B, by rotating the detection target image and moving the position of the detection target image and synthesizing it with the non-detection target image, a synthesized image of many patterns can be easily obtained. can be formed. FIG. 9(a) is a composite image of a state in which a kitchen knife, which is a detection target, is housed approximately in the center of a handbag, which is not a detection target. FIG. 9(b) is a composite image in which a kitchen knife, which is a detection target, protrudes from the upper right of a non-detection handbag.

記憶制御部32は、生成された合成画像に当該合成画像に関する情報を付した教師画像データを学習データとして記憶部25に記憶制御する。これにより、図4のフローチャートに示す教師画像データの生成動作が終了する。 The storage control unit 32 stores and controls the storage unit 25 as learning data, teacher image data obtained by adding information about the generated synthetic image to the synthetic image. This completes the operation of generating teacher image data shown in the flowchart of FIG.

このような合成処理は、以下の数式で表すことができる。 Such synthesis processing can be represented by the following formula.

Figure 2022120734000002
Figure 2022120734000002

この数式において、「Imax-In(i,j)」は、上述の輝度の反転処理(ネガ反
転)に相当する演算である。また、min(Σ)の演算は、合成処理に相当する演算である。また、Imax-min(Σ)の演算は、ステップS10におけるネガ反転処理に相当する演算である。
In this formula, "Imax-In(i, j)" is an operation corresponding to the luminance inversion process (negative inversion) described above. Also, the calculation of min(Σ) is a calculation corresponding to the combining process. Further, the calculation of Imax-min(Σ) is a calculation corresponding to the negative reversal processing in step S10.

(実施の形態の効果)
以上の説明から明らかなように、実施の形態の物体検査装置1は、X線等の放射線による透過画像である検出対象画像及び検出対象外画像を用意し、検出対象画像に対して回転、移動、変形等の拡張処理を施すことで、検出対象画像の姿勢、位置、大きさ等を調整する。そして、このように調整した検出対象画像を検出対象外画像と合成して教師画像データを形成する。これにより、検出対象画像の姿勢、位置、大きさ等を変更することで、様々なパターンの検出対象画像を生成することができ、これを検出対象外画像と合成することで、様々なパターンの多くの合成画像(教師画像)を、簡単かつ短時間に生成できる。このため、学習コストを低く抑えることができ、また、学習精度の向上を図ることができる。
(Effect of Embodiment)
As is clear from the above description, the object inspection apparatus 1 of the embodiment prepares an image to be detected and an image not to be detected, which are transmitted images by radiation such as X-rays, and rotates and moves the image to be detected. The orientation, position, size, etc. of the image to be detected are adjusted by applying expansion processing such as deformation. Then, the detection target image adjusted in this manner is combined with the non-detection target image to form teacher image data. As a result, by changing the orientation, position, size, etc. of the detection target image, it is possible to generate various patterns of the detection target image. Many synthetic images (teaching images) can be generated easily and in a short time. Therefore, the learning cost can be kept low, and the learning accuracy can be improved.

また、検出対象画像及び検出対象外画像を合成する際、検出対象画像及び検出対象外画像をネガ反転処理したうえで合成処理している。これにより、検出対象画像及び検出対象外画像であるRGB画像の合成処理により、白レベルが飽和する不都合を防止できる。 Further, when combining the detection target image and the non-detection target image, the detection target image and the non-detection target image are subjected to negative reversal processing before combining. As a result, it is possible to prevent the problem that the white level is saturated due to the synthesis processing of the RGB image, which is the detection target image and the non-detection target image.

さらに、合成処理により形成した合成画像に対して、教師画像で深層学習を行う物体検査装置のカラーマップに対応する最大値以下となるように、合成画像の輝度を調整処理する(上限処理)。物体検査装置毎にカラーマップは異なるため、所望の物体検査装置用のカラーマップを用いて合成画像の輝度を調整することで、所望の物体検査装置に対応する(各機種に対応する)教師画像を形成することができる。 Further, the brightness of the synthesized image formed by the synthesizing process is adjusted so that it is equal to or less than the maximum value corresponding to the color map of the object inspection device that performs deep learning using the teacher image (upper limit processing). Since the color map differs for each object inspection device, by adjusting the brightness of the synthesized image using the color map for the desired object inspection device, a teacher image corresponding to the desired object inspection device (corresponding to each model) can be obtained. can be formed.

最後に、上述の実施の形態は、一例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。 Finally, the above-described embodiments are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention.

例えば、上述の実施の形態では、二次元画像を合成処理することとしたが、三次元画像を合成してもよい。 For example, in the above embodiment, two-dimensional images are synthesized, but three-dimensional images may be synthesized.

また、上述の実施の形態では、学習データの生成処理を物体検査装置自体に設けた場合を例に説明したが、物体検査装置から得た透過画像を外部装置へ出力し、学習データの生成処理を外部装置にて行うようにしてもよい。 Further, in the above-described embodiment, the case where the learning data generation processing is provided in the object inspection device itself has been described as an example. may be performed by an external device.

さらに、上記実施の形態では、学習データの生成処理を、X線を照射して得た透過画像を例に説明したが、これに限らず、ミリ波や電波等を用いて得られる透過画像をもとに行うようにしてもよい。 Furthermore, in the above-described embodiment, the transmission image obtained by irradiating X-rays is used as an example of the learning data generation processing. You may make it go to the original.

加えて、上記実施の形態では、色調変更処理部35は、合成処理を行う前の検出対象画像および検出対象外画像に対して所望の物体検査装置用のカラーマップを用いて色を調整する旨記載しているが、これに限らず、合成処理により形成した教師画像データとして記憶する合成画像に対して行うようにしてもよい。 In addition, in the above-described embodiment, the color tone change processing unit 35 adjusts the colors of the detection target image and the non-detection target image before performing the synthesizing process using a desired color map for the object inspection apparatus. Although described, it is not limited to this, and may be performed for a synthesized image stored as teacher image data formed by synthesis processing.

また、実施の形態及び実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 In addition, the embodiments and modifications of the embodiments are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1 物体検査装置
4 撮像物
14 モニタ装置
16 物体検査装置の本体
16a 撮像物の入口
16b 撮像物の出口
21 X線源
22 ローラコンベア
23 X線検出器
24 演算処理部
25 記憶部
31 撮像制御部
32 記憶制御部
33 入力処理部
34 表示制御部
35 色調変更処理部
36 教師ラベル画像生成部
37 透過合成処理部
Reference Signs List 1 object inspection device 4 imaging object 14 monitor device 16 main body of object inspection device 16a imaging object entrance 16b imaging object exit 21 X-ray source 22 roller conveyor 23 X-ray detector 24 arithmetic processing unit 25 storage unit 31 imaging control unit 32 Storage control unit 33 Input processing unit 34 Display control unit 35 Color tone change processing unit 36 Teacher label image generation unit 37 Transparency synthesis processing unit

Claims (7)

検出対象物の透過画像である検出対象画像、及び、検出対象物ではない物体の透過画像である検出対象外画像を取得する取得部と、
前記検出対象画像の前記検出対象物の表示形態を変更する表示形態変更部と、
表示形態が変更された前記検出対象物の前記検出対象画像を、前記検出対象外画像に合成して学習データを生成する合成処理部と、
を有する学習データ生成装置。
an acquisition unit that acquires a detection target image that is a transmission image of a detection target and a non-detection target image that is a transmission image of an object that is not the detection target;
a display form changing unit that changes a display form of the detection object in the detection target image;
a synthesis processing unit that synthesizes the detection target image of the detection target whose display form has been changed with the non-detection target image to generate learning data;
A learning data generation device having
前記表示形態変更部は、前記検出対象物の回転、移動、変形、拡大、縮小のうち、少なくとも一つの表示形態の変更処理が可能であること
を特徴とする請求項1に記載の学習データ生成装置。
2. The learning data generation according to claim 1, wherein the display form changing unit is capable of changing at least one display form out of rotation, movement, deformation, enlargement, and reduction of the detection object. Device.
前記表示形態変更部は、前記検出対象物の色調を、指示された材質に対応する色調に変更処理すること
を特徴とする請求項1又は請求項2に記載の学習データ生成装置。
3. The learning data generation device according to claim 1, wherein the display mode changing unit changes the color tone of the detection object to a color tone corresponding to the specified material.
前記表示形態変更部は、前記検出対象画像及び前記検出対象外画像に対して、所定の機種に対応するカラーマップを用いて輝度の調整処理を施すこと
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の学習データ生成装置。
4. The display mode changing unit performs brightness adjustment processing on the detection target image and the non-detection target image using a color map corresponding to a predetermined model. The learning data generation device according to any one of
前記表示形態変更部は、合成処理部が出力する合成画像に対して、所定の機種に対応するカラーマップを用いて輝度の調整処理を施すこと
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の学習データ生成装置。
4. Among claims 1 to 3, wherein the display form changing unit performs brightness adjustment processing on the synthesized image output by the synthesis processing unit using a color map corresponding to a predetermined model. , The learning data generation device according to any one of the above.
検出対象物の透過画像である検出対象画像、及び、検出対象物ではない物体の透過画像である検出対象外画像を取得する取得ステップと、
前記検出対象画像の前記検出対象物の表示形態を変更する表示形態変更ステップと、
表示形態が変更された前記検出対象物の前記検出対象画像を、前記検出対象外画像に合成して学習データを生成する合成処理ステップと、
を有する学習データ生成方法。
an acquisition step of acquiring a detection target image that is a transmission image of a detection target and a non-detection target image that is a transmission image of an object that is not the detection target;
a display form changing step of changing a display form of the detection object in the detection target image;
a synthesizing step of synthesizing the detection target image of the detection target whose display mode has been changed with the non-detection target image to generate learning data;
A learning data generation method having
コンピュータを、
検出対象物の透過画像である検出対象画像、及び、検出対象物ではない物体の透過画像である検出対象外画像を取得する取得部と、
前記検出対象画像の前記検出対象物の表示形態を変更する表示形態変更部と、
表示形態が変更された前記検出対象物の前記検出対象画像を、前記検出対象外画像に合成して学習データを生成する合成処理部として機能させること
を特徴とする学習データ生成プログラム。
the computer,
an acquisition unit that acquires a detection target image that is a transmission image of a detection target and a non-detection target image that is a transmission image of an object that is not the detection target;
a display form changing unit that changes a display form of the detection object in the detection target image;
A learning data generating program that functions as a synthesizing unit that generates learning data by synthesizing the detection target image of the detection target whose display mode has been changed with the non-detection target image.
JP2021017837A 2021-02-05 2021-02-05 Learning data generation device, method for generating learning data, and learning data generation program Pending JP2022120734A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021017837A JP2022120734A (en) 2021-02-05 2021-02-05 Learning data generation device, method for generating learning data, and learning data generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021017837A JP2022120734A (en) 2021-02-05 2021-02-05 Learning data generation device, method for generating learning data, and learning data generation program

Publications (1)

Publication Number Publication Date
JP2022120734A true JP2022120734A (en) 2022-08-18

Family

ID=82849183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021017837A Pending JP2022120734A (en) 2021-02-05 2021-02-05 Learning data generation device, method for generating learning data, and learning data generation program

Country Status (1)

Country Link
JP (1) JP2022120734A (en)

Similar Documents

Publication Publication Date Title
CN108305271B (en) Video frame image processing method and device
US10380802B2 (en) Projecting augmentation images onto moving objects
JP6368709B2 (en) Method for generating 3D body data
US20120075331A1 (en) System and method for changing hair color in digital images
JP2010055194A (en) Image processing device and method, learning device and method, and program
AU2019226134B2 (en) Environment map hole-filling
EP3772722B1 (en) X-ray image processing system and method, and program therefor
WO2011031331A1 (en) Interactive tone mapping for high dynamic range video
JP3993029B2 (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
GB2578510A (en) Environment map generation and hole filling
US11574189B2 (en) Image processing apparatus and learned model
JP2022120734A (en) Learning data generation device, method for generating learning data, and learning data generation program
CN113435514A (en) Construction waste fine classification method and device based on meta-deep learning
US11295424B2 (en) Generation of alpha masks of video frames
CN115668906A (en) Video object retiming via hierarchical neural rendering
KR102591668B1 (en) Apparatus and method for x-ray data generation
US11651550B2 (en) Artificial intelligence based methods and systems for generating 3-Dimensional model from 2-Dimensional humanoid sketches
US11557038B2 (en) Apparatus and method for x-ray data generation
JP2004110515A (en) Image analysis system and image analysis program
Katsaros et al. Multi-task video enhancement for dental interventions
US20210342572A1 (en) Information processing apparatus, non-transitory computer-readable storage medium, and information processing method
Sober et al. Revealing and reconstructing hidden or lost features in art investigation
US20220101587A1 (en) Systems and Methods for Motion-Controlled Animation
JP7378997B2 (en) Information processing device, information processing method and program
Thosar et al. Taking in a profound single picture differentiate enhancer from multiintroduction pictures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231020