JP7422023B2 - X-ray image processing device and X-ray image processing method - Google Patents

X-ray image processing device and X-ray image processing method Download PDF

Info

Publication number
JP7422023B2
JP7422023B2 JP2020115632A JP2020115632A JP7422023B2 JP 7422023 B2 JP7422023 B2 JP 7422023B2 JP 2020115632 A JP2020115632 A JP 2020115632A JP 2020115632 A JP2020115632 A JP 2020115632A JP 7422023 B2 JP7422023 B2 JP 7422023B2
Authority
JP
Japan
Prior art keywords
article
ray image
ray
image processing
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020115632A
Other languages
Japanese (ja)
Other versions
JP2022013217A (en
Inventor
直人 秋良
紫薇 ▲とう▼
仁志 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2020115632A priority Critical patent/JP7422023B2/en
Priority to CN202110137234.0A priority patent/CN113960687A/en
Publication of JP2022013217A publication Critical patent/JP2022013217A/en
Application granted granted Critical
Publication of JP7422023B2 publication Critical patent/JP7422023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • G01V5/22Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Analysis (AREA)

Description

本発明は、X線画像処理装置およびX線画像処理方法に関する。 The present invention relates to an X-ray image processing device and an X-ray image processing method.

空港や大規模イベント会場等において手荷物検査にX線手荷物検査装置が利用されている。X線手荷物検査装置は一般的に、X線の透過量を示すグレースケール画像や、さらに材質を判定して材質毎に色づけをしたカラー画像を生成する。そして、検査員が目視で画像をチェックして危険物の有無を確認し、検査員が危険物を発見すると、荷物を開被検査するのが一般的な運用である。 X-ray baggage inspection devices are used for baggage inspection at airports, large-scale event venues, and the like. Generally, an X-ray baggage inspection device generates a grayscale image showing the amount of X-ray transmission, and a color image in which the material is determined and colored for each material. The general operation is for an inspector to visually check the images to confirm the presence of dangerous objects, and if the inspector finds a dangerous object, the bag is opened and inspected.

X線画像に危険物が含まれているか否かを確認するためには、高度な訓練を受けた検査員が必要である。そのため、例えば大規模イベントに際して検査員を一時的に大量に確保することは、事前の訓練やコストの点から難しい。そこで、検査員の負荷を少しでも低減するために、危険物の発見を自動化しようという試みがなされている。 Highly trained inspectors are required to confirm whether X-ray images contain hazardous materials. Therefore, it is difficult to temporarily secure a large number of inspectors for a large-scale event, for example, in terms of prior training and cost. Therefore, attempts are being made to automate the detection of hazardous materials in order to reduce the burden on inspectors as much as possible.

画像認識を自動化する一方策として、AI(人工知能)による深層学習を活用した画像認識技術があげられる。深層学習は映像解析の用途などで広く用いられており、高い認識精度が得られるため、その普及が進んでいる。例えば、特許文献1には、材質の密度と形状認識結果を組みわせることで高い認識精度を得る方法が開示されている。 One way to automate image recognition is to use image recognition technology that utilizes deep learning using AI (artificial intelligence). Deep learning is widely used in applications such as video analysis, and is becoming more popular because it provides high recognition accuracy. For example, Patent Document 1 discloses a method of obtaining high recognition accuracy by combining material density and shape recognition results.

特開2018-4363号公報JP 2018-4363 Publication

特許文献1に記載の技術は、X線検査装置で1方向から撮影した画像を認識対象としている。すなわち、1つの撮影方向に対して1つの認識結果が得られるため、複数の撮影方向がある場合には、撮影方向の数だけ認識結果が得られる。そのため、検査員は複数の認識結果を確認しなければならず、検査員の確認時間が増えてしまうという課題がある。また、1方向から撮影した画像は情報量が少なく、物品を3D(三次元)で撮影可能なCT方式と比較して認識精度が低下してしまうという課題がある。 The technique described in Patent Document 1 targets images taken from one direction with an X-ray inspection device. That is, since one recognition result is obtained for one photographing direction, if there are a plurality of photographing directions, the same number of recognition results as there are photographing directions can be obtained. Therefore, the inspector has to confirm multiple recognition results, which poses a problem in that the inspector's confirmation time increases. Furthermore, images taken from one direction have a small amount of information, and there is a problem in that the recognition accuracy is lower than that of a CT method that can photograph an article in 3D (three dimensions).

一方、2方向から撮影可能なX線検査装置は、CT方式よりも安価であるため普及が進んでいる。2方向から撮影可能なX線検査装置は、例えばナイフのように厚さが薄い物品であっても、当該物品を2方向から撮影することにより、いずれかの方向から撮影した画像によって、ナイフの形状を明確に判別することが可能となる。そのため、物品を2方向から確認することにより、物品を1方向から確認する場合よりも見逃し防止が期待できる。AIを用いた禁止物品の認識においても、2方向の認識結果を統合したうえで最終的な認識結果を提示することがよいと考えられる。 On the other hand, X-ray inspection devices that can take images from two directions are becoming more popular because they are cheaper than CT systems. An X-ray inspection device that can take images from two directions can detect the knife by taking images of the object from two directions, even if the object is thin, such as a knife. It becomes possible to clearly distinguish the shape. Therefore, by checking the article from two directions, it is possible to prevent items from being overlooked more than when checking the article from one direction. Even in the recognition of prohibited items using AI, it is considered a good idea to integrate the recognition results from two directions and then present the final recognition result.

本発明の目的は、複数の方向からの撮影が可能なX線検査装置において、禁止物品の認識精度を向上させることができるX線画像処理装置およびX線画像処理方法を提供することにある。 An object of the present invention is to provide an X-ray image processing device and an X-ray image processing method that can improve recognition accuracy of prohibited items in an X-ray inspection device that can take images from a plurality of directions.

上記課題を解決するために、代表的な本発明のX線画像処理装置の一つは、物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、複数のX線画像に対する認識結果を統合する認識結果統合部と、統合された認識結果をもとに、画面情報を生成する画面生成部と、を有する。 In order to solve the above problems, one of the representative X-ray image processing apparatuses of the present invention includes an X-ray image acquisition section that acquires a plurality of X-ray images taken of an article from a plurality of directions; An article recognition section that recognizes an article using a learning model that has learned the first side of the article for a line image, and a recognition result integration section that integrates recognition results for multiple X-ray images. It has a screen generation unit that generates screen information based on the recognition result.

本発明によれば、複数の方向からの撮影が可能なX線検査装置において、禁止物品の認識精度を向上させることができるX線画像処理装置およびX線画像処理方法を提供することができる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, it is possible to provide an X-ray image processing device and an X-ray image processing method that can improve recognition accuracy of prohibited items in an X-ray inspection device that can take images from a plurality of directions.
Problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.

X線検査装置の構成図である。FIG. 1 is a configuration diagram of an X-ray inspection device. X線画像処理装置102の機能構成図である。1 is a functional configuration diagram of an X-ray image processing device 102. FIG. 物品の認識と表示を行う処理動作を示すフローチャートである。3 is a flowchart showing a processing operation for recognizing and displaying an article. 画像データを荷物単位に分割する例を示す図である。FIG. 3 is a diagram illustrating an example of dividing image data into luggage units. 物品の正面と側面の画像の例を示す図である。It is a figure which shows the example of the image of the front and the side of an article. 画面生成の例を示す図である。FIG. 3 is a diagram showing an example of screen generation. 画面生成の例を示す図である。FIG. 3 is a diagram showing an example of screen generation. 画面生成の例を示す図である。FIG. 3 is a diagram showing an example of screen generation.

以下、本発明のX線画像処理装置およびX線画像処理方法の好ましい実施形態について説明する。
本開示において、物品の「正面」とは、一般的な検査員が確認したときに物品を判別しやすい方向から見える面を意味し、物品の「側面」とは、正面が見える方向に対して垂直な方向から見える面を意味し、認識結果の「信頼度」とは、認識結果の尤もらしさを意味する。
Preferred embodiments of the X-ray image processing apparatus and X-ray image processing method of the present invention will be described below.
In this disclosure, the "front" of an article refers to the side that is visible from the direction that makes it easy for a general inspector to identify the article, and the "side" of the article refers to the direction in which the front is visible. It means a surface that can be seen from the vertical direction , and the "reliability" of a recognition result means the likelihood of the recognition result .

図1は、X線画像処理装置を有するX線検査装置の構成図である。
X線検査装置100は、例えば空港の保安検査において手荷物検査装置として広く用いられている装置であり、X線装置本体(以下、装置本体という)101と、X線画像処理装置102と、表示部103と、入力部104を有する。X線画像処理装置102は例えばパーソナルコンピュータ(PC)である。表示部103は、2方向から撮影した画像を表示する場合や、カラー画像とグレースケール画像を表示する場合などに、2つ以上のディスプレイで構成されることもある。
FIG. 1 is a configuration diagram of an X-ray inspection apparatus having an X-ray image processing device.
The X-ray inspection device 100 is a device widely used as a baggage inspection device in airport security inspections, for example, and includes an X-ray device main body (hereinafter referred to as the device main body) 101, an X-ray image processing device 102, and a display section. 103 and an input section 104. The X-ray image processing device 102 is, for example, a personal computer (PC). The display unit 103 may be configured with two or more displays, such as when displaying images taken from two directions, or when displaying a color image and a grayscale image.

装置本体101は、X線を照射する照射機構と、手荷物等の対象物を撮影してX線の透過量を計測するX線撮影機構を有し、X線透過量のデータ(以下、単に「透過量データ」または「透過量」ということがある。)を出力する。X線画像処理装置102は、装置本体101が撮影したX線画像の物品認識結果に基づき手荷物が安全であるか否かを判定する。本実施例のX線画像処理装置は、学習の機能を有しており、蓄積された物品情報を用いて画像認識用のモデルを学習することができる。表示部103はX線画像を表示する表示端末であり、画面に表示されるX線画像を検査員が目視で確認することができる。 The device main body 101 has an irradiation mechanism that irradiates X-rays and an X-ray imaging mechanism that measures the amount of X-rays transmitted by photographing objects such as baggage. (sometimes referred to as "transmission amount data" or "transmission amount"). The X-ray image processing device 102 determines whether the baggage is safe based on the article recognition result of the X-ray image taken by the device main body 101. The X-ray image processing apparatus of this embodiment has a learning function and can learn a model for image recognition using accumulated article information. The display unit 103 is a display terminal that displays an X-ray image, and the inspector can visually check the X-ray image displayed on the screen.

装置本体101は、荷物を搬送するベルトコンベアを備えた搬送機構を有し、搬送機構は制御部により制御されて、ベルトコンベアを駆動、停止させることができる。X線画像処理装置102は、物品認識の結果、危険な手荷物(アラート対象物)と判定した場合、装置本体101または装置本体101付近に設置された表示ランプを点灯して、物品がアラート対象物である旨を検査員に通知する。なお、アラート対象物である旨の通知には、表示部103やX線画像処理装置102の音声出力部を用いてもよい。 The apparatus main body 101 has a conveyance mechanism including a belt conveyor for conveying cargo, and the conveyance mechanism is controlled by a control unit to drive and stop the belt conveyor. If the X-ray image processing device 102 determines that the item is dangerous baggage (alert object) as a result of object recognition, it lights up the device main body 101 or an indicator lamp installed near the device main body 101, indicating that the object is an alert object. Notify the inspector that this is the case. Note that the display unit 103 or the audio output unit of the X-ray image processing device 102 may be used to notify that the object is an alert target.

本実施例の搬送機構には、X線の透過量を計測する2種類のX線センサ(以下単に「センサ」という。)が配置され、2種類のデータを取得する。すなわち、1つのセンサが低いエネルギーのデータを取得し、他の1つのセンサが高いエネルギーのデータを取得する。X線画像処理装置102は、2つのセンサにより取得される高エネルギーのデータと低エネルギーのデータの差分に基づき対象物の材質を判定する。X線センサは、材質が判断できるX線データが取得できればよく、X線センサの検知方式は問わない。例えば後方散乱式の材質判定センサ等を用いることができるし、その他のセンサでもよい。さらに、本実施例のX線検査装置には、荷物が通過するエリアの側面(垂直面)と天井面(水平面)など、複数個所にそれぞれ上記センサのセット(2種類のX線センサ)が取り付けられている。例えば2方向から撮影可能なX線検査装置では、上と横の二方向から同時に荷物を撮影することができる。通常、センサとしてはラインセンサが用いられている。このような場合、複数のX線の光源の干渉を避けるために、第一のセンサのセットと第二のセンサのセットは荷物進行方向に対する位置を若干ずらして設置されていることもある。 Two types of X-ray sensors (hereinafter simply referred to as "sensors") that measure the amount of transmitted X-rays are arranged in the transport mechanism of this embodiment, and two types of data are acquired. That is, one sensor acquires low energy data and another sensor acquires high energy data. The X-ray image processing device 102 determines the material of the object based on the difference between high-energy data and low-energy data acquired by the two sensors. The X-ray sensor only needs to be able to acquire X-ray data from which the material can be determined, and the detection method of the X-ray sensor does not matter. For example, a backscatter type material determination sensor or the like may be used, or other sensors may be used. Furthermore, in the X-ray inspection device of this embodiment, sets of the above-mentioned sensors (two types of X-ray sensors) are installed at multiple locations, such as the side (vertical surface) and ceiling surface (horizontal surface) of the area where the baggage passes. It is being For example, an X-ray inspection device that can take images from two directions can simultaneously take images of luggage from two directions: top and side. Usually, a line sensor is used as the sensor. In such a case, in order to avoid interference between the plurality of X-ray light sources, the first set of sensors and the second set of sensors may be installed with their positions slightly shifted from each other in the cargo traveling direction.

図2は、X線画像処理装置102の機能構成図である。
X線画像処理装置102は、処理部(CPU:Central Processing Unit)201、主メモリ202、表示部103を接続する表示インターフェース(I/F)部203、入力部104を接続する入力インターフェース(I/F)部204、通信部205、記憶部210を有する情報処理装置である。
FIG. 2 is a functional configuration diagram of the X-ray image processing apparatus 102.
The X-ray image processing device 102 includes a processing unit (CPU: Central Processing Unit) 201, a main memory 202, a display interface (I/F) unit 203 that connects the display unit 103, and an input interface (I/F) that connects the input unit 104. F) It is an information processing device having a section 204, a communication section 205, and a storage section 210.

処理部201はプログラムを実行して所定の機能や動作を実現する。記憶部210は、X線画像取得プログラム212、物品認識プログラム213、認識結果統合プログラム214、画面生成プログラム215、キャリブレーションプログラム216、物品学習プログラム217、X線画像データ218、学習モデル219を格納する。 The processing unit 201 executes a program to realize predetermined functions and operations. The storage unit 210 stores an X-ray image acquisition program 212, an article recognition program 213, a recognition result integration program 214, a screen generation program 215, a calibration program 216, an article learning program 217, X-ray image data 218, and a learning model 219. .

ここで、X線画像取得プログラム212は、装置本体101が撮影したX線の透過量データを専用のインターフェースまたはVGA端子などの汎用の画面出力端子から取得する。なお、空港の保安検査場などで用いられているX線検査装置の場合、一般的に2方向から撮影した画像を独立した2画面に表示することが多い。その場合は、複数の入力端子からX線の透過量データを取得しても構わない。X線画像取得プログラム212による動作の詳細については後述する。 Here, the X-ray image acquisition program 212 acquires transmission amount data of X-rays photographed by the apparatus main body 101 from a dedicated interface or a general-purpose screen output terminal such as a VGA terminal. Note that in the case of an X-ray inspection device used at an airport security checkpoint, images generally taken from two directions are often displayed on two independent screens. In that case, the X-ray transmission amount data may be obtained from a plurality of input terminals. Details of the operation by the X-ray image acquisition program 212 will be described later.

物品認識プログラム213は、装置本体101が撮影した2種類のX線センサの透過量データから生成した荷物の材質情報と物品の密度情報を可視化したカラー画像または2種類のX線センサのいずれかのセンサの透過量データを変換したグレースケール画像を対象として、深層学習のセグメンテーション技術を用いて画像内に含まれる物品を画素単位で認識する。物品認識プログラム213による動作の詳細については後述する。 The article recognition program 213 generates a color image that visualizes the material information of the baggage and the density information of the article generated from the transmission amount data of the two types of X-ray sensors photographed by the device main body 101, or a color image that visualizes the material information of the baggage and the density information of the article. Using deep learning segmentation technology, objects contained in the image are recognized pixel by pixel using grayscale images obtained by converting sensor transmission amount data. Details of the operation by the article recognition program 213 will be described later.

認識結果統合プログラム214は、2方向から撮影した2つの画像の認識結果を統合して、物品を高精度に認識する。また、検査員に提示する画面を1つにする場合には、2方向から撮影した2つの画像から、検査員に提示する画像を選択する。認識結果統合プログラム214の動作の詳細については後述する。 The recognition result integration program 214 integrates the recognition results of two images taken from two directions and recognizes the article with high precision. Furthermore, when presenting one screen to the inspector, the image to be presented to the inspector is selected from two images taken from two directions. Details of the operation of the recognition result integration program 214 will be described later.

画面生成プログラム215は、認識結果統合プログラム214で統合された認識結果をもとに、検査員端末のモニタに表示する画面情報を生成し、表示部103に生成した画面情報を表示する。画面生成プログラム215の動作の詳細については後述する。 The screen generation program 215 generates screen information to be displayed on the monitor of the inspector terminal based on the recognition results integrated by the recognition result integration program 214, and displays the generated screen information on the display unit 103. Details of the operation of the screen generation program 215 will be described later.

キャリブレーションプログラム216は、複数の方向から撮影された複数の画像の位置を対応付けられるように、画像の位置を調整する。キャリブレーションプログラム216の動作の詳細については後述する。 The calibration program 216 adjusts the positions of images so that the positions of a plurality of images taken from a plurality of directions can be associated with each other. Details of the operation of the calibration program 216 will be described later.

物品学習プログラム217は、入力されたカラー画像またはグレースケール画像を対象として深層学習のセグメンテーション処理などを用いて学習を実施し、学習モデル219を生成する。 The article learning program 217 performs learning using deep learning segmentation processing or the like on the input color image or grayscale image, and generates a learning model 219 .

X線画像データ218は、2種類のセンサにより計測されるX線透過量データから生成された、材質情報と密度情報を示すカラー画像またはグレースケールの画像が登録される。カラー画像については、2種類のセンサのX線透過量データの差分から物品の材質を判定し、例えば、材質情報が色、透過量が濃さ(密度が大きい部分は濃く、密度が小さい部分は薄い)となるカラー画像が登録される。なお、センサが2つの方向の撮影用に設置されている場合は、1回の撮影で異なる向きからの画像が2つ撮影されて、X線画像データ218に登録される。 As the X-ray image data 218, a color image or a grayscale image indicating material information and density information is registered from X-ray transmission amount data measured by two types of sensors. For color images, the material of the article is determined from the difference between the X-ray transmission amount data of two types of sensors. A color image that is (light) is registered. Note that if the sensor is installed for imaging in two directions, two images from different directions are taken in one imaging and are registered in the X-ray image data 218.

なお、記憶部210に記憶される、上記の、X線画像取得プログラム212、物品認識プログラム213、認識結果統合プログラム214、画面生成プログラム215、キャリブレーションプログラム216、物品学習プログラム217は、処理部201で実行されると、それぞれ、X線画像取得部212´、物品認識部213´、認識結果統合部214´、画面生成部215´、キャリブレーション部216´、物品学習部217´としての機能を実現する。 Note that the above-mentioned X-ray image acquisition program 212 , article recognition program 213 , recognition result integration program 214 , screen generation program 215 , calibration program 216 , and article learning program 217 stored in the storage unit 210 are stored in the processing unit 201 . When executed, the functions of the X-ray image acquisition section 212', article recognition section 213', recognition result integration section 214', screen generation section 215', calibration section 216', and article learning section 217' are performed respectively. Realize.

X線画像データ218は、X線検査装置100で撮影された荷物のカラー画像またはグレースケールの画像である。X線検査装置100が例えば垂直方向と水平方向の2方向から撮影できる装置である場合、1つの荷物に対して、垂直方向と水平方向の2つの画像が荷物IDと共にX線画像データ218の保存領域に記録される。 The X-ray image data 218 is a color image or a grayscale image of the baggage taken by the X-ray inspection apparatus 100. For example, if the X-ray inspection device 100 is a device that can take images from two directions, vertical and horizontal, two images, one in the vertical direction and the other in the horizontal direction, are stored as X-ray image data 218 for one baggage along with the baggage ID. recorded in the area.

学習モデル219には、物品学習プログラム217で学習したモデルのパラメータ情報が記録されている。なお、学習モデルとしては、一つの物品に対して、正面や側面など、さまざまな方向で学習した学習モデルを用いてもよい。しかし、本実施例においては、物品が何であるかだけでなく、学習モデルを適用した物品の画像に対して、物品の正面と側面のいずれであるかも判別できるようにしているため、本実施例に用いる学習モデルとしては、例えば、スマートフォンについて、正面の画像と側面の画像を別の物品の画像として学習した学習モデルを用いてもよい。
このような学習モデルを用いることにより、スマートフォンのように、正面と側面の見た目が大きく異なる場合、正面と側面を別の物品として学習していることで、正面と側面の識別をより的確に反映させた学習モデルが構築できる。
In the learning model 219, parameter information of the model learned by the article learning program 217 is recorded. Note that, as the learning model, learning models that are trained on one article in various directions such as the front and the side may be used. However, in this example, it is possible to determine not only what the item is, but also whether it is the front or side view of the item based on the image of the item to which the learning model is applied. As a learning model used for this, for example, a learning model may be used in which a front image and a side image of a smartphone are learned as images of different items.
By using this kind of learning model, in cases where the front and side surfaces look very different, such as smartphones, the front and side surfaces are learned as different objects, which allows for more accurate identification of the front and side surfaces. A learning model can be constructed based on the

次に、図3を参照して、物品の認識と表示を行う処理動作について説明する。この処理動作は、X線検査装置100を使用する検査業務の際の処理動作である。 Next, processing operations for recognizing and displaying articles will be described with reference to FIG. This processing operation is a processing operation during inspection work using the X-ray inspection apparatus 100.

(S301)
まず、X線画像取得プログラム212が、X線のセンサで取得された透過量データであるRAWデータまたは透過量データが画像化されたX線画像(ディスプレイに表示する画面信号)を取得する。ここで、入力が高低2種類のエネルギーのRAWデータの場合は、高低2種類のエネルギーの透過量データの差分情報から画像の画素単位の材質を判定する。材質の判定は、例えばこの分野で広く知られている高低2種類のエネルギーの透過量の差分情報により、金属、無機物、有機物、その他の4種類に分類する方法を用いることができる。そして、材質情報と高低2種類のエネルギーのいずれかのX線透過量を用いて、材質情報が色、透過量が濃さ(密度が大きい部分は濃く、密度が小さい部分は薄い)となるカラー画像を生成する。
(S301)
First, the X-ray image acquisition program 212 acquires RAW data, which is transmission amount data acquired by an X-ray sensor, or an X-ray image (screen signal displayed on a display) in which the transmission amount data is visualized. Here, if the input is RAW data of two types of energy, high and low, the material of each pixel of the image is determined from the difference information of the transmission amount data of two types of energy, high and low. The material can be determined by, for example, a method widely known in this field that classifies the material into four types: metal, inorganic material, organic material, and others, based on differential information of two types of energy transmission, high and low. Then, using the material information and the amount of X-ray transmission of either high or low energy, the material information is the color, and the amount of transmission is the darkness (areas with high density are dark, areas with low density are light). Generate an image.

ここで、装置本体101から取得される画像データが撮影対象の荷物毎に分割されていない場合、つまり、一つの画像データに複数の荷物が写りこんでいる場合は、以下に示す第1の分割方法ないし第3の分割方法にて画像データを荷物単位に分割する。 Here, if the image data acquired from the device main body 101 is not divided for each package to be photographed, that is, if multiple packages are reflected in one image data, the first division shown below is performed. The image data is divided into parcel units using the third dividing method.

第1の分割方法は、装置本体101のVGA出力端子などからディスプレイに表示する画面信号を入力する場合の方法である。まず、画面信号を取得し、フレーム画像の変化の度合いを用いて荷物の表示内容が変化しているかどうかを判定する。荷物の撮影が終了すると画面上には荷物が静止して表示される。透過量が閾値以下の濃い部分を荷物エリアとすると、荷物エリアが変化するかどうかで荷物の撮影の終了および撮影終了時の荷物エリアを特定することができる。 The first division method is a method in which a screen signal to be displayed on a display is input from a VGA output terminal of the device main body 101 or the like. First, a screen signal is acquired, and the degree of change in the frame image is used to determine whether the displayed content of the package has changed. When the photograph of the baggage is finished, the baggage is displayed stationary on the screen. If the dark part where the amount of transmission is below the threshold value is defined as the baggage area, it is possible to specify the end of photographing the baggage and the baggage area at the end of the photographing based on whether or not the baggage area changes.

第2の分割方法の例を図4に示す。画面信号またはRAWデータを取得し、透過量の積分値を一定のライン数毎または一定時間毎に求める。透過量が小さい(=濃い)部分は荷物があると判定し、透過量が大きい(=薄い)部分は荷物がないと判定して、荷物単位に画像を分割する。1ラインで判定してしまうと、ノイズなどで誤判定してしまう可能性があるため、移動平均をとった透過量の積分値が閾値以下の場合は荷物あり、閾値以上の場合は荷物なしと判定することもできる。また、荷物の途中に薄い部分が含まれることがあるため、薄い部分は一定量連続した場合に荷物と荷物の間のスペースと判定してもよい。図4のグラフは、透過量が小さい(=濃い)ほど上に、透過量が大きい(=薄い)ほど下にプロットされ、数字は何番目のラインであるかを示す。 An example of the second division method is shown in FIG. A screen signal or RAW data is acquired, and an integral value of the amount of transmission is determined for every fixed number of lines or every fixed period of time. It is determined that there is baggage in areas where the amount of transmission is small (=dark), and it is determined that there is no baggage in areas where the amount of transmission is large (=thin), and the image is divided into baggage units. If a single line is used to judge, there is a possibility of erroneous judgment due to noise, etc. Therefore, if the integral value of the amount of transmission obtained by taking the moving average is less than the threshold value, there is baggage, and if it is above the threshold value, there is no baggage. It is also possible to judge. Further, since a thin part may be included in the middle of the baggage, it may be determined that the thin part is a space between two pieces of baggage if the thin part continues for a certain amount. In the graph of FIG. 4, the smaller the amount of transmission (=darker), the higher the plot, and the larger the amount of transmission (=lighter), the lower the plot, and the numbers indicate what line the line is.

第3の分割方法は、X線検査装置の荷物投入口に設置された荷物検知センサを用いる方法である。一般的なX線検査装置では、荷物で例えば、光線が遮蔽される位置に遮蔽を検知できるセンサが設置されている。センサが荷物を検知した時刻に、センサが荷物を検知した時点からラインセンサに荷物の先端が到着するまでの時間を加算することで荷物開始点の時刻(撮影開始時刻)が取得できる。また、センサが荷物を検知しなくなった時刻に、センサが荷物を検知しなくなった時点からラインセンサに荷物の終端が到着するまでの時間を加算することで荷物終了点の時刻(撮影終了時刻)が取得できる。荷物開始点の時刻と荷物終了点の時刻を取得することで、入力が画面信号であれば、荷物終了点の時刻の画面と、撮影時間の情報から荷物領域を特定することができる。入力がRAWデータであれば、開始時刻から終了時刻までのRAWデータを1つの荷物のRAWデータとして荷物領域の画像を生成することができる。 The third dividing method is a method using a baggage detection sensor installed at the baggage input port of the X-ray inspection device. In a typical X-ray inspection device, a sensor capable of detecting the shielding is installed at a position where the light beam is shielded by the baggage, for example. By adding the time from when the sensor detects the baggage until the leading edge of the baggage arrives at the line sensor to the time when the sensor detects the baggage, the time at the baggage start point (shooting start time) can be obtained. Also, by adding the time from the time when the sensor stopped detecting the baggage until the end of the baggage arrives at the line sensor to the time when the sensor stopped detecting the baggage, the time of the baggage end point (shooting end time) can be obtained. By acquiring the time of the baggage start point and the time of the baggage end point, if the input is a screen signal, the baggage area can be specified from the screen of the time of the baggage end point and the information of the photographing time. If the input is RAW data, an image of the luggage area can be generated by using the RAW data from the start time to the end time as the RAW data of one luggage.

2方向から撮影できるX線検査装置では、上記の分割方法を例えば垂直方向から撮影した画像と水平方向から撮影した画像に適用する。 In an X-ray inspection apparatus that can take images from two directions, the above dividing method is applied to, for example, an image taken from the vertical direction and an image taken from the horizontal direction.

(S302)
次に、キャリブレーションプログラム216が、X線画像取得プログラム212で取得した2方向の撮影画像に対して荷物の進行方向に対する位置の対応付けを行う。例えば、X線画像取得プログラム212で2方向の2枚のX線画像を取得した場合、撮影方向によって物品の見え方が異なったり、ラインセンサの位置が異なるため、そのままでは、2枚の画像の画素単位の位置関係の対応が明確にならないことが多い。一般に検査員が検査装置の画像を目視して確認する場合や、1枚の画像毎にAIによる物品認識を適用する場合は、2枚の画像を画素単位で対応付ける必要はないため、検査員端末に表示される2方向2画面の画像はラインセンサの間隔分ずれて表示されていることもある。そこで、キャリブレーションプログラム216を用いて、以下に示す第1のキャリブレーション方法ないし第3のキャリブレーション方法にて2枚の画像の画素間の対応付けを実施する。
(S302)
Next, the calibration program 216 associates the photographed images in the two directions acquired by the X-ray image acquisition program 212 with the position in the traveling direction of the luggage. For example, when the X-ray image acquisition program 212 acquires two X-ray images in two directions, the appearance of the article differs depending on the photographing direction, and the position of the line sensor differs. In many cases, the correspondence between pixel-by-pixel positional relationships is not clear. In general, when inspectors visually check images from inspection equipment, or when applying AI-based product recognition to each image, it is not necessary to correlate the two images pixel by pixel, so the inspector's terminal The images displayed on two screens in two directions may be displayed shifted by the distance between the line sensors. Therefore, using the calibration program 216, correspondence between the pixels of the two images is performed using the first to third calibration methods described below.

第1のキャリブレーション方法は、ラインセンサ間の時間間隔を用いる方法である。例えば、RAWデータを用いる方式の場合、2つのラインセンサから入力されるデータには、一定の時間のずれがある。そこで、データの入力時刻をラインセンサ間の時間間隔分調整して、ライン単位で時刻が同期するようにすることで、画素間の対応付けを行う。 The first calibration method uses time intervals between line sensors. For example, in the case of a method using RAW data, there is a certain time lag between data input from two line sensors. Therefore, the data input time is adjusted by the time interval between line sensors so that the times are synchronized on a line-by-line basis, thereby establishing correspondence between pixels.

第2のキャリブレーション方法は、画面信号を入力とし、X線画像を取得するステップ(S301)において第1の画像分割方法または第2の画像分割方法を用いる場合のキャリブレーション方法である。透過量の大きさ(濃さ)に基づく画像分割方法を用いる場合、2つの方向から撮影した画像は、各々透過量の分布が異なるため、必ずしも同じ位置が開始点、終了点と判定されるとは限らない。また、荷物領域のみを切り出す画像分割方法の場合、荷物の進行方向だけでなく、進行方向と垂直方向に関しても余白すなわち透過量が大きい部分を削除する運用が想定されるため、2つの方向から撮影して荷物単位に切り出した画像は、解像度もアスペクト比も異なる。 The second calibration method is a calibration method in which a screen signal is input and the first image division method or the second image division method is used in the step (S301) of acquiring an X-ray image. When using an image division method based on the amount of transmission (density), images taken from two directions have different distributions of transmission, so the same position may not necessarily be determined as the starting point and ending point. is not limited. In addition, in the case of an image division method that cuts out only the baggage area, it is assumed that the margins, that is, the parts with a large amount of transparency, will be deleted not only in the direction of travel of the baggage, but also in the direction of travel and perpendicularly, so images can be taken from two directions. The images cut out into individual parcels have different resolutions and aspect ratios.

そこで、荷物の進行方向について、2つのラインセンサの時間間隔および2つの画像の撮影開始時刻と撮影終了時刻を用いて対応付けを行う。撮影開始時刻が早いほうの画像に合わせて撮影開始時刻が遅いほうの画像に余白画像を追加し、撮影終了時刻が遅いほうの画像に合わせて撮影終了時刻が早いほうの画像に余白画像を追加する。なお、荷物の進行方向と垂直な方向については、垂直方向と水平方向では荷物のサイズも異なり、画素単位の対応付けが難しいため、画像のサイズが異なっていても構わない。すなわち、キャリブレーションにより調整された画像は、荷物の進行方向については、必ず同じ物品が同じ位置に撮影されていることが保証される。 Therefore, the traveling direction of the luggage is correlated using the time interval between the two line sensors and the photographing start time and photographing end time of the two images. A margin image is added to the image with a later shooting start time to match the image with an earlier shooting start time, and a margin image is added to the image with an earlier shooting end time to match the image with a later shooting end time. do. Note that in the direction perpendicular to the traveling direction of the baggage, the size of the baggage is different in the vertical direction and the horizontal direction, and it is difficult to make a pixel-by-pixel correspondence, so the sizes of the images may be different. That is, it is guaranteed that the image adjusted by the calibration always captures the same article at the same position with respect to the traveling direction of the baggage.

第3のキャリブレーション方法は、第1のキャリブレーション方法または第2のキャリブレーション方法で使用するラインセンサ間の時間間隔を、装置利用開始時に特定のパターンを持つサンプル荷物を撮影することで計測する方法である。このサンプル荷物には、鉛インクなどで作られたX線画像で判別可能なパターンなど、撮影したときに位置が特定できるものが含まれている。先に撮影される画像のパターンの撮影時刻と、後から撮影される画像のパターンの撮影時刻との差分でラインセンサ間の時間間隔を計測できる。ラインセンサ間の距離は固定であっても、ベルトコンベアの進む速さに誤差が生じた場合、装置の初期導入時に設定した時間間隔では正確な位置の対応付けが行えない可能性がある。そのため、定期的に第3のキャリブレーション方法を用いて、誤差を修正することで、正確な対応付けが実現できる。 The third calibration method measures the time interval between the line sensors used in the first calibration method or the second calibration method by photographing a sample baggage with a specific pattern at the beginning of using the device. It's a method. This sample baggage contains patterns made with lead ink that can be seen in X-ray images, and whose location can be determined when photographed. The time interval between line sensors can be measured based on the difference between the photographing time of the image pattern photographed first and the photographing time of the image pattern photographed later. Even if the distance between the line sensors is fixed, if an error occurs in the speed at which the belt conveyor moves, accurate positional correspondence may not be possible at the time interval set at the time of initial installation of the device. Therefore, by periodically correcting errors using the third calibration method, accurate correspondence can be achieved.

キャリブレーションを実施することによって、2つの方向から撮影した2枚の画像を荷物の進行方向について位置を合わせて表示することができる。また、2つの方向から撮影した2枚の画像をAIを用いて総合的に認識することができる。 By performing calibration, two images taken from two directions can be displayed with their positions aligned in the traveling direction of the luggage. Additionally, two images taken from two directions can be comprehensively recognized using AI.

なお、取得したX線画像データは、次の物品認識をするステップS303や検査員が過去の画像データを参照する際に使われるため、X線画像データ218に登録される。 Note that the acquired X-ray image data is registered in the X-ray image data 218 because it is used in step S303 for the next article recognition or when the inspector refers to past image data.

(S303)
次に、物品認識プログラム213が、ステップS302で取得した2方向の2枚の画像をX線画像データ218から取得し、学習モデル219および深層学習のセグメンテーション処理を用いて画素単位で物品を認識する。ここで、物品の認識には、OSS(オープンソースソフトウェア)のライブラリとして広く知られている「Fully Convolutional Instance-aware Semantic Segmentation」や「Mask R-CNN」などのライブラリを用いることができる。なお、画素単位で物品が特定できれば、認識の方式は問わない。
(S303)
Next, the article recognition program 213 acquires the two images in the two directions acquired in step S302 from the X-ray image data 218, and recognizes the article pixel by pixel using the learning model 219 and deep learning segmentation processing. . Here, a library such as "Fully Convolutional Instance-aware Semantic Segmentation" or "Mask R-CNN" which is widely known as an OSS (open source software) library can be used to recognize the article. Note that the recognition method does not matter as long as the article can be identified in pixel units.

ここで、2方向の2枚の画像があるため、物品の認識は、第1の方向から撮影した画像と、第2の方向から撮影した画像の2つの画像に対して行う。例えば、第1の方向でスマートフォンの正面が撮影された場合、第2の方向ではスマートフォンの側面が撮影されることとなる。スマートフォンの場合、正面が撮影された画像は、スマートフォンであることを判別しやすいが、側面が撮影された画像は、スマートフォンであることを判別しにくい。また、撮影した方向に物品の重なりがある場合も、物品を判別しにくい。このように、一方の画像にしか認識結果が得られないことがあるため、撮影した2枚の画像の認識結果は異なることが多い。 Here, since there are two images taken in two directions, recognition of the article is performed on two images, an image taken from the first direction and an image taken from the second direction. For example, if the front of the smartphone is photographed in the first direction, the side of the smartphone will be photographed in the second direction. In the case of a smartphone, it is easy to distinguish that it is a smartphone from an image taken from the front, but it is difficult to distinguish from an image taken from the side. Furthermore, it is also difficult to distinguish between articles when there are overlapping articles in the photographed direction. In this way, since a recognition result may be obtained for only one image, the recognition results for the two captured images are often different.

なお、物品の認識をするときに、正面のモデルと側面のモデルを別のモデルとして学習したモデルを用いることで、物品の正面に近いものか、側面に近いものかを認識時に同時に判別することができる。ここで、正面と側面の中間にあたる角度からの撮影である場合は、物品の正面と側面のうち、より近いほうを選ぶとよい。また、正面と側面を一緒にした学習モデルを用いて認識した結果に対して、物品の面積や事前に用意した正面と側面の見本画像とのテンプレートマッチングによる類似度合など、他の方法を用いて正面か側面かを判別しても構わない。すなわち、認識時にスマートフォン(正面)やスマートフォン(側面)といったように判別しても、正面と側面を一緒にした学習モデルを用いて認識した結果に対して、正面か側面かを判別しても構わない。 Furthermore, when recognizing an object, by using a model that has been trained as separate models for the front and side, it is possible to simultaneously determine whether the object is close to the front or the side. Can be done. Here, if the photograph is taken from an angle between the front and the side, it is better to choose the one that is closer between the front and the side of the article. In addition, based on the recognition results using a learning model that combines the front and side views, other methods are used, such as the area of the item and the degree of similarity by template matching with sample images of the front and side views prepared in advance. It does not matter whether it is the front or the side. In other words, it does not matter whether it is determined as smartphone (front) or smartphone (side) at the time of recognition, or it may be determined whether it is front or side based on the recognition result using a learning model that combines front and side. do not have.

なお、本実施例の説明では、説明をわかりやすくするため、2方向で説明をしているが、物品によっては、3方向以上からの撮影で各々異なる見え方をする物品もある。3方向以上で異なる見え方をする場合は、2方向以外の方向を追加してもよい。 Note that in the description of this embodiment, the description is given in two directions to make the explanation easy to understand, but some articles may appear differently when photographed from three or more directions. If the image looks different in three or more directions, directions other than two may be added.

また、学習モデル219にカラー画像で学習した学習モデルと、グレースケール画像で学習した学習モデルを用意しておき、物品の重なりが大きい場合、すなわち画像の濃い部分の面積が閾値よりも大きい場合などには、グレースケール画像で学習した学習モデルを使って認識をすることもできる。これにより、物品の重なりによる材質の種類を示す色の変化の影響を避けることができる。 In addition, a learning model trained using a color image and a learning model trained using a grayscale image are prepared in the learning model 219, and when there is a large overlap between articles, that is, when the area of a dark part of the image is larger than a threshold value, etc. It is also possible to perform recognition using a learning model trained on grayscale images. This makes it possible to avoid the influence of changes in color indicating the type of material due to overlapping articles.

(S304)
次に、認識結果統合プログラム214が、物品を認識するステップS303で取得した2方向の認識結果に対して、認識結果をマージまたは選択する統合処理を以下に示す第1の統合方法ないし第3の統合方法にて行う。物品認識をするステップでは、物品の認識結果と一緒に認識結果の信頼度が得られる。すなわち、2つの方向の画像のそれぞれに対して、物品の正面の学習モデルと物品の側面の学習モデルを用いて認識を試みた場合の、それぞれの認識結果と認識結果の信頼度が得られる。得られた認識結果と認識結果の信頼度を用いて統合処理が行われる。
(S304)
Next, the recognition result integration program 214 performs an integration process of merging or selecting recognition results for the two-way recognition results obtained in step S303 of recognizing the article, using the first integration method to third integration method described below. This will be done using an integrated method. In the step of recognizing the article, the reliability of the recognition result is obtained together with the recognition result of the article. That is, when recognition is attempted using a learning model for the front of the article and a learning model for the side of the article for each of images in two directions, the respective recognition results and the reliability of the recognition results are obtained. Integration processing is performed using the obtained recognition results and the reliability of the recognition results.

第1の統合方法は、2つの方向の画像の進行方向に対して同じ位置に物品の正面と物品の側面を認識できる場合に、物品を特定する統合方法である。2つの方向の一方で物品の正面を認識でき、他方で物品の側面を認識できる場合にのみ、物品を認識することとすれば、過剰検知(禁止物品でないものを禁止物品と判定すること)を抑止することができる。また、検出漏れを抑止するためには、それぞれの方向の認識結果を採用する信頼度の閾値を低くすればよい。このようにしても、2つの方向での認識に基づいて判断しているため、過剰検知は抑止することができる。このため、検出漏れを抑止しつつ、過剰検知も抑止できるという効果がある。すなわち、2方向撮影のX線検査装置では、一般的に1方向毎に物品認識が行われるが、本統合方法を用いることにより、物品の3D形状を考慮した認識ができる。 The first integration method is an integration method that identifies an article when the front of the article and the side of the article can be recognized at the same position with respect to the traveling direction of images in two directions. If an object is recognized only when the front side of the object can be recognized in one direction and the side surface of the object can be recognized in the other direction, excessive detection (determining something that is not a prohibited object as a prohibited object) can be avoided. It can be suppressed. Furthermore, in order to prevent detection failures, the reliability threshold for employing the recognition results in each direction may be lowered. Even in this case, since judgment is made based on recognition in two directions, excessive detection can be suppressed. Therefore, there is an effect that it is possible to suppress over-detection while suppressing detection omissions. That is, in an X-ray inspection apparatus that takes images in two directions, object recognition is generally performed in each direction, but by using the present integration method, recognition can be performed in consideration of the 3D shape of the object.

なお、いずれかの方向の画像に、鉛などのX線遮蔽物など、透過量が小さい部分の割合が閾値以上ある場合は、その画像には物品が写っていないと判断する。そして、もう1つの方向の信頼度の閾値を高めて、もう1つの方向からの認識結果を採用する。したがって、2つの方向の両方で物品が写っている場合には、2つの方向の認識結果を統合し、どちらかの方向にX線を遮蔽する物品などで物品が写っていない場合には、もう1つの方向の認識結果を採用する。 Note that if the proportion of a portion with a small amount of transmission, such as an X-ray shielding object such as lead, in an image in any direction is equal to or greater than a threshold value, it is determined that the image does not include an article. Then, the reliability threshold for the other direction is increased, and the recognition result from the other direction is adopted. Therefore, if an object is visible in both directions, the recognition results from the two directions are integrated, and if the object is not visible in either direction due to an object blocking X-rays, The recognition result of one direction is adopted.

第2の統合方法は、いずれかの方向の画像に物品の正面と物品の側面のいずれかが認識できる場合に、物品を特定する統合方法である。第1の統合方法のように、2つの方向の一方で物品の正面を認識でき、他方で物品の側面を認識できる場合にのみ、物品を認識するものではないため、第1の統合方法よりも過剰検知が多くなるが、禁止物品の検出漏れを防ぐことができる。例えば、図5に例を示すように、正面が写っている方向の画像ではスマートフォンと識別できるが、側面が写っている方向の画像ではスマートフォンと識別できない場合でも、スマートフォンとして認識する。そして、側面が写っている方向の画像にも、正面が写っている方向の画像と進行方向に対する同じ位置に、スマートフォンがあるという認識結果を追加する。荷物の進行方向と垂直な方向については、正確な対応付けが難しいことから、物品がある可能性がある範囲を示す。これにより、検査員が見たときに側面の画像に関しても見落としを抑止することができるという効果がある。 The second integration method is an integration method that identifies an article when either the front of the article or the side of the article can be recognized in an image in either direction. It is better than the first integration method because it does not recognize the article only when the front of the article can be recognized in one of the two directions and the side of the article can be recognized in the other. Although this increases the number of excessive detections, it is possible to prevent failure to detect prohibited items. For example, as shown in FIG. 5, even if a smartphone can be identified in an image viewed from the front, but cannot be identified as a smartphone in an image viewed from the side, it is still recognized as a smartphone. Then, the recognition result that the smartphone is in the same position in the direction of travel as the front-view image is added to the side-view image. Since it is difficult to accurately correlate the direction perpendicular to the direction of travel of the baggage, it indicates the range in which the goods may be present. This has the effect of preventing the inspector from overlooking the side image when looking at it.

第3の統合方法は、2つの方向の画像のうち、禁止物品が正面に近い状態で写っている方向の画像を選択する方法である。すなわち、2つの方向の画像のうち、物品の正面についての認識結果の信頼度が大きいほうの画像を選択する。検査員が確認するモニタが1台の場合には、表示する画像を選択しなければならない。その場合は、禁止物がより鮮明に写っている画像を提示することが好ましい。そのため、禁止物品がより多く写っている画像または禁止物品の正面が写っている画像を選択する。禁止物品の数と正面のどちらを優先して選択するかは、運用条件に依存するため、事前に設定できるようにする。これにより、検査員が確認するモニタが1台であっても、可能な限り禁止物品を確認できるという効果がある。なお、第2の統合方法と組み合わせ、選択しなかった画像のみで認識されている禁止物品がある場合、選択した画像に、禁止物品が含まれる可能性がある領域を図5の破線のように追加しても構わない。 The third integration method is a method of selecting the image in the direction in which the prohibited article is shown close to the front from among the images in the two directions. That is, of the images in the two directions, the image with the higher reliability of the recognition result for the front of the article is selected. If the inspector is checking only one monitor, he or she must select an image to display. In that case, it is preferable to present an image that more clearly shows the prohibited object. Therefore, an image that shows more prohibited items or an image that shows the front side of the prohibited item is selected. Which of the number of prohibited items and the front should be prioritized depends on the operational conditions, so it can be set in advance. This has the effect that even if the inspector only checks one monitor, he or she can check as many prohibited items as possible. In addition, in combination with the second integration method, if there is a prohibited item recognized only in the unselected image, the area where the prohibited item may be included in the selected image is indicated by the broken line in Figure 5. Feel free to add.

なお、第1の統合方法ないし第3の統合方法は、複数の統合方法を組み合わせて使用しても、単独で使用しても、第1の統合方法ないし第3の統合方法以外と組み合わせて使用しても構わない。 Note that the first to third integration methods may be used in combination with multiple integration methods or used alone, or in combination with other integration methods than the first to third integration methods. I don't mind if you do.

(S305)
次に、画面生成プログラム215が、ステップS304の認識結果統合の結果の中に禁止物品が含まれている場合は、該当の部分をハイライト表示した画像を表示部103に表示する。なお、禁止物品が含まれない場合には、撮影した画像をそのまま表示すればよい。
(S305)
Next, if the result of the recognition result integration in step S304 includes a prohibited article, the screen generation program 215 displays an image with the relevant portion highlighted on the display unit 103. Note that if the prohibited item is not included, the captured image may be displayed as is.

ステップS305では、ステップS304の認識結果統合の結果を用いて、以下に示す第1の画面生成方法ないし第3の画面生成方法にて画面の表示データを生成し、画面表示を行う。 In step S305, using the results of the recognition result integration in step S304, screen display data is generated and displayed on the screen using the first to third screen generation methods described below.

第1の画面生成方法は、図6に例を示すように、禁止物品の正面が写っている方向の画像を選んで表示する画面生成方法である。複数の物品が含まれている場合には、禁止物品としての優先度、禁止物品が認識された数など、事前に決められた条件で優先すべき方向の画像を選択して表示する。一般的に、1つの画面でAIによる認識結果を確認する場合、複数の画像を表示するよりも1つの画像を表示するほうが検査員の目視負荷を低減できる。このことから、検査の観点で確認すべき画像を表示し、その画像で認識されていない物品に関しては、ステップS304の認識結果統合の第2の統合方法を用いて、確認する画像に禁止物品が含まれる可能性がある領域が確実に表示されるようにすればよい。 The first screen generation method is a screen generation method that selects and displays an image in the direction in which the front of the prohibited article is shown, as shown in an example in FIG. If a plurality of items are included, the image in the direction to be prioritized is selected and displayed based on predetermined conditions such as the priority as a prohibited item and the number of recognized prohibited items. Generally, when checking AI recognition results on one screen, displaying one image rather than displaying multiple images can reduce the visual burden on the inspector. Therefore, when an image to be confirmed from an inspection perspective is displayed, and for articles that are not recognized in that image, the second integration method of recognition result integration in step S304 is used to display prohibited articles in the image to be confirmed. It is only necessary to ensure that areas that may be included are displayed.

第2の画面生成方法は、図7に示すように、2つの方向で撮影した画像を、1画面1方向となるように、2つの画面に表示する画面生成方法である。表示する2画面の2画像は、ステップS304の認識結果統合の第2の統合方法を用いて、一方の画面にのみアラートが表示される物品が生じないようにすることが望ましい。これにより、検査員が一方の画面のみを確認して、もう一方の画面の確認を失念することによる検査漏れを抑止することができる。 As shown in FIG. 7, the second screen generation method is a screen generation method in which images taken in two directions are displayed on two screens so that one screen corresponds to one direction. It is desirable to use the second integration method of integrating the recognition results in step S304 for the two images on the two screens to be displayed, so that there will be no products for which an alert is displayed only on one screen. Thereby, it is possible to prevent omissions in inspection due to the inspector checking only one screen and forgetting to check the other screen.

第3の画面生成方法は、図8に示すように、1つの画面の上下または左右に、ステップS302のキャリブレーションで位置合わせをした2枚の画像を認識結果と共に表示する方法である。荷物の進行方向に関しては位置が揃っている画像で検査員が禁止物品の有無を確認できるので、2つの方向の認識結果を総合して検査員が禁止物品を判断または特定することができる。 As shown in FIG. 8, the third screen generation method is a method of displaying two images, which have been aligned through the calibration in step S302, along with the recognition results on the top and bottom or left and right sides of one screen. Since the inspector can confirm the presence or absence of prohibited items using images that are aligned in the traveling direction of the baggage, the inspector can judge or specify the prohibited item by combining the recognition results in the two directions.

なお、第1の画面表示方法ないし第3の画面生成方法による画面は、装置本体101が出力する標準画面とは別に提供されても、標準画面の代わりとして提供されても構わない。また、X線画像の表示方法は、標準的な画面で用いられている荷物の撮影と同期して画面がスクロールしていく方法でも、荷物毎に画像が切り替わる方法を用いても構わない。また、物品の正面と物品の側面の両方が認識できているので、禁止物の確度が高いと判断したり、物品の正面と物品の側面の一方しか認識できていないので、禁止物品でないかもしれないが、念のために確認したほうがよいと判断したりといった認識結果に応じて、アラートの仕方を色や音などで変更することもできる。 Note that the screens according to the first screen display method to the third screen generation method may be provided separately from the standard screen output by the device main body 101, or may be provided in place of the standard screen. Furthermore, the method of displaying the X-ray image may be a method in which the screen scrolls in synchronization with the photographing of the baggage, which is used on a standard screen, or a method in which the image is switched for each baggage. Also, since both the front and side of the item can be recognized, it is determined that it is highly likely to be a prohibited item, or because only one of the front and side of the item can be recognized, it may not be a prohibited item. However, depending on the recognition result, such as deciding that it is better to check just in case, you can change the way the alert is sent by color, sound, etc.

なお、別の表示方法として、禁止物品がはっきりと写っている方向は見せないことで、検査員の緊張感を高めておき、その画像を問題なしと誤って判断した場合にはアラートとともに禁止物品がはっきりと写っている画像を提示することで、検査員の訓練に用いることもできる。 Another display method is to not show the direction in which the prohibited item is clearly shown, which increases the nervousness of the inspector, and if the inspector mistakenly judges that the image is okay, an alert will be displayed and the prohibited item will be displayed. It can also be used for training inspectors by presenting images that clearly show the image.

また、1方向のみで禁止物品として判定された場合には、方向を変更して再撮影することを検査員に促す情報を画面または音声などで出力することができる。そして、再度撮影した2方向の画像を最初に撮影した2つの方向の画像に加えた4方向の画像で判別し、少なくとも2方向の画像で物品の異なる面が認識された場合に、禁止物品と特定することができる。 Furthermore, if the item is determined to be a prohibited item in only one direction, information can be outputted on the screen or in audio to prompt the inspector to change the direction and take the image again. Then, the two-direction images taken again are determined using the four-direction images added to the first two-direction images, and if different sides of the item are recognized in at least two images, the item is classified as a prohibited item. can be specified.

(S306)
次に、検査が終了すなわち撮影が終了した場合には、撮影したX線画像を認識して検査員に提示するステップS301ないしステップS305の処理を終了し、検査が継続している場合には、ステップS301ないしステップS305の処理を継続する。
(S306)
Next, when the examination is completed, that is, when the imaging is completed, the processes of steps S301 to S305 of recognizing the photographed X-ray image and presenting it to the inspector are completed, and when the examination is continuing, The processing from step S301 to step S305 is continued.

(S307)
次に、運用中に蓄積されたX線画像を使用して、学習モデルを生成または更新するかどうかの指示を入力I/Fに接続されたマウスやキーボードなどから受け、生成や更新をしない場合には全体の処理を終了する。
(S307)
Next, if you receive an instruction from the mouse or keyboard connected to the input I/F as to whether or not to generate or update a learning model using the X-ray images accumulated during operation, but do not generate or update the learning model. completes the entire process.

(S308)
次に、物品学習プログラム217で、X線画像データ218を読出し、物品の学習を行い生成した学習モデルを、学習モデル219に登録する。
(S308)
Next, the article learning program 217 reads the X-ray image data 218, performs article learning, and registers the generated learning model in the learning model 219.

物品の学習は、物品の認識をするステップと同様に、OSS(オープンソースソフトウェア)のライブラリとして広く知られている「Fully Convolutional Instance-aware Semantic Segmentation」や「Mask R-CNN」などのライブラリを用いることができる。 Similar to the step of recognizing objects, object learning uses libraries such as "Fully Convolutional Instance-aware Semantic Segmentation" and "Mask R-CNN," which are widely known as OSS (open source software) libraries. be able to.

なお、物品の学習をする前には、物品の輪郭情報と物品を識別するための正解情報が必要となるが、本実施例では、正解付けの方法は限定しない。人手で物品の領域を囲み、物品名を選択するなど汎用の方法を用いればよい。 Note that before learning about an article, contour information of the article and correct answer information for identifying the article are required, but in this embodiment, the method of assigning the correct answer is not limited. A general-purpose method may be used, such as manually enclosing the area of the item and selecting the item name.

なお、ステップS303で認識された結果を物品の候補領域として提示し、人手による正解付けの作業を効率化することも可能である。例えば、1つの方向しか物品が判別できなかった場合に、もう一方の同じ物品が写っている可能性がある箇所を、正解付けをする作業者に提示することで、正解付けの漏れを防止することができる。学習した学習モデルは、学習モデル219に登録し、処理を終了する。 Note that it is also possible to present the result recognized in step S303 as a candidate area of the article to improve the efficiency of the manual assignment of correct answers. For example, if an item can only be identified in one direction, the operator who assigns the correct answer can be shown the location where the same item may be shown in the other direction, thereby preventing omissions in assigning the correct answer. be able to. The learned learning model is registered in the learning model 219, and the process ends.

本実施例によれば、2つの方向で撮影した画像の認識結果を統合することで、物品の認識精度を向上しつつ、検査員に表示する画像は物品が見やすい方向の画像を提示することができるので、検査漏れを抑止しつつ、検査効率を向上できるという効果がある。また、1画面の表示であっても、必要な情報を統合して表示できるので、表示部の設置スペースの削減や装置台数の削減といった効果がある。 According to this embodiment, by integrating the recognition results of images taken in two directions, it is possible to improve the recognition accuracy of the article while presenting the image displayed to the inspector in a direction in which the article is easily seen. This has the effect of improving inspection efficiency while preventing inspection omissions. Further, even if the display is on one screen, necessary information can be displayed in an integrated manner, which has the effect of reducing the installation space of the display unit and the number of devices.

なお、本実施例では、主に2つの方向で撮影する例を示したが、複数の方向で撮影するものであればよい。
また、本実施例では、X線を用いて物品を撮影する例を示したが、物品を透過して撮影できる電磁波であれば、例えば、テラヘルツ波など他の電磁波を用いても構わない。
例えば、X線を電磁波に変えた次のような構成でも、複数の方向からの撮影が可能な電磁波検査装置において、禁止物品の認識精度を向上させることができる電磁波画像処理装置および電磁波画像処理方法を提供することができるという同様の効果を奏する。
物品を複数の方向から撮影した複数の電磁波画像を取得する電磁波画像取得部と、複数の電磁波画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、複数の電磁波画像に対する認識結果を統合する認識結果統合部と、統合された認識結果をもとに、画面情報を生成する画面生成部と、有する電磁波画像処理装置。
電磁波画像処理装置における電磁波画像処理方法であって、物品を複数の方向から撮影した複数の電磁波画像を取得する電磁波画像取得ステップと、複数の電磁波画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、複数の電磁波画像に対する認識結果を統合する認識結果統合ステップと、統合された認識結果をもとに、画面情報を生成する画面生成ステップと、を有する電磁波画像処理方法。
また、本実施例では、X線装置本体101と、X線画像処理装置102とが別体である例を示したが、X線画像処理装置は、X線装置本体に内蔵されてもよい。
Although this embodiment shows an example in which images are taken mainly in two directions, it is sufficient if images are taken in a plurality of directions.
Further, in this embodiment, an example was shown in which the article is photographed using X-rays, but other electromagnetic waves such as terahertz waves may be used as long as they can penetrate the article and photograph the article.
For example, an electromagnetic wave image processing device and an electromagnetic wave image processing method that can improve the accuracy of recognizing prohibited items in an electromagnetic wave inspection device that can take images from multiple directions even with the following configuration in which X-rays are converted to electromagnetic waves. It has the same effect of being able to provide the following.
An electromagnetic wave image acquisition unit that acquires a plurality of electromagnetic wave images of an article taken from a plurality of directions, and an article recognition system that recognizes the article using a learning model that has learned the first side of the article from the plurality of electromagnetic wave images. An electromagnetic wave image processing device comprising: a recognition result integrating unit that integrates recognition results for a plurality of electromagnetic wave images; and a screen generation unit that generates screen information based on the integrated recognition results.
An electromagnetic wave image processing method in an electromagnetic wave image processing device, the method comprising an electromagnetic wave image acquisition step of acquiring a plurality of electromagnetic wave images taken from a plurality of directions of an article, and learning a first side of the article from the plurality of electromagnetic wave images. an article recognition step for recognizing an article using the learned learning model; a recognition result integration step for integrating recognition results for a plurality of electromagnetic wave images; and a screen generation step for generating screen information based on the integrated recognition results. An electromagnetic wave image processing method comprising:
Further, in this embodiment, an example is shown in which the X-ray apparatus main body 101 and the X-ray image processing apparatus 102 are separate bodies, but the X-ray image processing apparatus may be built in the X-ray apparatus main body.

また、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Further, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to add, delete, or replace some of the configurations of the embodiments with other configurations.

100:X線検査装置
101:装置本体
102:X線画像処理装置
103:表示部
104:入力部
201:CPU
202:主メモリ
205:通信部
210:記憶部
211:OS
212:X線画像取得プログラム
213:物品認識プログラム
214:認識結果統合プログラム
215:画面生成プログラム
216:キャリブレーションプログラム
217:物品学習プログラム
218:X線画像データ
219:学習モデル
100: X-ray inspection device 101: Device main body 102: X-ray image processing device 103: Display section 104: Input section 201: CPU
202: Main memory 205: Communication section 210: Storage section 211: OS
212: X-ray image acquisition program 213: Article recognition program 214: Recognition result integration program 215: Screen generation program 216: Calibration program 217: Article learning program 218: X-ray image data 219: Learning model

Claims (12)

物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、
前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、
前記複数のX線画像に対する認識結果を統合する認識結果統合部と、
統合された認識結果をもとに、画面情報を生成する画面生成部と、
を有し、
前記認識結果統合部は、前記複数のX線画像から、前記物品の第1の面についての認識結果の信頼度が最も大きいX線画像を選択する、
X線画像処理装置。
an X-ray image acquisition unit that acquires a plurality of X-ray images of the article taken from a plurality of directions;
an article recognition unit that recognizes the article using a learning model that has learned a first surface of the article with respect to the plurality of X-ray images;
a recognition result integration unit that integrates recognition results for the plurality of X-ray images;
a screen generation unit that generates screen information based on the integrated recognition results;
has
The recognition result integration unit selects an X-ray image with the highest reliability of the recognition result for the first surface of the article from among the plurality of X-ray images.
X-ray image processing device.
請求項1に記載のX線画像処理装置であって、
前記物品認識部は、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、
X線画像処理装置。
The X-ray image processing device according to claim 1,
The article recognition unit recognizes an article using a learning model that has learned a first side of the article and a learning model that has learned a second side that is different from the first side of the article.
X-ray image processing device.
物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、
前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、
前記複数のX線画像に対する認識結果を統合する認識結果統合部と、
統合された認識結果をもとに、画面情報を生成する画面生成部と、
を有し、
前記物品認識部は、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識し、
前記認識結果統合部は、前記複数のX線画像の1つに、前記物品の第1の面を認識でき、前記複数のX線画像の他の1つに、前記物品の第2の面を認識できる場合に、前記物品を認識する、
X線画像処理装置。
an X-ray image acquisition unit that acquires a plurality of X-ray images of the article taken from a plurality of directions;
an article recognition unit that recognizes the article using a learning model that has learned a first surface of the article with respect to the plurality of X-ray images;
a recognition result integration unit that integrates recognition results for the plurality of X-ray images;
a screen generation unit that generates screen information based on the integrated recognition results;
has
The article recognition unit recognizes an article using a learning model that has learned a first side of the article and a learning model that has learned a second side different from the first side of the article,
The recognition result integrating unit is capable of recognizing a first surface of the article in one of the plurality of X-ray images, and recognizing a second surface of the article in another one of the plurality of X-ray images. recognizing the article if it is recognizable;
X-ray image processing device.
物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、
前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、
前記複数のX線画像に対する認識結果を統合する認識結果統合部と、
統合された認識結果をもとに、画面情報を生成する画面生成部と、
を有し、
前記画面生成部は、前記複数のX線画像のうち、一部のX線画像に対してのみ危険物が認識されている場合、残りのX線画像の前記危険物に対応する部分に、危険物が含まれる可能性がある領域を示す表示を追加する、
X線画像処理装置。
an X-ray image acquisition unit that acquires a plurality of X-ray images of the article taken from a plurality of directions;
an article recognition unit that recognizes the article using a learning model that has learned a first surface of the article with respect to the plurality of X-ray images;
a recognition result integration unit that integrates recognition results for the plurality of X-ray images;
a screen generation unit that generates screen information based on the integrated recognition results;
has
When a dangerous object is recognized only in some of the X-ray images among the plurality of Add indications of areas that may contain objects,
X-ray image processing device.
請求項4に記載のX線画像処理装置であって、 The X-ray image processing device according to claim 4,
前記物品認識部は、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、 The article recognition unit recognizes an article using a learning model that has learned a first side of the article and a learning model that has learned a second side that is different from the first side of the article.
X線画像処理装置。 X-ray image processing device.
請求項1ないし請求項のいずれか1項に記載のX線画像処理装置であって、
前記複数のX線画像のサイズまたは表示位置を調整するキャリブレーション部を有する、
X線画像処理装置。
The X-ray image processing device according to any one of claims 1 to 5 ,
a calibration unit that adjusts the size or display position of the plurality of X-ray images;
X-ray image processing device.
X線画像処理装置におけるX線画像処理方法であって、
物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得ステップと、
前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、
前記複数のX線画像に対する認識結果を統合する認識結果統合ステップと、
統合された認識結果をもとに、画面情報を生成する画面生成ステップと、
を有し、
前記認識結果統合ステップは、前記複数のX線画像から、前記物品の第1の面についての認識結果の信頼度が最も大きいX線画像を選択する、
X線画像処理方法。
An X-ray image processing method in an X-ray image processing device, comprising:
an X-ray image acquisition step of acquiring a plurality of X-ray images of the article taken from a plurality of directions;
an article recognition step of recognizing the article using a learning model that has learned a first surface of the article with respect to the plurality of X-ray images;
a recognition result integration step of integrating recognition results for the plurality of X-ray images;
a screen generation step for generating screen information based on the integrated recognition results;
has
The recognition result integration step selects an X-ray image with the highest reliability of the recognition result for the first surface of the article from the plurality of X-ray images.
X-ray image processing method.
請求項に記載のX線画像処理方法であって、
前記物品認識ステップは、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、
X線画像処理方法。
The X-ray image processing method according to claim 7 ,
The article recognition step recognizes the article using a learning model that has learned a first side of the article and a learning model that has learned a second side that is different from the first side of the article.
X-ray image processing method.
X線画像処理装置におけるX線画像処理方法であって、
物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得ステップと、
前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、
前記複数のX線画像に対する認識結果を統合する認識結果統合ステップと、
統合された認識結果をもとに、画面情報を生成する画面生成ステップと、
を有し、
前記物品認識ステップは、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識し、
前記認識結果統合ステップは、前記複数のX線画像の1つに、前記物品の第1の面を認識でき、前記複数のX線画像の他の1つに、前記物品の第2の面を認識できる場合に、前記物品を認識する、
X線画像処理方法。
An X-ray image processing method in an X-ray image processing device, comprising:
an X-ray image acquisition step of acquiring a plurality of X-ray images of the article taken from a plurality of directions;
an article recognition step of recognizing the article using a learning model that has learned a first surface of the article with respect to the plurality of X-ray images;
a recognition result integration step of integrating recognition results for the plurality of X-ray images;
a screen generation step for generating screen information based on the integrated recognition results;
has
The article recognition step recognizes an article using a learning model that has learned a first side of the article and a learning model that has learned a second side that is different from the first side of the article,
In the recognition result integration step, a first surface of the article can be recognized in one of the plurality of X-ray images, and a second surface of the article can be recognized in another one of the plurality of X-ray images. recognizing the article if it is recognizable;
X-ray image processing method.
X線画像処理装置におけるX線画像処理方法であって、
物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得ステップと、
前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、
前記複数のX線画像に対する認識結果を統合する認識結果統合ステップと、
統合された認識結果をもとに、画面情報を生成する画面生成ステップと、
を有し、
前記画面生成ステップは、前記複数のX線画像のうち、一部のX線画像に対してのみ危険物が認識されている場合、残りのX線画像の前記危険物に対応する部分に、危険物が含まれる可能性がある領域を示す表示を追加する、
X線画像処理方法。
An X-ray image processing method in an X-ray image processing device, comprising:
an X-ray image acquisition step of acquiring a plurality of X-ray images of the article taken from a plurality of directions;
an article recognition step of recognizing the article using a learning model that has learned a first surface of the article with respect to the plurality of X-ray images;
a recognition result integration step of integrating recognition results for the plurality of X-ray images;
a screen generation step for generating screen information based on the integrated recognition results;
has
In the screen generation step, when a dangerous object is recognized only in some of the X-ray images among the plurality of X-ray images, a dangerous object is added to a portion corresponding to the dangerous object in the remaining Add indications of areas that may contain objects,
X-ray image processing method.
請求項10に記載のX線画像処理方法であって、 The X-ray image processing method according to claim 10,
前記物品認識ステップは、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、 The article recognition step recognizes the article using a learning model that has learned a first side of the article and a learning model that has learned a second side that is different from the first side of the article.
X線画像処理方法。 X-ray image processing method.
請求項ないし請求項11のいずれか1つに記載のX線画像処理方法であって、
前記複数のX線画像のサイズまたは表示位置を調整するキャリブレーションステップを有する、
X線画像処理方法。
The X-ray image processing method according to any one of claims 7 to 11 ,
a calibration step of adjusting the size or display position of the plurality of X-ray images;
X-ray image processing method.
JP2020115632A 2020-07-03 2020-07-03 X-ray image processing device and X-ray image processing method Active JP7422023B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020115632A JP7422023B2 (en) 2020-07-03 2020-07-03 X-ray image processing device and X-ray image processing method
CN202110137234.0A CN113960687A (en) 2020-07-03 2021-02-01 X-ray image processing device and X-ray image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020115632A JP7422023B2 (en) 2020-07-03 2020-07-03 X-ray image processing device and X-ray image processing method

Publications (2)

Publication Number Publication Date
JP2022013217A JP2022013217A (en) 2022-01-18
JP7422023B2 true JP7422023B2 (en) 2024-01-25

Family

ID=79459397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020115632A Active JP7422023B2 (en) 2020-07-03 2020-07-03 X-ray image processing device and X-ray image processing method

Country Status (2)

Country Link
JP (1) JP7422023B2 (en)
CN (1) CN113960687A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117455956A (en) * 2023-12-22 2024-01-26 天津众合智控科技有限公司 AI technology-based man-package association tracking method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050058242A1 (en) 2003-09-15 2005-03-17 Peschmann Kristian R. Methods and systems for the rapid detection of concealed objects
US20080014643A1 (en) 2006-07-12 2008-01-17 Paul Bjorkholm Dual angle radiation scanning of objects
JP2017509891A (en) 2014-12-17 2017-04-06 同方威視技術股▲分▼有限公司 Linked multi-viewpoint inspection system and method of use thereof
JP2018112550A (en) 2017-01-12 2018-07-19 清華大学Tsinghua University Inspection apparatus and method for detecting firearms
WO2018217738A1 (en) 2017-05-22 2018-11-29 L3 Security & Detection Systems, Inc. Systems and methods for image processing

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05133909A (en) * 1991-11-15 1993-05-28 Toshiba Corp Scattered radiation inspecting apparatus
EP0579848B1 (en) * 1992-07-20 1995-10-04 Heimann Systems GmbH Testing system for objects
JP3435648B2 (en) * 1997-03-25 2003-08-11 株式会社日立メディコ X-ray inspection equipment
CN101387610B (en) * 2008-10-14 2011-02-09 重庆大学 Safety inspection method utilizing double source double energy straight-line type safety inspection CT apparatus
CN101509880A (en) * 2009-03-25 2009-08-19 公安部第一研究所 Safety check system of manifold effect detection fusing technology applying X ray
CN104345350A (en) * 2013-07-23 2015-02-11 清华大学 Human body safety check method and human body safety check system
CN104165896B (en) * 2014-08-18 2017-03-22 公安部第一研究所 Liquid goods safety inspection method and device
CN107871122A (en) * 2017-11-14 2018-04-03 深圳码隆科技有限公司 Safety check detection method, device, system and electronic equipment
CN108802840B (en) * 2018-05-31 2020-01-24 北京迈格斯智能科技有限公司 Method and device for automatically identifying object based on artificial intelligence deep learning
CN108875805A (en) * 2018-05-31 2018-11-23 北京迈格斯智能科技有限公司 The method for improving detection accuracy using detection identification integration based on deep learning
CN208902891U (en) * 2018-11-02 2019-05-24 北京中集博源机电设备有限公司 A kind of adaptive logistics delivery line double-visual angle intelligence safety check apparatus
CN110133739B (en) * 2019-04-04 2021-07-27 南京全设智能科技有限公司 X-ray security check equipment and automatic image recognizing method thereof
CN110133740A (en) * 2019-04-29 2019-08-16 公安部第一研究所 A kind of double-visual angle intelligence X-ray rays safety detection apparatus
CN110850493A (en) * 2019-10-24 2020-02-28 武汉艾崴科技有限公司 Linear array high-speed security inspection machine for visual image judgment of scanning imaging machine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050058242A1 (en) 2003-09-15 2005-03-17 Peschmann Kristian R. Methods and systems for the rapid detection of concealed objects
US20080014643A1 (en) 2006-07-12 2008-01-17 Paul Bjorkholm Dual angle radiation scanning of objects
JP2017509891A (en) 2014-12-17 2017-04-06 同方威視技術股▲分▼有限公司 Linked multi-viewpoint inspection system and method of use thereof
JP2018112550A (en) 2017-01-12 2018-07-19 清華大学Tsinghua University Inspection apparatus and method for detecting firearms
WO2018217738A1 (en) 2017-05-22 2018-11-29 L3 Security & Detection Systems, Inc. Systems and methods for image processing

Also Published As

Publication number Publication date
CN113960687A (en) 2022-01-21
JP2022013217A (en) 2022-01-18

Similar Documents

Publication Publication Date Title
CN106485268B (en) Image identification method and device
Rogers et al. Automated x-ray image analysis for cargo security: Critical review and future promise
US9552521B2 (en) Human body security inspection method and system
US10163200B2 (en) Detection of items in an object
US20180196158A1 (en) Inspection devices and methods for detecting a firearm
JP2023039957A (en) Food inspection assisting system, food inspection assisting apparatus and computer program
CA3109136A1 (en) Systems and methods for image processing
USH2110H1 (en) Automated security scanning process
US10436932B2 (en) Inspection systems for quarantine and methods thereof
US11182637B2 (en) X-ray image processing system and method, and program therefor
US20190156139A1 (en) Inspection methods and systems
KR102387529B1 (en) inspection device
US8090150B2 (en) Method and system for identifying a containment vessel
JP5591849B2 (en) Foreign matter inspection device, foreign matter inspection program, foreign matter inspection method
JP7422023B2 (en) X-ray image processing device and X-ray image processing method
JP2018004363A (en) X-ray automatic determination device and x-ray automatic determination method
JP7295568B2 (en) Inspection device and program
Frosio et al. Optimized acquisition geometry for X-ray inspection
KR102325017B1 (en) Method for identifying cargo based on deep-learning and apparatus performing the same
US11335083B2 (en) Object identification device and object identification method
CN114170318A (en) Image processing method, apparatus, system, medium, and electronic device
WO2024043190A1 (en) Inspection device, inspection system, and inspection method
CN112730468B (en) Article detection device and method for detecting article
CN212180649U (en) Paste appearance defect detection equipment
US20230016147A1 (en) System and method for training an artificial intelligence (ai) classifier of scanned items

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240115

R150 Certificate of patent or registration of utility model

Ref document number: 7422023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150