JP2018156586A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2018156586A
JP2018156586A JP2017054894A JP2017054894A JP2018156586A JP 2018156586 A JP2018156586 A JP 2018156586A JP 2017054894 A JP2017054894 A JP 2017054894A JP 2017054894 A JP2017054894 A JP 2017054894A JP 2018156586 A JP2018156586 A JP 2018156586A
Authority
JP
Japan
Prior art keywords
person
image
detected
unit
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017054894A
Other languages
Japanese (ja)
Inventor
航太 齊藤
Kota Saito
航太 齊藤
佑典 田副
Yusuke Tazoe
佑典 田副
廣大 齊藤
Hiroo Saito
廣大 齊藤
助川 寛
Hiroshi Sukegawa
寛 助川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017054894A priority Critical patent/JP2018156586A/en
Publication of JP2018156586A publication Critical patent/JP2018156586A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring system for detecting an object possessed by a person to be detected from a terahertz image without stopping the person to be detected at a predetermined position.SOLUTION: A monitoring system includes a first image acquisition unit (a terahertz image acquisition unit 101), a second image acquisition unit (a visualized image acquisition unit 102), a person detection unit 103, an object detection unit 105, an object classification unit 106, and a display unit 108. The first image acquisition unit receives a terahertz wave emitted from a person passing through a predetermined position and acquires a first image in which the predetermined position is imaged based on the reception result of the terahertz wave. The second image acquisition unit receives light reflected at the predetermined position and acquires a second image in which the predetermined position is imaged based on the light reception result of the light. The person detection unit detects a person from the second image. The object detection unit detects an object possessed by the person from a first position corresponding to the detected person in the first image.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、監視システムに関する。   Embodiments described herein relate generally to a monitoring system.

建物への人物の入退出を管理するゲートやエスカレータの出口等の所定位置で人物を停止させ、当該人物にテラヘルツ波を照射し、当該人物で反射したテラヘルツ波の受光結果に基づいて、当該人物が所持する物体を検知する技術が開発されている。また、所定位置で人物を止めて、ハンドヘルド可能な装置を用い、電磁誘導を利用して物体を検知する技術が開発されている。   The person is stopped at a predetermined position such as a gate that manages the entrance and exit of the person to the building and the exit of the escalator, the person is irradiated with the terahertz wave, and the person is reflected based on the result of receiving the terahertz wave reflected by the person. Technology has been developed to detect objects held by. In addition, a technique has been developed in which a person is stopped at a predetermined position and an object is detected using electromagnetic induction using a handheld device.

特許第4751332号公報Japanese Patent No. 4751332 特許第5072972号公報Japanese Patent No. 5072972 特表2009−519436号公報Special table 2009-519436

しかしながら、上記の技術では、所定位置で人物を一旦止めて、当該人物が所持する物体を検知しなければならず、当該所定位置の人物の通過が滞る場合がある。   However, in the above technique, it is necessary to temporarily stop a person at a predetermined position and detect an object possessed by the person, and the passage of the person at the predetermined position may be delayed.

実施形態の監視システムは、第1画像取得部と、第2画像取得部と、人物検出部と、物体検出部と、分類部と、表示部と、を備える。第1画像取得部は、所定位置を通過する人物から放出されるテラヘルツ波を受信し、当該テラヘルツ波の受信結果に基づいて、所定位置を画像化した第1画像を取得する。第2画像取得部は、所定位置で反射した光を受光し、当該光の受光結果に基づいて、所定位置を画像化した第2画像を取得する。人物検出部は、第2画像から、人物を検出する。物体検出部は、第1画像における当該検出した人物に対応する第1位置から、人物が所持する物体を検出する。分類部は、検出した物体が所定物体であるか否かを判断する分類処理を実行する。表示部は、分類処理の実行結果、および当該実行結果に基づく検出した物体の警報レベルを表示する。   The monitoring system of the embodiment includes a first image acquisition unit, a second image acquisition unit, a person detection unit, an object detection unit, a classification unit, and a display unit. The first image acquisition unit receives a terahertz wave emitted from a person passing through a predetermined position, and acquires a first image obtained by imaging the predetermined position based on a reception result of the terahertz wave. The second image acquisition unit receives the light reflected at the predetermined position, and acquires a second image obtained by imaging the predetermined position based on the light reception result of the light. The person detection unit detects a person from the second image. The object detection unit detects an object possessed by the person from a first position corresponding to the detected person in the first image. The classification unit executes a classification process for determining whether or not the detected object is a predetermined object. The display unit displays the execution result of the classification process and the alarm level of the detected object based on the execution result.

図1は、第1の実施形態にかかる監視システムの構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a monitoring system according to the first embodiment. 図2は、第1の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。FIG. 2 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a detection target person in the monitoring system according to the first embodiment. 図3は、第1の実施形態にかかる監視システムにおいて警報レベルを表示する処理の流れの一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of a flow of processing for displaying an alarm level in the monitoring system according to the first embodiment. 図4は、第1の実施形態にかかる監視システムによる警報レベルの表示例を示す図である。FIG. 4 is a diagram illustrating a display example of an alarm level by the monitoring system according to the first embodiment. 図5は、第2の実施形態にかかる監視システムの構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of a configuration of a monitoring system according to the second embodiment. 図6は、第2の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a person to be detected in the monitoring system according to the second embodiment. 図7は、第3の実施形態にかかる監視システムの構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a configuration of a monitoring system according to the third embodiment. 図8は、第3の実施形態にかかる監視システムのテラヘルツ画像取得部および可視化画像取得部の配置位置の一例を上方から見た図である。FIG. 8 is a view of an example of the arrangement positions of the terahertz image acquisition unit and the visualized image acquisition unit of the monitoring system according to the third embodiment as viewed from above. 図9は、第3の実施形態にかかる監視システムのテラヘルツ画像取得部および可視化画像取得部の配置位置の一例を側方から見た図である。FIG. 9 is a side view of an example of the arrangement positions of the terahertz image acquisition unit and the visualization image acquisition unit of the monitoring system according to the third embodiment. 図10は、第3の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a detection target person in the monitoring system according to the third embodiment. 図11は、第3の実施形態にかかる監視システムにおける警報レベルを表示する処理の流れの一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a flow of processing for displaying an alarm level in the monitoring system according to the third embodiment. 図12は、第3の実施形態にかかる監視システムによる警報レベルの表示例を示す図である。FIG. 12 is a diagram illustrating a display example of an alarm level by the monitoring system according to the third embodiment. 図13は、第3の実施形態にかかる監視システムによる警報レベルの表示例を示す図である。FIG. 13 is a diagram illustrating a display example of an alarm level by the monitoring system according to the third embodiment.

以下、添付の図面を用いて、本実施形態にかかる監視システムについて説明する。   Hereinafter, the monitoring system according to the present embodiment will be described with reference to the accompanying drawings.

(第1の実施形態)
図1は、第1の実施形態にかかる監視システムの構成の一例を示す図である。図1に示すように、本実施形態にかかる監視システムは、テラヘルツ画像取得部101と、可視化画像取得部102と、人物検出部103と、画像処理部104と、物体検出部105と、物体分類部106と、検出物体データベース107と、表示部108と、を備える。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of a monitoring system according to the first embodiment. As shown in FIG. 1, the monitoring system according to the present embodiment includes a terahertz image acquisition unit 101, a visualized image acquisition unit 102, a person detection unit 103, an image processing unit 104, an object detection unit 105, and an object classification. Unit 106, detected object database 107, and display unit 108.

テラヘルツ画像取得部101(第1画像取得部の一例)は、建物への人物の入退出を管理するゲートやエスカレータの出口など、所定位置を通過する人物(以下、検出対象人物と言う)から放出されるテラヘルツ波を受信するセンサを有する。そして、テラヘルツ画像取得部101は、テラヘルツ波の受信結果に基づいて、所定位置を画像化した画像(以下、テラヘルツ画像と言う。第1画像の一例)を取得する。これにより、テラヘルツ画像取得部101がテラヘルツ波を検出対象人物に向けて照射する必要が無くなるので、監視システムを構成する部品の数を減らすことができる。   The terahertz image acquisition unit 101 (an example of a first image acquisition unit) emits from a person passing through a predetermined position (hereinafter referred to as a detection target person) such as a gate that manages entry / exit of a person to / from a building and an exit of an escalator. And a sensor for receiving terahertz waves. Then, the terahertz image acquisition unit 101 acquires an image obtained by imaging a predetermined position (hereinafter referred to as a terahertz image, an example of a first image) based on the reception result of the terahertz wave. This eliminates the need for the terahertz image acquisition unit 101 to irradiate the detection target person with the terahertz wave, thereby reducing the number of components constituting the monitoring system.

本実施形態では、テラヘルツ画像取得部101は、検出対象人物から放出されるテラヘルツ波を受信するパッシブ方式を用いているが、検出対象人物に対してテラヘルツ波を照射しかつ検出対象人物で反射したテラヘルツ波を受信するアクティブ方式を用いることも可能である。また、本実施形態では、監視システムは、テラヘルツ画像取得部101の設置位置の外気温を、人物から放出されるテラヘルツ波の受信精度が高くなる所定の温度範囲(例えば、20℃前後)に保つ空調設備(例えば、冷却素子)を有していても良い。   In the present embodiment, the terahertz image acquisition unit 101 uses a passive system that receives a terahertz wave emitted from a detection target person. However, the terahertz wave is irradiated to the detection target person and reflected by the detection target person. It is also possible to use an active system that receives terahertz waves. In this embodiment, the monitoring system keeps the outside air temperature at the installation position of the terahertz image acquisition unit 101 within a predetermined temperature range (for example, around 20 ° C.) in which the reception accuracy of the terahertz wave emitted from the person is high. You may have an air-conditioning installation (for example, cooling element).

可視化画像取得部102(第2画像取得部の一例)は、カメラ等で構成され、所定位置で反射した光を受光し、当該光の受光結果に基づいて、所定位置を画像化した画像(以下、可視化画像と言う。第2画像の一例)を取得する。人物検出部103は、可視化画像から、検出対象人物を検出する。   The visualized image acquisition unit 102 (an example of a second image acquisition unit) is configured by a camera or the like, receives light reflected at a predetermined position, and images an image of the predetermined position based on the light reception result (hereinafter referred to as “light”). This is called a visualized image, which is an example of a second image. The person detection unit 103 detects a detection target person from the visualized image.

画像処理部104は、テラヘルツ画像から、検出対象人物が所持する物体が検出し易くなるように、テラヘルツ画像に対して、フィルタリング処理等の画像処理を実行する。   The image processing unit 104 performs image processing such as filtering processing on the terahertz image so that an object held by the detection target person can be easily detected from the terahertz image.

物体検出部105は、画像処理を実行したテラヘルツ画像における、検出した検出対象人物に対応する位置(以下、人物位置と言う。第1位置の一例)から、検出対象人物が所持する物体を検出する。これにより、検出対象人物が動いていても、テラヘルツ画像における、検出対象人物の位置を高精度に特定できるので、所定位置において検出対象人物を止めることなく、テラヘルツ画像から、検出対象人物が所持する物体を検出できる。   The object detection unit 105 detects an object possessed by the detection target person from a position corresponding to the detected detection target person (hereinafter referred to as a person position; an example of a first position) in the terahertz image subjected to image processing. . As a result, even if the detection target person is moving, the position of the detection target person in the terahertz image can be specified with high accuracy, so the detection target person possesses from the terahertz image without stopping the detection target person at the predetermined position. An object can be detected.

また、画像処理部104は、検出対象人物が所持する比較的小さい物体(例えば、折り畳みナイフ)等が検出し易くなるように、テラヘルツ画像に対して、画像処理を実行する。これにより、検出対象人物が所持する比較的小さい物体も検出することができる。   The image processing unit 104 performs image processing on the terahertz image so that a relatively small object (for example, a folding knife) possessed by the person to be detected is easily detected. Thereby, a relatively small object possessed by the person to be detected can also be detected.

本実施形態では、物体検出部105は、画像処理を実行したテラヘルツ画像から、物体を検出しているが、これに限定するものではなく、画像処理を実行していないテラヘルツ画像(言い換えると、テラヘルツ画像取得部101により取得されたそのままのテラヘルツ画像)から、物体を検出しても良い。   In the present embodiment, the object detection unit 105 detects an object from a terahertz image that has been subjected to image processing. However, the present invention is not limited to this, and a terahertz image that has not been subjected to image processing (in other words, a terahertz image). You may detect an object from the terahertz image as it was acquired by the image acquisition part 101).

物体分類部106(分類部の一例)は、検出した物体が所定物体であるか否かを判断する分類処理を実行する。ここで、所定物体は、所定位置の通過が禁止されている物体である。検出物体データベース107は、所定物体の分類毎の画像(以下、モデル画像と言う)を記憶する。本実施形態では、物体分類部106は、検出した物体が、検出物体データベース107のモデル画像と類似または一致した場合に、当該検出した物体が所定物体であると判断する。また、本実施形態では、物体分類部106は、検出した物体と類似または一致したモデル画像の分類を、検出した物体の分類として特定する。   The object classification unit 106 (an example of a classification unit) executes a classification process for determining whether or not the detected object is a predetermined object. Here, the predetermined object is an object that is prohibited from passing through a predetermined position. The detected object database 107 stores images (hereinafter referred to as model images) for each predetermined object classification. In the present embodiment, the object classification unit 106 determines that the detected object is a predetermined object when the detected object is similar to or matches the model image in the detected object database 107. In the present embodiment, the object classification unit 106 identifies the classification of the model image that is similar or coincident with the detected object as the classification of the detected object.

表示部108は、物体分類部106による分類処理の実行結果、および当該実行結果に基づく、検出した物体の警報レベルを表示する。本実施形態では、表示部108は、検出した物体が所定物体であると判断した場合、検出した物体の分類に応じて、警報レベルを変更する。また、本実施形態では、表示部108は、分類処理の実行結果および警報レベルに加えて、テラヘルツ画像および可視化画像を表示する。   The display unit 108 displays the execution result of the classification process by the object classification unit 106 and the alarm level of the detected object based on the execution result. In the present embodiment, when the display unit 108 determines that the detected object is a predetermined object, the display unit 108 changes the alarm level according to the classification of the detected object. In the present embodiment, the display unit 108 displays the terahertz image and the visualized image in addition to the classification process execution result and the alarm level.

次に、図2を用いて、本実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例について説明する。図2は、第1の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。   Next, with reference to FIG. 2, an example of the flow of the object classification process carried by the person to be detected in the monitoring system according to the present embodiment will be described. FIG. 2 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a detection target person in the monitoring system according to the first embodiment.

テラヘルツ画像取得部101は、予め設定された周期で、検出対象人物から放出されるテラヘルツ波を受信し、当該テラヘルツ波の受信結果に基づいて、テラヘルツ画像を取得する(ステップS201)。可視化画像取得部102は、テラヘルツ画像取得部101によるテラヘルツ波の受信に同期して、検出対象人物で反射した光を受光し、当該光の受光結果に基づいて、可視化画像を取得する(ステップS201)。   The terahertz image acquisition unit 101 receives a terahertz wave emitted from the detection target person at a preset cycle, and acquires a terahertz image based on the reception result of the terahertz wave (step S201). The visualized image acquisition unit 102 receives light reflected by the detection target person in synchronization with reception of the terahertz wave by the terahertz image acquisition unit 101, and acquires a visualized image based on the light reception result of the light (step S201). ).

画像処理部104は、テラヘルツ画像に対して、平滑化処理、二値化処理、膨張収縮処理等の画像処理を実行して、テラヘルツ画像を、当該テラヘルツ画像に含まれる物体を強調した画像に変換する(ステップS202)。人物検出部103は、可視化画像から、検出対象人物を検出する(ステップS203)。本実施形態では、人物検出部103は、複数の人物の画像それぞれにおける矩形領域の画像を平均化した画像をテンプレート(以下、人物テンプレートと言う)として作成する。そして、人物検出部103は、可視化画像内において、人物テンプレートを平行移動、回転、または拡大縮小しながら、当該可視化画像において人物テンプレートとの輝度値の差分が最も小さい位置を、検出対象人物として検出する。   The image processing unit 104 performs image processing such as smoothing processing, binarization processing, and expansion / contraction processing on the terahertz image, and converts the terahertz image into an image in which an object included in the terahertz image is emphasized. (Step S202). The person detection unit 103 detects a detection target person from the visualized image (step S203). In the present embodiment, the person detection unit 103 creates an image obtained by averaging rectangular images in a plurality of person images as a template (hereinafter referred to as a person template). Then, the person detection unit 103 detects, as a detection target person, the position where the difference in luminance value with the person template is the smallest in the visualized image while the person template is translated, rotated, or enlarged / reduced in the visualized image. To do.

物体検出部106は、画像処理を実行したテラヘルツ画像内の人物位置から、検出対象人物が所持する物体を検出する(ステップS204)。これにより、検出対象人物が動いていても、テラヘルツ画像における、検出対象人物の位置を高精度に特定できるので、所定位置において検出対象人物を止めることなく、テラヘルツ画像から、検出対象人物が所持する物体を検出できる。ここで、人物位置は、テラヘルツ画像において、検出した検出対象人物に対応する位置である。また、本実施形態では、物体検出部105は、二値化処理が実行されたテラヘルツ画像の人物位置において、同じ画素値を持つ連続する画素に対して同じラベルを設定する。そして、物体検出部105は、テラヘルツ画像の人物位置において、ラベルが設定された領域のうち、予め設定された大きさより小さい孤立領域を、検出対象人物が所持する物体として検出する。   The object detection unit 106 detects an object possessed by the person to be detected from the position of the person in the terahertz image that has been subjected to the image processing (step S204). As a result, even if the detection target person is moving, the position of the detection target person in the terahertz image can be specified with high accuracy, so the detection target person possesses from the terahertz image without stopping the detection target person at the predetermined position. An object can be detected. Here, the person position is a position corresponding to the detected person to be detected in the terahertz image. In the present embodiment, the object detection unit 105 sets the same label for consecutive pixels having the same pixel value at the person position of the terahertz image that has been subjected to the binarization process. Then, the object detection unit 105 detects, as an object possessed by the person to be detected, an isolated area smaller than a preset size among areas where labels are set at a person position in the terahertz image.

物体分類部106は、物体検出部105によって、検出対象人物が所持する物体が検出されたか否かを判断する(ステップS205)。検出対象人物が所持する物体が検出されなかった場合(ステップS205:No)、ステップS201に戻り、テラヘルツ画像取得部101および可視化画像取得部102は、新たなテラヘルツ画像および可視化画像を取得する。   The object classification unit 106 determines whether the object detection unit 105 has detected an object possessed by the person to be detected (step S205). When an object possessed by the person to be detected is not detected (step S205: No), the process returns to step S201, and the terahertz image acquisition unit 101 and the visualized image acquisition unit 102 acquire a new terahertz image and a visualized image.

一方、検出対象人物が所持する物体が検出された場合(ステップS205:Yes)、物体分類部106は、検出した物体毎に、当該物体が所定物体であるか否かを判断する分類処理を実行する(ステップS206)。本実施形態では、物体分類部106は、検出した全ての物体について、分類処理を繰り返す。また、表示部108は、物体分類部106による分類処理の実行結果、および当該実行結果に基づく、検出した物体の警報レベルを表示する(ステップS206)。   On the other hand, when an object possessed by the person to be detected is detected (step S205: Yes), the object classification unit 106 executes a classification process for determining whether the object is a predetermined object for each detected object. (Step S206). In the present embodiment, the object classification unit 106 repeats the classification process for all detected objects. The display unit 108 also displays the execution result of the classification process by the object classification unit 106 and the alarm level of the detected object based on the execution result (step S206).

具体的には、物体分類部106は、検出した物体と、検出物体データベース107に記憶される各モデル画像との類似度を算出する。そして、物体分類部106は、検出した物体と、少なくとも1つのモデル画像との類似度が予め設定された類似度以上である場合、当該検出した物体が所定物体であると判断する。物体分類部106は、検出した物体と複数のモデル画像との類似度が予め設定された類似度以上である場合、当該複数のモデル画像のうち、検出した物体との類似度が最も高いモデル画像の分類を、当該検出した物体の分類として特定する。または、物体分類部106は、テラヘルツ画像を入力としかつ検出した物体の分類を出力する分類方法を、深層学習等を用いて構築し、当該分類方法を用いて、検出した物体の分類を特定しても良い。   Specifically, the object classification unit 106 calculates the degree of similarity between the detected object and each model image stored in the detected object database 107. Then, the object classification unit 106 determines that the detected object is a predetermined object when the similarity between the detected object and at least one model image is equal to or higher than a preset similarity. When the similarity between the detected object and the plurality of model images is equal to or higher than a preset similarity, the object classification unit 106 has the highest similarity with the detected object among the plurality of model images. Is identified as the classification of the detected object. Alternatively, the object classification unit 106 uses a deep learning or the like to construct a classification method that receives a terahertz image and outputs a classification of the detected object, and identifies the classification of the detected object using the classification method. May be.

次に、図3を用いて、本実施形態にかかる監視システムにおいて警報レベルを表示する処理の流れの一例について説明する。図3は、第1の実施形態にかかる監視システムにおいて警報レベルを表示する処理の流れの一例を示すフローチャートである。   Next, an example of a processing flow for displaying an alarm level in the monitoring system according to the present embodiment will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of a flow of processing for displaying an alarm level in the monitoring system according to the first embodiment.

表示部108は、検出した物体の分類の信頼度を取得する(ステップS301)。ここで、信頼度は、検出した物体の分類の信頼性の度合いである。本実施形態では、信頼度は、検出した物体とモデル画像との類似度が高くなるに従って、高くなる。次いで、表示部108は、取得した信頼度が予め設定された閾値Rより大きいか否かを判断する(ステップS302)。そして、取得した信頼度が閾値Rより大きい場合(ステップS302:Yes)、表示部108は、検出した物体の警報レベルを、警報レベル:「3」とし、当該警報レベル:「3」を表示する(ステップS303)。本実施形態では、警報レベルは、検出した物体の危険度が大きくなるに従って、高くなる。   The display unit 108 acquires the reliability of classification of the detected object (step S301). Here, the reliability is the degree of reliability of the detected object classification. In this embodiment, the reliability increases as the similarity between the detected object and the model image increases. Next, the display unit 108 determines whether or not the acquired reliability is greater than a preset threshold value R (step S302). If the acquired reliability is greater than the threshold value R (step S302: Yes), the display unit 108 sets the alarm level of the detected object to alarm level: “3” and displays the alarm level: “3”. (Step S303). In the present embodiment, the alarm level increases as the degree of danger of the detected object increases.

一方、取得した信頼度が閾値R以下である場合(ステップS302:No)、表示部108は、人物位置における、検出した物体の位置が、検出対象人物が着用する衣服のポケット領域などの所定位置であるか否かを判断する(ステップS304)。検出した物体の位置が所定位置であると判断した場合(ステップS304:Yes)、表示部108は、検出した物体の警報レベルを、警報レベル:「1」とし、当該警報レベル:「1」を表示する(ステップS305)。一方、検出した物体の位置が所定位置以外であると判断した場合(ステップS304:No)、表示部108は、検出した物体の警報レベルを、警報レベル:「2」とし、当該警報レベル:「2」を表示する(ステップS306)。すなわち、表示部108は、人物位置における、検出した物体の位置(第2位置の一例)に基づいて、警報レベルを変更する。   On the other hand, when the acquired reliability is equal to or less than the threshold value R (step S302: No), the display unit 108 indicates that the position of the detected object in the person position is a predetermined position such as a pocket region of clothes worn by the detection target person. It is determined whether or not (step S304). When it is determined that the position of the detected object is a predetermined position (step S304: Yes), the display unit 108 sets the alarm level of the detected object to alarm level: “1”, and sets the alarm level: “1”. It is displayed (step S305). On the other hand, when it is determined that the position of the detected object is other than the predetermined position (step S304: No), the display unit 108 sets the alarm level of the detected object to alarm level: “2”, and the alarm level: “ 2 "is displayed (step S306). That is, the display unit 108 changes the alarm level based on the position of the detected object (an example of the second position) in the person position.

検出した物体の位置が所定位置以外であると判断した場合の警報レベルを、検出した物体の位置が所定位置であると判断した場合の警報レベルより高くしているのは、検出対象人物が所定物体を意図して隠蔽している可能性が高いと仮定できるからである。また、表示部108は、検出した物体の分類および検出した物体の位置(例えば、ポケット領域)の少なくとも一方に基づいて、警報レベルを細分化して表示しても良い。   The alarm level when it is determined that the position of the detected object is other than the predetermined position is higher than the alarm level when it is determined that the position of the detected object is the predetermined position. This is because it can be assumed that there is a high possibility that the object is intentionally concealed. Further, the display unit 108 may display the alarm level in a subdivided manner based on at least one of the detected object classification and the detected object position (for example, a pocket area).

次に、図4を用いて、本実施形態にかかる監視システムによる警報レベルの表示例について説明する。図4は、第1の実施形態にかかる監視システムによる警報レベルの表示例を示す図である。   Next, a display example of an alarm level by the monitoring system according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating a display example of an alarm level by the monitoring system according to the first embodiment.

図4に示すように、表示部108は、可視化画像401、所定位置(例えば、ポケット領域)を表すポケット領域画像402、テラヘルツ画像403、検出した物体の画像である物体画像404、検出した物体の位置がポケット領域内であるか否かの判断結果405(検出した物体の位置がポケット内にある場合:「〇」、検出した物体の位置がポケット以外である場合:「×」)、検出した物体の分類結果406、当該分類結果の信頼度407、および警報レベル408を含む画面を表示する。   As illustrated in FIG. 4, the display unit 108 includes a visualized image 401, a pocket area image 402 representing a predetermined position (for example, a pocket area), a terahertz image 403, an object image 404 that is an image of a detected object, and a detected object. Judgment result 405 of whether or not the position is in the pocket area (when the position of the detected object is in the pocket: “◯”, when the position of the detected object is other than the pocket: “×”), detected A screen including the classification result 406 of the object, the reliability 407 of the classification result, and the alarm level 408 is displayed.

本実施形態では、ポケット領域画像402は、画像処理部104によって画像処理を実行したテラヘルツ画像に対して、ポケットの画像を重畳した画像である。また、表示部108は、警報レベル408に応じて、当該警報レベル408を表す文字の表示態様(例えば、色、アニメーション)を変更しても良い。また、表示部108は、警報レベル408に応じて、警報レベル408を通知する音声を出力しても良い。   In the present embodiment, the pocket area image 402 is an image obtained by superimposing a pocket image on the terahertz image subjected to image processing by the image processing unit 104. Further, the display unit 108 may change the display mode (for example, color, animation) of the character representing the alarm level 408 according to the alarm level 408. Further, the display unit 108 may output a sound for notifying the alarm level 408 according to the alarm level 408.

このように、第1の実施形態にかかる監視システムによれば、テラヘルツ画像内において、可視化画像に基づいて特定した人物位置から、検出対象人物が所持する物体を検出することにより、検出対象人物が動いていても、テラヘルツ画像における、検出対象人物の位置を高精度に特定できるので、所定位置において検出対象人物を止めることなく、テラヘルツ画像から、検出対象人物が所持する物体を検出できる。   As described above, according to the monitoring system according to the first embodiment, the detection target person is detected by detecting an object possessed by the detection target person from the person position specified based on the visualized image in the terahertz image. Even if the object is moving, the position of the person to be detected in the terahertz image can be specified with high accuracy. Therefore, the object possessed by the person to be detected can be detected from the terahertz image without stopping the person to be detected at the predetermined position.

(第2の実施形態)
本実施形態は、動画像を構成するフレームとしての可視化画像間において検出対象人物を追跡し、追跡中の同一の検出対象人物の人物位置から検出される物体について分類処理を実行する例である。以下の説明では、第1の実施形態と同様の構成については説明を省略する。
(Second Embodiment)
The present embodiment is an example in which a detection target person is tracked between visualized images as frames constituting a moving image, and classification processing is executed on an object detected from the person position of the same detection target person being tracked. In the following description, description of the same configuration as that of the first embodiment is omitted.

図5は、第2の実施形態にかかる監視システムの構成の一例を示す図である。図5に示すように、本実施形態にかかる監視システムは、テラヘルツ画像取得部101、可視化画像取得部102、人物検出部103、画像処理部104、物体検出部105、物体分類部106、検出物体データベース107、および表示部108に加えて、人物追跡部501を有する。   FIG. 5 is a diagram illustrating an example of a configuration of a monitoring system according to the second embodiment. As shown in FIG. 5, the monitoring system according to the present embodiment includes a terahertz image acquisition unit 101, a visualized image acquisition unit 102, a person detection unit 103, an image processing unit 104, an object detection unit 105, an object classification unit 106, and a detected object. In addition to the database 107 and the display unit 108, a person tracking unit 501 is provided.

人物追跡部501は、動画像の可視化画像を構成するフレーム間において、人物検出部103により検出される検出対象人物を追跡する。そして、物体分類部106は、追跡中の同一の検出対象人物の人物位置から検出された物体について分類処理を実行する。これにより、異なる検出対象人物の人物位置から検出される物体について分類処理が行われることを防止できるので、検出した物体の分類の精度を向上させることができる。その際、物体分類部106は、追跡中の同一の検出対象人物の人物位置から検出された物体同士を比較して、当該物体に含まれるノイズの除去、および当該物体に含まれる特徴の統合の少なくとも一方を実行しても良い。   The person tracking unit 501 tracks a detection target person detected by the person detection unit 103 between frames constituting a visualized image of a moving image. Then, the object classification unit 106 performs a classification process on an object detected from the person position of the same detection target person being tracked. As a result, it is possible to prevent the classification process from being performed on an object detected from a person position of a different detection target person, so that the accuracy of classification of the detected object can be improved. At that time, the object classification unit 106 compares the objects detected from the person positions of the same detection target person being tracked, and removes the noise included in the object and integrates the characteristics included in the object. At least one of them may be executed.

また、物体検出部105は、動画像のテラヘルツ画像を構成するフレーム間において、人物位置から、同一の物体を追跡しても良い。この場合、物体分類部106は、追跡中の同一の検出対象人物の人物位置から検出された物体のうち、同一の物体として追跡された物体毎に分類処理を実行する。これにより、異なる物体が同一の物体として分類処理が行われることを防止できるので、検出した物体の分類の精度を向上させることができる。具体的には、物体検出部105は、フレーム間において物体が検出される矩形領域の移動量が所定量以下でありかつテラヘルツ画像間における矩形領域の類似度が予め設定された類似度以上の物体を、同一の物体として追跡する。   Further, the object detection unit 105 may track the same object from the person position between frames constituting the terahertz image of the moving image. In this case, the object classification unit 106 performs the classification process for each object tracked as the same object among the objects detected from the person positions of the same detection target person being tracked. As a result, it is possible to prevent different objects from being classified as the same object, so that the accuracy of classification of detected objects can be improved. Specifically, the object detection unit 105 has an object whose amount of movement of a rectangular area in which an object is detected between frames is equal to or smaller than a predetermined amount and whose similarity between rectangular areas between terahertz images is equal to or higher than a preset similarity. Are tracked as the same object.

次に、図6を用いて、本実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例について説明する。図6は、第2の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。   Next, with reference to FIG. 6, an example of a flow of classification processing of an object possessed by a person to be detected in the monitoring system according to the present embodiment will be described. FIG. 6 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a person to be detected in the monitoring system according to the second embodiment.

本実施形態では、人物追跡部501は、動画像の可視化画像を構成するフレーム間において、人物検出部103により検出される検出対象人物を追跡する(ステップS601)。具体的には、人物追跡部501は、フレーム間において検出対象人物が検出される矩形領域の移動量が所定量以下でありかつフレーム間における矩形領域の類似度が予め設定された類似度以上の検出対象人物を、同一の検出対象人物として追跡する。   In the present embodiment, the person tracking unit 501 tracks a detection target person detected by the person detection unit 103 between frames constituting a visualized image of a moving image (step S601). Specifically, the person tracking unit 501 has a movement amount of a rectangular area in which a detection target person is detected between frames is equal to or less than a predetermined amount, and the similarity of the rectangular areas between frames is equal to or higher than a preset similarity. The detection target person is tracked as the same detection target person.

物体分類部106は、同一の検出対象人物の追跡が終了したか否かを判断する(ステップS602)。同一の検出対象人物の追跡が終了していないと判断した場合(ステップS602:No)、ステップS201に戻り、テラヘルツ画像取得部101および可視化画像取得部102は、テラヘルツ画像および可視化画像の取得を継続する。   The object classification unit 106 determines whether or not the tracking of the same person to be detected has been completed (step S602). When it is determined that tracking of the same person to be detected has not been completed (step S602: No), the process returns to step S201, and the terahertz image acquisition unit 101 and the visualized image acquisition unit 102 continue to acquire the terahertz image and the visualized image. To do.

一方、同一の検出対象人物の追跡が終了したと判断した場合(ステップS602:Yes)、物体分類部106は、物体検出部105によって、検出対象人物が所持する物体が検出されたか否かを判断する(ステップS205)。そして、検出対象人物が所持する物体が検出された場合(ステップS205:Yes)、物体分類部106は、同一の検出対象人物の人物位置から検出された物体について分類処理を実行する(ステップS603)。これにより、異なる検出対象人物の人物位置から検出された物体について分類処理が実行されることを防止できるので、テラヘルツ画像から検出された物体の分類処理の精度を向上させることができる。   On the other hand, when it is determined that the tracking of the same detection target person has ended (step S602: Yes), the object classification unit 106 determines whether the object detection unit 105 has detected an object possessed by the detection target person. (Step S205). When an object possessed by the detection target person is detected (step S205: Yes), the object classification unit 106 performs a classification process on the object detected from the person position of the same detection target person (step S603). . As a result, it is possible to prevent the classification process from being performed on an object detected from a person position of a different detection target person, so that the accuracy of the classification process of the object detected from the terahertz image can be improved.

その際、物体分類部106は、同一の検出対象人物の人物位置から検出された物体を比較して(例えば、物体の画像の大きさや形状等を比較して)、当該物体に含まれるノイズの除去、および当該物体に含まれる特徴の統合の少なくとも一方を実行した上で、当該物体について分類処理を実行する。   At that time, the object classification unit 106 compares the objects detected from the person positions of the same person to be detected (for example, compares the size and shape of the image of the object), and compares the noise included in the object. After performing at least one of removal and integration of features included in the object, a classification process is performed on the object.

その際、物体分類部106は、同一の物体として追跡された物体を比較しても良い。これにより、異なる物体に基づいて、物体に含まれるノイズの除去、および当該物体に含まれる特徴の統合が実行されることを防止できるので、テラヘルツ画像から検出された物体が所定物体であるか否かを判断する分類処理の精度をさらに、向上させることができる。   At that time, the object classification unit 106 may compare objects tracked as the same object. As a result, it is possible to prevent the noise included in the object from being removed and the integration of the features included in the object from being executed based on different objects, so whether or not the object detected from the terahertz image is a predetermined object. The accuracy of the classification process for determining whether or not can be further improved.

このように、第2の実施形態にかかる監視システムによれば、同一の検出対象人物の人物位置から検出された物体について分類処理を実行することにより、異なる検出対象人物の人物位置から検出された物体について分類処理が行われることを防止できるので、テラヘルツ画像から検出された物体の分類処理の精度を向上させることができる。   As described above, according to the monitoring system according to the second embodiment, the object detected from the person position of the same detection target person is detected from the person position of the different detection target person by executing the classification process. Since the classification process can be prevented from being performed on the object, the accuracy of the classification process of the object detected from the terahertz image can be improved.

(第3の実施形態)
本実施形態は、可視化画像に基づいて、検出対象人物が着用する衣類を検出し、当該検出した衣類のポケットの位置を推定し、検出した物体の位置が、人物位置における、推定したポケットの位置以外の不審位置である場合、警報レベルを上げる例である。以下の説明では、上述の実施形態と同様の箇所については説明を省略する。
(Third embodiment)
The present embodiment detects clothing worn by a person to be detected based on the visualized image, estimates the position of the pocket of the detected clothing, and the position of the detected object is the estimated pocket position in the person position. This is an example of raising the alarm level when the position is a suspicious position other than. In the following description, description of the same parts as those in the above-described embodiment will be omitted.

図7は、第3の実施形態にかかる監視システムの構成の一例を示す図である。図7に示すように、本実施形態にかかる監視システムは、テラヘルツ画像取得部101、可視化画像取得部102、人物検出部103、画像処理部104、物体検出部105、物体分類部106、検出物体データベース107、表示部108、および人物追跡部501に加えて、衣類分類部701および衣類データベース702を有する。   FIG. 7 is a diagram illustrating an example of a configuration of a monitoring system according to the third embodiment. As shown in FIG. 7, the monitoring system according to the present embodiment includes a terahertz image acquisition unit 101, a visualized image acquisition unit 102, a person detection unit 103, an image processing unit 104, an object detection unit 105, an object classification unit 106, and a detected object. In addition to the database 107, the display unit 108, and the person tracking unit 501, a clothing classification unit 701 and a clothing database 702 are included.

衣類データベース702は、人物が着用する衣類の画像(以下、衣類モデルと言う)と、当該衣類が有するポケットの位置とを対応付けて記憶する。衣類分類部701(衣類検出部の一例)は、可視化画像に基づいて、検出対象人物が着用する衣類を検出する。本実施形態では、衣類分類部701は、同一の検出対象人物の追跡が終わる度に、当該検出対象人物から、衣類を検出する。また、衣類分類部701は、検出した衣類が有するポケットの位置(第3位置の一例)を推定する。本実施形態では、衣類分類部701は、衣類データベース702において、検出した衣類の衣類モデルと対応付けられたポケットの位置を、当該検出した衣類が有するポケットの位置と推定する。そして、表示部108は、検出した物体の位置がポケットの位置以外の位置である場合、警報レベルを上げる。これにより、検出対象人物が意図的に物体を隠している可能性が高い場合に警報レベルを上げることができるので、検出対象人物が所持する物体に応じてより適切な警報レベルを表示することができる。   The clothing database 702 stores an image of clothing worn by a person (hereinafter referred to as a clothing model) and a pocket position of the clothing in association with each other. The clothing classification unit 701 (an example of a clothing detection unit) detects clothing worn by the detection target person based on the visualized image. In the present embodiment, the clothing classification unit 701 detects clothing from the detection target person every time tracking of the same detection target person ends. In addition, the clothing classification unit 701 estimates the position of the pocket of the detected clothing (an example of the third position). In the present embodiment, the clothing classification unit 701 estimates the position of the pocket associated with the clothing model of the detected clothing in the clothing database 702 as the position of the pocket of the detected clothing. The display unit 108 increases the alarm level when the detected position of the object is a position other than the pocket position. As a result, the alarm level can be increased when there is a high possibility that the detection target person intentionally hides the object, so that a more appropriate alarm level can be displayed according to the object possessed by the detection target person. it can.

次に、図8および図9を用いて、本実施形態にかかる監視システムが有するテラヘルツ画像取得部101および可視化画像取得部102の配置例について説明する。図8は、第3の実施形態にかかる監視システムのテラヘルツ画像取得部および可視化画像取得部の配置位置の一例を上方から見た図である。図9は、第3の実施形態にかかる監視システムのテラヘルツ画像取得部および可視化画像取得部の配置位置の一例を側方から見た図である。   Next, an arrangement example of the terahertz image acquisition unit 101 and the visualized image acquisition unit 102 included in the monitoring system according to the present embodiment will be described with reference to FIGS. 8 and 9. FIG. 8 is a view of an example of the arrangement positions of the terahertz image acquisition unit and the visualized image acquisition unit of the monitoring system according to the third embodiment as viewed from above. FIG. 9 is a side view of an example of the arrangement positions of the terahertz image acquisition unit and the visualization image acquisition unit of the monitoring system according to the third embodiment.

本実施形態では、監視システムは、図8および図9に示すように、テラヘルツ画像取得部101および可視化画像取得部102をそれぞれ4つ有する。具体的には、監視システムは、図8に示すように、所定位置Pを通過する検出対象人物の進行方向において、上流側および下流側それぞれに2つずつテラヘルツ画像取得部101および可視化画像取得部102を有する。   In the present embodiment, the monitoring system includes four terahertz image acquisition units 101 and four visualized image acquisition units 102, as shown in FIGS. Specifically, as illustrated in FIG. 8, the monitoring system includes two terahertz image acquisition units 101 and two visualization image acquisition units, one on each of the upstream side and the downstream side in the traveling direction of the detection target person passing through the predetermined position P. 102.

上流側の2つのテラヘルツ画像取得部101は、図8および図9に示すように、所定位置Pを挟んで水平方向に離間して設けられ、かつ検出対象人物を正面から見たテラヘルツ画像が取得されるように設けられる。下流側の2つのテラヘルツ画像取得部101は、図8および図9に示すように、所定位置Pを挟んで水平方向に離間して設けられ、かつ検出対象人物を背面から見たテラヘルツ画像が取得されるように設けられる。   As shown in FIGS. 8 and 9, the two upstream terahertz image acquisition units 101 are provided so as to be spaced apart in the horizontal direction across the predetermined position P, and acquire a terahertz image when the detection target person is viewed from the front. To be provided. As shown in FIGS. 8 and 9, the two terahertz image acquisition units 101 on the downstream side are provided to be spaced apart in the horizontal direction across the predetermined position P, and acquire a terahertz image when the detection target person is viewed from the back side. To be provided.

上流側の2つの可視化画像取得部102は、図8および図9に示すように、所定位置Pを挟んで水平方向に離間して設けられ、かつ検出対象人物を正面から見た可視化画像が取得されるように設けられる。下流側の2つの可視化画像取得部102は、図8および図9に示すように、所定位置Pを挟んで水平方向に離間して設けられ、かつ検出対象人物を背面から見た可視化画像が取得されるように設けられる。   As shown in FIGS. 8 and 9, the two upstream visualized image acquisition units 102 are provided so as to be spaced apart in the horizontal direction across the predetermined position P, and acquire a visualized image when the detection target person is viewed from the front. To be provided. As shown in FIG. 8 and FIG. 9, the two visualized image acquisition units 102 on the downstream side are provided horizontally apart from each other with the predetermined position P interposed therebetween, and visualized images obtained by viewing the detection target person from the back are acquired. To be provided.

また、テラヘルツ画像取得部101および可視化画像取得部102は、所定位置Pを通過する検出対象人物の上方に設けられ、検出対象人物の前後に存在する人物によって、テラヘルツ画像および可視化画像に含まれる検出対象人物が隠れ難い角度で設置される。これにより、検出対象人物の全身の画像を含むテラヘルツ画像および可視化画像を取得することが可能となる。   Further, the terahertz image acquisition unit 101 and the visualized image acquisition unit 102 are provided above the detection target person passing through the predetermined position P, and are included in the terahertz image and the visualization image by persons existing before and after the detection target person. The target person is installed at an angle where it is difficult to hide. This makes it possible to acquire a terahertz image and a visualized image that include an image of the whole body of the person to be detected.

次に、図10を用いて、本実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例について説明する。図10は、第3の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。   Next, an example of a flow of classification processing of an object possessed by a person to be detected in the monitoring system according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a detection target person in the monitoring system according to the third embodiment.

本実施形態では、監視システムは、テラヘルツ画像取得部101を複数有するため、各テラヘルツ画像取得部101により取得される各テラヘルツ画像について、ステップS202、およびステップS204に示す処理を並行して実行する。若しくは、監視システムは、上流側の2つのテラヘルツ画像取得部101により取得されるテラヘルツ画像の特徴を統合したテラヘルツ画像、または下流側2つのテラヘルツ画像取得部101により取得されるテラヘルツ画像の特徴を統合したテラヘルツ画像について、ステップS202、およびステップS204に示す処理を実行しても良い。   In this embodiment, since the monitoring system has a plurality of terahertz image acquisition units 101, the processes shown in step S202 and step S204 are executed in parallel for each terahertz image acquired by each terahertz image acquisition unit 101. Alternatively, the monitoring system integrates the terahertz image obtained by integrating the features of the terahertz images acquired by the two upstream terahertz image acquisition units 101 or the features of the terahertz image acquired by the two downstream terahertz image acquisition units 101. The processing shown in step S202 and step S204 may be executed for the terahertz image that has been performed.

また、監視システムは、可視化画像取得部102を複数有するため、各可視化画像取得部102により取得される各可視化画像に対して、ステップS203、およびステップS601〜602に示す処理を並行して実行する。若しくは、監視システムは、上流側の2つの可視化画像取得部102により取得される可視化画像の特徴を統合した可視化画像、または下流側2つの可視化画像取得部102により取得される可視化画像の特徴を統合した可視化画像について、ステップS203、およびステップS601〜602に示す処理を実行しても良い。   In addition, since the monitoring system includes a plurality of visualized image acquisition units 102, the processes shown in step S203 and steps S601 to 602 are executed in parallel on each visualized image acquired by each visualized image acquisition unit 102. . Alternatively, the monitoring system integrates the visualized image obtained by integrating the features of the visualized images acquired by the two upstream visualized image acquiring units 102 or the features of the visualized image acquired by the two downstream visualized image acquiring units 102. For the visualized image, the processes shown in step S203 and steps S601 to 602 may be executed.

本実施形態では、検出対象人物が所持する物体が検出された場合(ステップS205:Yes)、衣類分類部701は、衣類データベース702に記憶される衣類モデルを用いて、同一の検出対象人物から、衣類を検出する(ステップS1001)。そして、衣類分類部701は、衣類データベース702において、検出した衣類の衣類モデルと対応付けられるポケットの位置を、検出した衣類が有するポケットの位置と推定する。次いで、表示部108は、検出した物体の位置および推定したポケットの位置に基づいて、警報レベルを表示する(ステップS1002)。   In the present embodiment, when an object possessed by the detection target person is detected (step S205: Yes), the clothing classification unit 701 uses the clothing model stored in the clothing database 702, from the same detection target person. Cloth is detected (step S1001). Then, clothing classification unit 701 estimates the position of the pocket associated with the clothing model of the detected clothing in clothing database 702 as the position of the pocket of the detected clothing. Next, the display unit 108 displays an alarm level based on the detected position of the object and the estimated position of the pocket (step S1002).

次に、図11を用いて、本実施形態にかかる監視システムにおける警報レベルを表示する処理の流れの一例について説明する。図11は、第3の実施形態にかかる監視システムにおける警報レベルを表示する処理の流れの一例を示すフローチャートである。   Next, an example of a flow of processing for displaying an alarm level in the monitoring system according to the present embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a flow of processing for displaying an alarm level in the monitoring system according to the third embodiment.

表示部108は、検出した物体の分類の信頼度を取得する(ステップS301)。本実施形態では、物体分類部106は、検出した物体の分類を所定物体の分類だけでなく、スマートフォンや財布などの所定物体以外の物体の分類にも分類するものとする。次いで、表示部108は、取得した信頼度が閾値Rより大きいか否かを判断する(ステップS302)。そして、取得した信頼度が閾値Rより大きい場合(ステップS302:Yes)、表示部108は、検出した物体が所定物体か否かを判断する(ステップS1101)。   The display unit 108 acquires the reliability of classification of the detected object (step S301). In the present embodiment, the object classifying unit 106 classifies the detected object classification into not only a predetermined object classification but also an object classification other than a predetermined object such as a smartphone or a wallet. Next, the display unit 108 determines whether or not the acquired reliability is greater than the threshold value R (step S302). If the acquired reliability is larger than the threshold value R (step S302: Yes), the display unit 108 determines whether the detected object is a predetermined object (step S1101).

検出した物体が所定物体である場合(ステップS1101:Yes)、表示部108は、検出した物体の警報レベルを、警報レベル:「3」とし、当該警報レベル:「3」を表示する(ステップS303)。一方、検出した物体が所定物体以外の物体である場合(ステップS1101:No)、表示部108は、警報レベルを表示しない(ステップS1102)。   When the detected object is a predetermined object (step S1101: Yes), the display unit 108 sets the alarm level of the detected object to alarm level: “3” and displays the alarm level: “3” (step S303). ). On the other hand, when the detected object is an object other than the predetermined object (step S1101: No), the display unit 108 does not display the alarm level (step S1102).

また、取得した信頼度が閾値R以下である場合(ステップS302:No)、表示部108は、人物位置における、検出した物体の位置が、推定したポケットの位置以外の不審位置内か否かを判断する(ステップS1103)。検出した物体の位置が不審位置外である場合(ステップS1103:No)、表示部108は、検出した物体の警報レベルを、警報レベル:「1」とし、当該警報レベル:「1」を表示する(ステップS1104)。一方、検出した物体の位置が不審位置内である場合(ステップS1103:Yes)、表示部108は、検出した物体の警報レベルを、警報レベル:「2」とし、当該警報レベル:「2」を表示する(ステップS1105)。これにより、検出対象人物が意図的に物体を隠している可能性が高い場合に警報レベルを上げることができるので、検出対象人物が所持する物体に応じてより適切な警報レベルを表示することができる。また、検出対象人物の入退出を管理する管理者が、警報レベルを判断する必要が無くなるので、警備リソースの省力化を図ることができる。   If the acquired reliability is equal to or less than the threshold value R (step S302: No), the display unit 108 determines whether the position of the detected object in the person position is within a suspicious position other than the estimated pocket position. Judgment is made (step S1103). When the position of the detected object is outside the suspicious position (step S1103: No), the display unit 108 sets the alarm level of the detected object to alarm level: “1” and displays the alarm level: “1”. (Step S1104). On the other hand, when the position of the detected object is within the suspicious position (step S1103: Yes), the display unit 108 sets the alarm level of the detected object to alarm level: “2”, and sets the alarm level: “2”. It is displayed (step S1105). As a result, the alarm level can be increased when there is a high possibility that the detection target person intentionally hides the object, so that a more appropriate alarm level can be displayed according to the object possessed by the detection target person. it can. Further, since it is not necessary for the manager who manages the entry / exit of the person to be detected to determine the alarm level, it is possible to save the security resources.

次に、図12および図13を用いて、本実施形態にかかる監視システムによる警報レベルの表示例について説明する。図12および図13は、第3の実施形態にかかる監視システムによる警報レベルの表示例を示す図である。   Next, display examples of alarm levels by the monitoring system according to the present embodiment will be described with reference to FIGS. 12 and 13 are diagrams illustrating examples of alarm level display by the monitoring system according to the third embodiment.

図12に示すように、表示部108は、上流側の可視化画像取得部102により取得される可視化画像401、ポケット領域画像402、上流側のテラヘルツ画像取得部101により取得されるテラヘルツ画像403、テラヘルツ画像403に対してポケット領域画像402を重畳した重畳画像1201、物体画像404、判断結果405、分類結果406、信頼度407、および警報レベル408を含む画面を表示する。また、表示部108は、下流側の可視化画像取得部102により取得される可視化画像401、ポケット領域画像402、下流側のテラヘルツ画像取得部101により取得されるテラヘルツ画像403、テラヘルツ画像403に対してポケット領域画像402を重畳した重畳画像1201、物体画像404、判断結果405、分類結果406、信頼度407、および警報レベル408を含む画面を表示する。   As illustrated in FIG. 12, the display unit 108 includes a visualization image 401 acquired by the upstream visualization image acquisition unit 102, a pocket region image 402, a terahertz image 403 acquired by the upstream terahertz image acquisition unit 101, and a terahertz A screen including a superimposed image 1201 in which a pocket region image 402 is superimposed on an image 403, an object image 404, a determination result 405, a classification result 406, a reliability 407, and an alarm level 408 is displayed. Further, the display unit 108 applies the visualization image 401, the pocket region image 402 acquired by the downstream visualization image acquisition unit 102, the terahertz image 403 acquired by the downstream terahertz image acquisition unit 101, and the terahertz image 403. A screen including a superimposed image 1201 on which the pocket area image 402 is superimposed, an object image 404, a determination result 405, a classification result 406, a reliability 407, and an alarm level 408 is displayed.

または、図13に示すように、表示部108は、ポケット領域画像402に代えて、不審位置を表す不審位置画像1301を表示し、かつテラヘルツ画像403に対してポケット領域画像402を重畳した重畳画像1201に代えて、テラヘルツ画像403に対して不審位置画像1301を重畳した重畳画像1302を表示しても良い。   Alternatively, as illustrated in FIG. 13, the display unit 108 displays a suspicious position image 1301 representing a suspicious position instead of the pocket area image 402, and a superimposed image in which the pocket area image 402 is superimposed on the terahertz image 403. Instead of 1201, a superimposed image 1302 in which a suspicious position image 1301 is superimposed on the terahertz image 403 may be displayed.

本実施形態では、表示部108は、衣類データベース702を用いて、検出した衣類が有するポケットの位置を推定しているが、これに限定するものではなく、テラヘルツ画像および可視化画像の少なくとも一方に基づいて、検出した衣類が有するポケットの位置を推定しても良い。   In the present embodiment, the display unit 108 estimates the position of the pocket of the detected clothing using the clothing database 702, but is not limited thereto, and is based on at least one of the terahertz image and the visualized image. Thus, the position of the pocket of the detected clothing may be estimated.

このように、第3の実施形態にかかる監視システムによれば、検出対象人物が意図的に物体を隠している可能性が高い場合に警報レベルを上げることができるので、検出対象人物が所持する物体に応じてより適切な警報レベルを表示することができる。   Thus, according to the monitoring system according to the third embodiment, the alarm level can be increased when the detection target person has a high possibility of intentionally hiding the object, so the detection target person possesses it. A more appropriate alarm level can be displayed according to the object.

また、本実施形態にかかる監視システムを複数の地点(所定位置)に設置し、警報レベルが所定の警報レベル(例えば、警報レベル:「2」)以上の警報レベルの検出対象人物を、記憶部に保存しても良い。これにより、各地点の監視システムで検出された検出対象人物と、記憶部に記憶された検出対象人物とを照合することにより、要注意人物を追跡することが可能となる。また、各地点の監視システムで検出された検出対象人物と、記憶部に記憶された検出対象人物との照合に成功した場合、閾値Rや警報レベルを上げる処理を行い、要注意人物が所持する物体の分類処理を、一般の検出対象人物が所持する物体の分類処理と異ならせても良い。   Further, the monitoring system according to the present embodiment is installed at a plurality of points (predetermined positions), and a detection target person whose alarm level is a predetermined alarm level (for example, alarm level: “2”) or higher is stored in the storage unit. You may save it. Accordingly, it is possible to track a person requiring attention by comparing the detection target person detected by the monitoring system at each point with the detection target person stored in the storage unit. In addition, when the detection target person detected by the monitoring system at each point is successfully matched with the detection target person stored in the storage unit, processing to increase the threshold R and the alarm level is performed, and the person who needs attention is possessed. The object classification process may be different from the object classification process carried by a general person to be detected.

以上説明したとおり、第1から第3の実施形態によれば、所定位置において検出対象人物を止めることなく、テラヘルツ画像から、検出対象人物が所持する物体を検出できる。   As described above, according to the first to third embodiments, an object held by a detection target person can be detected from a terahertz image without stopping the detection target person at a predetermined position.

なお、本実施形態の監視システムで実行されるプログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。本実施形態の監視システムで実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。   The program executed by the monitoring system of this embodiment is provided by being incorporated in advance in a ROM (Read Only Memory) or the like. A program executed in the monitoring system of the present embodiment is an installable or executable file and is read by a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). You may comprise so that it may record on a possible recording medium and provide.

さらに、本実施形態の監視システムで実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の監視システムで実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, the program executed by the monitoring system of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program executed in the monitoring system of the present embodiment may be provided or distributed via a network such as the Internet.

本実施形態の監視システムで実行されるプログラムは、上述した各部(人物検出部103、画像処理部104、物体検出部105、物体分類部106、人物追跡部501、および衣類分類部701)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、人物検出部103、画像処理部104、物体検出部105、物体分類部106、人物追跡部501、および衣類分類部701が主記憶装置上に生成されるようになっている。   The program executed by the monitoring system of the present embodiment includes the above-described units (person detection unit 103, image processing unit 104, object detection unit 105, object classification unit 106, person tracking unit 501, and clothing classification unit 701). The module has a module configuration, and as the actual hardware, a CPU (Central Processing Unit) reads the program from the ROM and executes the program, so that each unit is loaded on the main storage device, and the person detection unit 103, the image processing unit 104, the object detection unit 105, the object classification unit 106, the person tracking unit 501, and the clothing classification unit 701 are generated on the main storage device.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

101 テラヘルツ画像取得部
102 可視化画像取得部
103 人物検出部
104 画像処理部
105 物体検出部
106 物体分類部
107 検出物体データベース
108 表示部
501 人物追跡部
701 衣類分類部
702 衣類データベース
DESCRIPTION OF SYMBOLS 101 Terahertz image acquisition part 102 Visualization image acquisition part 103 Person detection part 104 Image processing part 105 Object detection part 106 Object classification part 107 Detected object database 108 Display part 501 Person tracking part 701 Clothing classification part 702 Clothing database

Claims (5)

所定位置を通過する人物から放出されるテラヘルツ波を受信し、当該テラヘルツ波の受信結果に基づいて、前記所定位置を画像化した第1画像を取得する第1画像取得部と、
前記所定位置で反射した光を受光し、当該光の受光結果に基づいて、前記所定位置を画像化した第2画像を取得する第2画像取得部と、
前記第2画像から、前記人物を検出する人物検出部と、
前記第1画像における前記検出した人物に対応する第1位置から、前記人物が所持する物体を検出する物体検出部と、
前記検出した物体が所定物体であるか否かを判断する分類処理を実行する分類部と、
前記分類処理の実行結果、および当該実行結果に基づく前記検出した物体の警報レベルを表示する表示部と、
を備える監視システム。
A first image acquisition unit that receives a terahertz wave emitted from a person passing through a predetermined position and acquires a first image obtained by imaging the predetermined position based on a reception result of the terahertz wave;
A second image acquisition unit that receives the light reflected at the predetermined position and acquires a second image obtained by imaging the predetermined position based on a light reception result of the light;
A person detecting unit for detecting the person from the second image;
An object detection unit for detecting an object possessed by the person from a first position corresponding to the detected person in the first image;
A classification unit that executes a classification process for determining whether the detected object is a predetermined object;
A display unit for displaying an execution result of the classification process and an alarm level of the detected object based on the execution result;
A monitoring system comprising:
前記表示部は、さらに、前記第1位置における前記物体の第2位置に基づいて、前記警報レベルを変更する請求項1に記載の監視システム。   The monitoring system according to claim 1, wherein the display unit further changes the alarm level based on a second position of the object at the first position. 動画像の前記第2画像を構成するフレーム間において前記人物を追跡する人物追跡部をさらに備え、
前記分類部は、追跡中の同一の前記人物の前記第1位置から検出された前記物体について前記分類処理を実行する請求項1または2に記載の監視システム。
A person tracking unit that tracks the person between frames constituting the second image of the moving image;
The monitoring system according to claim 1, wherein the classification unit performs the classification process on the object detected from the first position of the same person being tracked.
前記物体検出部は、さらに、動画像の前記第1画像を構成するフレーム間において、同一の前記物体を追跡し、
前記分類部は、追跡中の同一の前記物体として追跡された前記物体毎に前記分類処理を実行する請求項3に記載の監視システム。
The object detection unit further tracks the same object between frames constituting the first image of the moving image,
The monitoring system according to claim 3, wherein the classification unit executes the classification process for each of the objects tracked as the same object being tracked.
前記第2画像に基づいて、前記人物が着用する衣類を検出し、当該検出した衣類のポケットの第3位置を推定する衣類検出部をさらに備え、
前記表示部は、前記第2位置が、前記第1位置における前記第3位置に対応する位置以外の位置である場合、前記警報レベルを上げる請求項2に記載の監視システム。




A clothing detector for detecting clothing worn by the person based on the second image and estimating a third position of the pocket of the detected clothing;
The monitoring system according to claim 2, wherein the display unit increases the alarm level when the second position is a position other than the position corresponding to the third position in the first position.




JP2017054894A 2017-03-21 2017-03-21 Monitoring system Pending JP2018156586A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017054894A JP2018156586A (en) 2017-03-21 2017-03-21 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017054894A JP2018156586A (en) 2017-03-21 2017-03-21 Monitoring system

Publications (1)

Publication Number Publication Date
JP2018156586A true JP2018156586A (en) 2018-10-04

Family

ID=63715693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017054894A Pending JP2018156586A (en) 2017-03-21 2017-03-21 Monitoring system

Country Status (1)

Country Link
JP (1) JP2018156586A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109917480A (en) * 2019-03-21 2019-06-21 安徽启路达光电科技有限公司 A kind of active Terahertz safety check apparatus
CN110007360A (en) * 2019-05-07 2019-07-12 安徽启路达光电科技有限公司 Convert channel formula Terahertz safe examination system
CN113848193A (en) * 2021-09-23 2021-12-28 上海亨临光电科技有限公司 Passive terahertz human body security inspection image extraction method
US11621788B2 (en) 2020-03-03 2023-04-04 Canon Kabushiki Kaisha Terahertz wave camera system, entry/exit management apparatus, and method for controlling terahertz wave camera system
WO2023058265A1 (en) * 2021-10-04 2023-04-13 パナソニックIpマネジメント株式会社 Determination device and determination method
US11808699B2 (en) 2020-05-19 2023-11-07 Canon Kabushiki Kaisha Imaging system
JP7434914B2 (en) 2019-04-11 2024-02-21 富士通株式会社 Pedestrian object detection device and method, electronic equipment
JP7455611B2 (en) 2019-03-14 2024-03-26 キヤノン株式会社 processing system
JP7467434B2 (en) 2019-05-14 2024-04-15 太陽誘電株式会社 Security Systems

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7455611B2 (en) 2019-03-14 2024-03-26 キヤノン株式会社 processing system
CN109917480A (en) * 2019-03-21 2019-06-21 安徽启路达光电科技有限公司 A kind of active Terahertz safety check apparatus
JP7434914B2 (en) 2019-04-11 2024-02-21 富士通株式会社 Pedestrian object detection device and method, electronic equipment
CN110007360A (en) * 2019-05-07 2019-07-12 安徽启路达光电科技有限公司 Convert channel formula Terahertz safe examination system
JP7467434B2 (en) 2019-05-14 2024-04-15 太陽誘電株式会社 Security Systems
US11621788B2 (en) 2020-03-03 2023-04-04 Canon Kabushiki Kaisha Terahertz wave camera system, entry/exit management apparatus, and method for controlling terahertz wave camera system
US11808699B2 (en) 2020-05-19 2023-11-07 Canon Kabushiki Kaisha Imaging system
CN113848193A (en) * 2021-09-23 2021-12-28 上海亨临光电科技有限公司 Passive terahertz human body security inspection image extraction method
WO2023058265A1 (en) * 2021-10-04 2023-04-13 パナソニックIpマネジメント株式会社 Determination device and determination method

Similar Documents

Publication Publication Date Title
JP2018156586A (en) Monitoring system
JP6233624B2 (en) Information processing system, information processing method, and program
US7825954B2 (en) Multi-state target tracking
US10846537B2 (en) Information processing device, determination device, notification system, information transmission method, and program
US10776931B2 (en) Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
US20190163966A1 (en) Suspicious person detection device, suspicious person detection method, and program
US20180115749A1 (en) Surveillance system and surveillance method
WO2018056355A1 (en) Monitoring device
JP2018147160A (en) Information processing device, information processing method, and program
US20140254863A1 (en) Method for Detecting and Tracking Objects in Image Sequences of Scenes Acquired by a Stationary Camera
JP2009110152A (en) Congestion estimation device
JP6436077B2 (en) Image processing system, image processing method, and program
KR20070010352A (en) Apparatus for tracing a moving object by mixing the video signals from multi sensors
Tripathi et al. A framework for abandoned object detection from video surveillance
US20160210756A1 (en) Image processing system, image processing method, and recording medium
JP6629139B2 (en) Control device, control method, and program
JP2012191354A (en) Information processing apparatus, information processing method, and program
US20210319229A1 (en) System and method for determining object distance and/or count in a video stream
JP4999794B2 (en) Still region detection method and apparatus, program and recording medium
US20200084416A1 (en) Information processing apparatus, control method, and program
JP2014149716A (en) Object tracking apparatus and method thereof
JP2010199865A (en) Abnormality detection system, abnormality detection method, and abnormality detection program
JP6527183B2 (en) Leftover object detection device
US20230044673A1 (en) Detection device and control method of the same
KR101827114B1 (en) Apparatus and method for detecting proximal entity in pen

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912