JP2018156586A - Monitoring system - Google Patents
Monitoring system Download PDFInfo
- Publication number
- JP2018156586A JP2018156586A JP2017054894A JP2017054894A JP2018156586A JP 2018156586 A JP2018156586 A JP 2018156586A JP 2017054894 A JP2017054894 A JP 2017054894A JP 2017054894 A JP2017054894 A JP 2017054894A JP 2018156586 A JP2018156586 A JP 2018156586A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- detected
- unit
- monitoring system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
- Geophysics And Detection Of Objects (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Abstract
Description
本発明の実施形態は、監視システムに関する。 Embodiments described herein relate generally to a monitoring system.
建物への人物の入退出を管理するゲートやエスカレータの出口等の所定位置で人物を停止させ、当該人物にテラヘルツ波を照射し、当該人物で反射したテラヘルツ波の受光結果に基づいて、当該人物が所持する物体を検知する技術が開発されている。また、所定位置で人物を止めて、ハンドヘルド可能な装置を用い、電磁誘導を利用して物体を検知する技術が開発されている。 The person is stopped at a predetermined position such as a gate that manages the entrance and exit of the person to the building and the exit of the escalator, the person is irradiated with the terahertz wave, and the person is reflected based on the result of receiving the terahertz wave reflected by the person. Technology has been developed to detect objects held by. In addition, a technique has been developed in which a person is stopped at a predetermined position and an object is detected using electromagnetic induction using a handheld device.
しかしながら、上記の技術では、所定位置で人物を一旦止めて、当該人物が所持する物体を検知しなければならず、当該所定位置の人物の通過が滞る場合がある。 However, in the above technique, it is necessary to temporarily stop a person at a predetermined position and detect an object possessed by the person, and the passage of the person at the predetermined position may be delayed.
実施形態の監視システムは、第1画像取得部と、第2画像取得部と、人物検出部と、物体検出部と、分類部と、表示部と、を備える。第1画像取得部は、所定位置を通過する人物から放出されるテラヘルツ波を受信し、当該テラヘルツ波の受信結果に基づいて、所定位置を画像化した第1画像を取得する。第2画像取得部は、所定位置で反射した光を受光し、当該光の受光結果に基づいて、所定位置を画像化した第2画像を取得する。人物検出部は、第2画像から、人物を検出する。物体検出部は、第1画像における当該検出した人物に対応する第1位置から、人物が所持する物体を検出する。分類部は、検出した物体が所定物体であるか否かを判断する分類処理を実行する。表示部は、分類処理の実行結果、および当該実行結果に基づく検出した物体の警報レベルを表示する。 The monitoring system of the embodiment includes a first image acquisition unit, a second image acquisition unit, a person detection unit, an object detection unit, a classification unit, and a display unit. The first image acquisition unit receives a terahertz wave emitted from a person passing through a predetermined position, and acquires a first image obtained by imaging the predetermined position based on a reception result of the terahertz wave. The second image acquisition unit receives the light reflected at the predetermined position, and acquires a second image obtained by imaging the predetermined position based on the light reception result of the light. The person detection unit detects a person from the second image. The object detection unit detects an object possessed by the person from a first position corresponding to the detected person in the first image. The classification unit executes a classification process for determining whether or not the detected object is a predetermined object. The display unit displays the execution result of the classification process and the alarm level of the detected object based on the execution result.
以下、添付の図面を用いて、本実施形態にかかる監視システムについて説明する。 Hereinafter, the monitoring system according to the present embodiment will be described with reference to the accompanying drawings.
(第1の実施形態)
図1は、第1の実施形態にかかる監視システムの構成の一例を示す図である。図1に示すように、本実施形態にかかる監視システムは、テラヘルツ画像取得部101と、可視化画像取得部102と、人物検出部103と、画像処理部104と、物体検出部105と、物体分類部106と、検出物体データベース107と、表示部108と、を備える。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of a monitoring system according to the first embodiment. As shown in FIG. 1, the monitoring system according to the present embodiment includes a terahertz
テラヘルツ画像取得部101(第1画像取得部の一例)は、建物への人物の入退出を管理するゲートやエスカレータの出口など、所定位置を通過する人物(以下、検出対象人物と言う)から放出されるテラヘルツ波を受信するセンサを有する。そして、テラヘルツ画像取得部101は、テラヘルツ波の受信結果に基づいて、所定位置を画像化した画像(以下、テラヘルツ画像と言う。第1画像の一例)を取得する。これにより、テラヘルツ画像取得部101がテラヘルツ波を検出対象人物に向けて照射する必要が無くなるので、監視システムを構成する部品の数を減らすことができる。
The terahertz image acquisition unit 101 (an example of a first image acquisition unit) emits from a person passing through a predetermined position (hereinafter referred to as a detection target person) such as a gate that manages entry / exit of a person to / from a building and an exit of an escalator. And a sensor for receiving terahertz waves. Then, the terahertz
本実施形態では、テラヘルツ画像取得部101は、検出対象人物から放出されるテラヘルツ波を受信するパッシブ方式を用いているが、検出対象人物に対してテラヘルツ波を照射しかつ検出対象人物で反射したテラヘルツ波を受信するアクティブ方式を用いることも可能である。また、本実施形態では、監視システムは、テラヘルツ画像取得部101の設置位置の外気温を、人物から放出されるテラヘルツ波の受信精度が高くなる所定の温度範囲(例えば、20℃前後)に保つ空調設備(例えば、冷却素子)を有していても良い。
In the present embodiment, the terahertz
可視化画像取得部102(第2画像取得部の一例)は、カメラ等で構成され、所定位置で反射した光を受光し、当該光の受光結果に基づいて、所定位置を画像化した画像(以下、可視化画像と言う。第2画像の一例)を取得する。人物検出部103は、可視化画像から、検出対象人物を検出する。 The visualized image acquisition unit 102 (an example of a second image acquisition unit) is configured by a camera or the like, receives light reflected at a predetermined position, and images an image of the predetermined position based on the light reception result (hereinafter referred to as “light”). This is called a visualized image, which is an example of a second image. The person detection unit 103 detects a detection target person from the visualized image.
画像処理部104は、テラヘルツ画像から、検出対象人物が所持する物体が検出し易くなるように、テラヘルツ画像に対して、フィルタリング処理等の画像処理を実行する。 The image processing unit 104 performs image processing such as filtering processing on the terahertz image so that an object held by the detection target person can be easily detected from the terahertz image.
物体検出部105は、画像処理を実行したテラヘルツ画像における、検出した検出対象人物に対応する位置(以下、人物位置と言う。第1位置の一例)から、検出対象人物が所持する物体を検出する。これにより、検出対象人物が動いていても、テラヘルツ画像における、検出対象人物の位置を高精度に特定できるので、所定位置において検出対象人物を止めることなく、テラヘルツ画像から、検出対象人物が所持する物体を検出できる。
The
また、画像処理部104は、検出対象人物が所持する比較的小さい物体(例えば、折り畳みナイフ)等が検出し易くなるように、テラヘルツ画像に対して、画像処理を実行する。これにより、検出対象人物が所持する比較的小さい物体も検出することができる。 The image processing unit 104 performs image processing on the terahertz image so that a relatively small object (for example, a folding knife) possessed by the person to be detected is easily detected. Thereby, a relatively small object possessed by the person to be detected can also be detected.
本実施形態では、物体検出部105は、画像処理を実行したテラヘルツ画像から、物体を検出しているが、これに限定するものではなく、画像処理を実行していないテラヘルツ画像(言い換えると、テラヘルツ画像取得部101により取得されたそのままのテラヘルツ画像)から、物体を検出しても良い。
In the present embodiment, the
物体分類部106(分類部の一例)は、検出した物体が所定物体であるか否かを判断する分類処理を実行する。ここで、所定物体は、所定位置の通過が禁止されている物体である。検出物体データベース107は、所定物体の分類毎の画像(以下、モデル画像と言う)を記憶する。本実施形態では、物体分類部106は、検出した物体が、検出物体データベース107のモデル画像と類似または一致した場合に、当該検出した物体が所定物体であると判断する。また、本実施形態では、物体分類部106は、検出した物体と類似または一致したモデル画像の分類を、検出した物体の分類として特定する。
The object classification unit 106 (an example of a classification unit) executes a classification process for determining whether or not the detected object is a predetermined object. Here, the predetermined object is an object that is prohibited from passing through a predetermined position. The detected object database 107 stores images (hereinafter referred to as model images) for each predetermined object classification. In the present embodiment, the
表示部108は、物体分類部106による分類処理の実行結果、および当該実行結果に基づく、検出した物体の警報レベルを表示する。本実施形態では、表示部108は、検出した物体が所定物体であると判断した場合、検出した物体の分類に応じて、警報レベルを変更する。また、本実施形態では、表示部108は、分類処理の実行結果および警報レベルに加えて、テラヘルツ画像および可視化画像を表示する。
The
次に、図2を用いて、本実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例について説明する。図2は、第1の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。 Next, with reference to FIG. 2, an example of the flow of the object classification process carried by the person to be detected in the monitoring system according to the present embodiment will be described. FIG. 2 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a detection target person in the monitoring system according to the first embodiment.
テラヘルツ画像取得部101は、予め設定された周期で、検出対象人物から放出されるテラヘルツ波を受信し、当該テラヘルツ波の受信結果に基づいて、テラヘルツ画像を取得する(ステップS201)。可視化画像取得部102は、テラヘルツ画像取得部101によるテラヘルツ波の受信に同期して、検出対象人物で反射した光を受光し、当該光の受光結果に基づいて、可視化画像を取得する(ステップS201)。
The terahertz
画像処理部104は、テラヘルツ画像に対して、平滑化処理、二値化処理、膨張収縮処理等の画像処理を実行して、テラヘルツ画像を、当該テラヘルツ画像に含まれる物体を強調した画像に変換する(ステップS202)。人物検出部103は、可視化画像から、検出対象人物を検出する(ステップS203)。本実施形態では、人物検出部103は、複数の人物の画像それぞれにおける矩形領域の画像を平均化した画像をテンプレート(以下、人物テンプレートと言う)として作成する。そして、人物検出部103は、可視化画像内において、人物テンプレートを平行移動、回転、または拡大縮小しながら、当該可視化画像において人物テンプレートとの輝度値の差分が最も小さい位置を、検出対象人物として検出する。 The image processing unit 104 performs image processing such as smoothing processing, binarization processing, and expansion / contraction processing on the terahertz image, and converts the terahertz image into an image in which an object included in the terahertz image is emphasized. (Step S202). The person detection unit 103 detects a detection target person from the visualized image (step S203). In the present embodiment, the person detection unit 103 creates an image obtained by averaging rectangular images in a plurality of person images as a template (hereinafter referred to as a person template). Then, the person detection unit 103 detects, as a detection target person, the position where the difference in luminance value with the person template is the smallest in the visualized image while the person template is translated, rotated, or enlarged / reduced in the visualized image. To do.
物体検出部106は、画像処理を実行したテラヘルツ画像内の人物位置から、検出対象人物が所持する物体を検出する(ステップS204)。これにより、検出対象人物が動いていても、テラヘルツ画像における、検出対象人物の位置を高精度に特定できるので、所定位置において検出対象人物を止めることなく、テラヘルツ画像から、検出対象人物が所持する物体を検出できる。ここで、人物位置は、テラヘルツ画像において、検出した検出対象人物に対応する位置である。また、本実施形態では、物体検出部105は、二値化処理が実行されたテラヘルツ画像の人物位置において、同じ画素値を持つ連続する画素に対して同じラベルを設定する。そして、物体検出部105は、テラヘルツ画像の人物位置において、ラベルが設定された領域のうち、予め設定された大きさより小さい孤立領域を、検出対象人物が所持する物体として検出する。
The
物体分類部106は、物体検出部105によって、検出対象人物が所持する物体が検出されたか否かを判断する(ステップS205)。検出対象人物が所持する物体が検出されなかった場合(ステップS205:No)、ステップS201に戻り、テラヘルツ画像取得部101および可視化画像取得部102は、新たなテラヘルツ画像および可視化画像を取得する。
The
一方、検出対象人物が所持する物体が検出された場合(ステップS205:Yes)、物体分類部106は、検出した物体毎に、当該物体が所定物体であるか否かを判断する分類処理を実行する(ステップS206)。本実施形態では、物体分類部106は、検出した全ての物体について、分類処理を繰り返す。また、表示部108は、物体分類部106による分類処理の実行結果、および当該実行結果に基づく、検出した物体の警報レベルを表示する(ステップS206)。
On the other hand, when an object possessed by the person to be detected is detected (step S205: Yes), the
具体的には、物体分類部106は、検出した物体と、検出物体データベース107に記憶される各モデル画像との類似度を算出する。そして、物体分類部106は、検出した物体と、少なくとも1つのモデル画像との類似度が予め設定された類似度以上である場合、当該検出した物体が所定物体であると判断する。物体分類部106は、検出した物体と複数のモデル画像との類似度が予め設定された類似度以上である場合、当該複数のモデル画像のうち、検出した物体との類似度が最も高いモデル画像の分類を、当該検出した物体の分類として特定する。または、物体分類部106は、テラヘルツ画像を入力としかつ検出した物体の分類を出力する分類方法を、深層学習等を用いて構築し、当該分類方法を用いて、検出した物体の分類を特定しても良い。
Specifically, the
次に、図3を用いて、本実施形態にかかる監視システムにおいて警報レベルを表示する処理の流れの一例について説明する。図3は、第1の実施形態にかかる監視システムにおいて警報レベルを表示する処理の流れの一例を示すフローチャートである。 Next, an example of a processing flow for displaying an alarm level in the monitoring system according to the present embodiment will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of a flow of processing for displaying an alarm level in the monitoring system according to the first embodiment.
表示部108は、検出した物体の分類の信頼度を取得する(ステップS301)。ここで、信頼度は、検出した物体の分類の信頼性の度合いである。本実施形態では、信頼度は、検出した物体とモデル画像との類似度が高くなるに従って、高くなる。次いで、表示部108は、取得した信頼度が予め設定された閾値Rより大きいか否かを判断する(ステップS302)。そして、取得した信頼度が閾値Rより大きい場合(ステップS302:Yes)、表示部108は、検出した物体の警報レベルを、警報レベル:「3」とし、当該警報レベル:「3」を表示する(ステップS303)。本実施形態では、警報レベルは、検出した物体の危険度が大きくなるに従って、高くなる。
The
一方、取得した信頼度が閾値R以下である場合(ステップS302:No)、表示部108は、人物位置における、検出した物体の位置が、検出対象人物が着用する衣服のポケット領域などの所定位置であるか否かを判断する(ステップS304)。検出した物体の位置が所定位置であると判断した場合(ステップS304:Yes)、表示部108は、検出した物体の警報レベルを、警報レベル:「1」とし、当該警報レベル:「1」を表示する(ステップS305)。一方、検出した物体の位置が所定位置以外であると判断した場合(ステップS304:No)、表示部108は、検出した物体の警報レベルを、警報レベル:「2」とし、当該警報レベル:「2」を表示する(ステップS306)。すなわち、表示部108は、人物位置における、検出した物体の位置(第2位置の一例)に基づいて、警報レベルを変更する。
On the other hand, when the acquired reliability is equal to or less than the threshold value R (step S302: No), the
検出した物体の位置が所定位置以外であると判断した場合の警報レベルを、検出した物体の位置が所定位置であると判断した場合の警報レベルより高くしているのは、検出対象人物が所定物体を意図して隠蔽している可能性が高いと仮定できるからである。また、表示部108は、検出した物体の分類および検出した物体の位置(例えば、ポケット領域)の少なくとも一方に基づいて、警報レベルを細分化して表示しても良い。
The alarm level when it is determined that the position of the detected object is other than the predetermined position is higher than the alarm level when it is determined that the position of the detected object is the predetermined position. This is because it can be assumed that there is a high possibility that the object is intentionally concealed. Further, the
次に、図4を用いて、本実施形態にかかる監視システムによる警報レベルの表示例について説明する。図4は、第1の実施形態にかかる監視システムによる警報レベルの表示例を示す図である。 Next, a display example of an alarm level by the monitoring system according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating a display example of an alarm level by the monitoring system according to the first embodiment.
図4に示すように、表示部108は、可視化画像401、所定位置(例えば、ポケット領域)を表すポケット領域画像402、テラヘルツ画像403、検出した物体の画像である物体画像404、検出した物体の位置がポケット領域内であるか否かの判断結果405(検出した物体の位置がポケット内にある場合:「〇」、検出した物体の位置がポケット以外である場合:「×」)、検出した物体の分類結果406、当該分類結果の信頼度407、および警報レベル408を含む画面を表示する。
As illustrated in FIG. 4, the
本実施形態では、ポケット領域画像402は、画像処理部104によって画像処理を実行したテラヘルツ画像に対して、ポケットの画像を重畳した画像である。また、表示部108は、警報レベル408に応じて、当該警報レベル408を表す文字の表示態様(例えば、色、アニメーション)を変更しても良い。また、表示部108は、警報レベル408に応じて、警報レベル408を通知する音声を出力しても良い。
In the present embodiment, the
このように、第1の実施形態にかかる監視システムによれば、テラヘルツ画像内において、可視化画像に基づいて特定した人物位置から、検出対象人物が所持する物体を検出することにより、検出対象人物が動いていても、テラヘルツ画像における、検出対象人物の位置を高精度に特定できるので、所定位置において検出対象人物を止めることなく、テラヘルツ画像から、検出対象人物が所持する物体を検出できる。 As described above, according to the monitoring system according to the first embodiment, the detection target person is detected by detecting an object possessed by the detection target person from the person position specified based on the visualized image in the terahertz image. Even if the object is moving, the position of the person to be detected in the terahertz image can be specified with high accuracy. Therefore, the object possessed by the person to be detected can be detected from the terahertz image without stopping the person to be detected at the predetermined position.
(第2の実施形態)
本実施形態は、動画像を構成するフレームとしての可視化画像間において検出対象人物を追跡し、追跡中の同一の検出対象人物の人物位置から検出される物体について分類処理を実行する例である。以下の説明では、第1の実施形態と同様の構成については説明を省略する。
(Second Embodiment)
The present embodiment is an example in which a detection target person is tracked between visualized images as frames constituting a moving image, and classification processing is executed on an object detected from the person position of the same detection target person being tracked. In the following description, description of the same configuration as that of the first embodiment is omitted.
図5は、第2の実施形態にかかる監視システムの構成の一例を示す図である。図5に示すように、本実施形態にかかる監視システムは、テラヘルツ画像取得部101、可視化画像取得部102、人物検出部103、画像処理部104、物体検出部105、物体分類部106、検出物体データベース107、および表示部108に加えて、人物追跡部501を有する。
FIG. 5 is a diagram illustrating an example of a configuration of a monitoring system according to the second embodiment. As shown in FIG. 5, the monitoring system according to the present embodiment includes a terahertz
人物追跡部501は、動画像の可視化画像を構成するフレーム間において、人物検出部103により検出される検出対象人物を追跡する。そして、物体分類部106は、追跡中の同一の検出対象人物の人物位置から検出された物体について分類処理を実行する。これにより、異なる検出対象人物の人物位置から検出される物体について分類処理が行われることを防止できるので、検出した物体の分類の精度を向上させることができる。その際、物体分類部106は、追跡中の同一の検出対象人物の人物位置から検出された物体同士を比較して、当該物体に含まれるノイズの除去、および当該物体に含まれる特徴の統合の少なくとも一方を実行しても良い。
The
また、物体検出部105は、動画像のテラヘルツ画像を構成するフレーム間において、人物位置から、同一の物体を追跡しても良い。この場合、物体分類部106は、追跡中の同一の検出対象人物の人物位置から検出された物体のうち、同一の物体として追跡された物体毎に分類処理を実行する。これにより、異なる物体が同一の物体として分類処理が行われることを防止できるので、検出した物体の分類の精度を向上させることができる。具体的には、物体検出部105は、フレーム間において物体が検出される矩形領域の移動量が所定量以下でありかつテラヘルツ画像間における矩形領域の類似度が予め設定された類似度以上の物体を、同一の物体として追跡する。
Further, the
次に、図6を用いて、本実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例について説明する。図6は、第2の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。 Next, with reference to FIG. 6, an example of a flow of classification processing of an object possessed by a person to be detected in the monitoring system according to the present embodiment will be described. FIG. 6 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a person to be detected in the monitoring system according to the second embodiment.
本実施形態では、人物追跡部501は、動画像の可視化画像を構成するフレーム間において、人物検出部103により検出される検出対象人物を追跡する(ステップS601)。具体的には、人物追跡部501は、フレーム間において検出対象人物が検出される矩形領域の移動量が所定量以下でありかつフレーム間における矩形領域の類似度が予め設定された類似度以上の検出対象人物を、同一の検出対象人物として追跡する。
In the present embodiment, the
物体分類部106は、同一の検出対象人物の追跡が終了したか否かを判断する(ステップS602)。同一の検出対象人物の追跡が終了していないと判断した場合(ステップS602:No)、ステップS201に戻り、テラヘルツ画像取得部101および可視化画像取得部102は、テラヘルツ画像および可視化画像の取得を継続する。
The
一方、同一の検出対象人物の追跡が終了したと判断した場合(ステップS602:Yes)、物体分類部106は、物体検出部105によって、検出対象人物が所持する物体が検出されたか否かを判断する(ステップS205)。そして、検出対象人物が所持する物体が検出された場合(ステップS205:Yes)、物体分類部106は、同一の検出対象人物の人物位置から検出された物体について分類処理を実行する(ステップS603)。これにより、異なる検出対象人物の人物位置から検出された物体について分類処理が実行されることを防止できるので、テラヘルツ画像から検出された物体の分類処理の精度を向上させることができる。
On the other hand, when it is determined that the tracking of the same detection target person has ended (step S602: Yes), the
その際、物体分類部106は、同一の検出対象人物の人物位置から検出された物体を比較して(例えば、物体の画像の大きさや形状等を比較して)、当該物体に含まれるノイズの除去、および当該物体に含まれる特徴の統合の少なくとも一方を実行した上で、当該物体について分類処理を実行する。
At that time, the
その際、物体分類部106は、同一の物体として追跡された物体を比較しても良い。これにより、異なる物体に基づいて、物体に含まれるノイズの除去、および当該物体に含まれる特徴の統合が実行されることを防止できるので、テラヘルツ画像から検出された物体が所定物体であるか否かを判断する分類処理の精度をさらに、向上させることができる。
At that time, the
このように、第2の実施形態にかかる監視システムによれば、同一の検出対象人物の人物位置から検出された物体について分類処理を実行することにより、異なる検出対象人物の人物位置から検出された物体について分類処理が行われることを防止できるので、テラヘルツ画像から検出された物体の分類処理の精度を向上させることができる。 As described above, according to the monitoring system according to the second embodiment, the object detected from the person position of the same detection target person is detected from the person position of the different detection target person by executing the classification process. Since the classification process can be prevented from being performed on the object, the accuracy of the classification process of the object detected from the terahertz image can be improved.
(第3の実施形態)
本実施形態は、可視化画像に基づいて、検出対象人物が着用する衣類を検出し、当該検出した衣類のポケットの位置を推定し、検出した物体の位置が、人物位置における、推定したポケットの位置以外の不審位置である場合、警報レベルを上げる例である。以下の説明では、上述の実施形態と同様の箇所については説明を省略する。
(Third embodiment)
The present embodiment detects clothing worn by a person to be detected based on the visualized image, estimates the position of the pocket of the detected clothing, and the position of the detected object is the estimated pocket position in the person position. This is an example of raising the alarm level when the position is a suspicious position other than. In the following description, description of the same parts as those in the above-described embodiment will be omitted.
図7は、第3の実施形態にかかる監視システムの構成の一例を示す図である。図7に示すように、本実施形態にかかる監視システムは、テラヘルツ画像取得部101、可視化画像取得部102、人物検出部103、画像処理部104、物体検出部105、物体分類部106、検出物体データベース107、表示部108、および人物追跡部501に加えて、衣類分類部701および衣類データベース702を有する。
FIG. 7 is a diagram illustrating an example of a configuration of a monitoring system according to the third embodiment. As shown in FIG. 7, the monitoring system according to the present embodiment includes a terahertz
衣類データベース702は、人物が着用する衣類の画像(以下、衣類モデルと言う)と、当該衣類が有するポケットの位置とを対応付けて記憶する。衣類分類部701(衣類検出部の一例)は、可視化画像に基づいて、検出対象人物が着用する衣類を検出する。本実施形態では、衣類分類部701は、同一の検出対象人物の追跡が終わる度に、当該検出対象人物から、衣類を検出する。また、衣類分類部701は、検出した衣類が有するポケットの位置(第3位置の一例)を推定する。本実施形態では、衣類分類部701は、衣類データベース702において、検出した衣類の衣類モデルと対応付けられたポケットの位置を、当該検出した衣類が有するポケットの位置と推定する。そして、表示部108は、検出した物体の位置がポケットの位置以外の位置である場合、警報レベルを上げる。これにより、検出対象人物が意図的に物体を隠している可能性が高い場合に警報レベルを上げることができるので、検出対象人物が所持する物体に応じてより適切な警報レベルを表示することができる。
The clothing database 702 stores an image of clothing worn by a person (hereinafter referred to as a clothing model) and a pocket position of the clothing in association with each other. The clothing classification unit 701 (an example of a clothing detection unit) detects clothing worn by the detection target person based on the visualized image. In the present embodiment, the clothing classification unit 701 detects clothing from the detection target person every time tracking of the same detection target person ends. In addition, the clothing classification unit 701 estimates the position of the pocket of the detected clothing (an example of the third position). In the present embodiment, the clothing classification unit 701 estimates the position of the pocket associated with the clothing model of the detected clothing in the clothing database 702 as the position of the pocket of the detected clothing. The
次に、図8および図9を用いて、本実施形態にかかる監視システムが有するテラヘルツ画像取得部101および可視化画像取得部102の配置例について説明する。図8は、第3の実施形態にかかる監視システムのテラヘルツ画像取得部および可視化画像取得部の配置位置の一例を上方から見た図である。図9は、第3の実施形態にかかる監視システムのテラヘルツ画像取得部および可視化画像取得部の配置位置の一例を側方から見た図である。
Next, an arrangement example of the terahertz
本実施形態では、監視システムは、図8および図9に示すように、テラヘルツ画像取得部101および可視化画像取得部102をそれぞれ4つ有する。具体的には、監視システムは、図8に示すように、所定位置Pを通過する検出対象人物の進行方向において、上流側および下流側それぞれに2つずつテラヘルツ画像取得部101および可視化画像取得部102を有する。
In the present embodiment, the monitoring system includes four terahertz
上流側の2つのテラヘルツ画像取得部101は、図8および図9に示すように、所定位置Pを挟んで水平方向に離間して設けられ、かつ検出対象人物を正面から見たテラヘルツ画像が取得されるように設けられる。下流側の2つのテラヘルツ画像取得部101は、図8および図9に示すように、所定位置Pを挟んで水平方向に離間して設けられ、かつ検出対象人物を背面から見たテラヘルツ画像が取得されるように設けられる。
As shown in FIGS. 8 and 9, the two upstream terahertz
上流側の2つの可視化画像取得部102は、図8および図9に示すように、所定位置Pを挟んで水平方向に離間して設けられ、かつ検出対象人物を正面から見た可視化画像が取得されるように設けられる。下流側の2つの可視化画像取得部102は、図8および図9に示すように、所定位置Pを挟んで水平方向に離間して設けられ、かつ検出対象人物を背面から見た可視化画像が取得されるように設けられる。
As shown in FIGS. 8 and 9, the two upstream visualized
また、テラヘルツ画像取得部101および可視化画像取得部102は、所定位置Pを通過する検出対象人物の上方に設けられ、検出対象人物の前後に存在する人物によって、テラヘルツ画像および可視化画像に含まれる検出対象人物が隠れ難い角度で設置される。これにより、検出対象人物の全身の画像を含むテラヘルツ画像および可視化画像を取得することが可能となる。
Further, the terahertz
次に、図10を用いて、本実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例について説明する。図10は、第3の実施形態にかかる監視システムにおける検出対象人物が所持する物体の分類処理の流れの一例を示すフローチャートである。 Next, an example of a flow of classification processing of an object possessed by a person to be detected in the monitoring system according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of a flow of classification processing of an object possessed by a detection target person in the monitoring system according to the third embodiment.
本実施形態では、監視システムは、テラヘルツ画像取得部101を複数有するため、各テラヘルツ画像取得部101により取得される各テラヘルツ画像について、ステップS202、およびステップS204に示す処理を並行して実行する。若しくは、監視システムは、上流側の2つのテラヘルツ画像取得部101により取得されるテラヘルツ画像の特徴を統合したテラヘルツ画像、または下流側2つのテラヘルツ画像取得部101により取得されるテラヘルツ画像の特徴を統合したテラヘルツ画像について、ステップS202、およびステップS204に示す処理を実行しても良い。
In this embodiment, since the monitoring system has a plurality of terahertz
また、監視システムは、可視化画像取得部102を複数有するため、各可視化画像取得部102により取得される各可視化画像に対して、ステップS203、およびステップS601〜602に示す処理を並行して実行する。若しくは、監視システムは、上流側の2つの可視化画像取得部102により取得される可視化画像の特徴を統合した可視化画像、または下流側2つの可視化画像取得部102により取得される可視化画像の特徴を統合した可視化画像について、ステップS203、およびステップS601〜602に示す処理を実行しても良い。
In addition, since the monitoring system includes a plurality of visualized
本実施形態では、検出対象人物が所持する物体が検出された場合(ステップS205:Yes)、衣類分類部701は、衣類データベース702に記憶される衣類モデルを用いて、同一の検出対象人物から、衣類を検出する(ステップS1001)。そして、衣類分類部701は、衣類データベース702において、検出した衣類の衣類モデルと対応付けられるポケットの位置を、検出した衣類が有するポケットの位置と推定する。次いで、表示部108は、検出した物体の位置および推定したポケットの位置に基づいて、警報レベルを表示する(ステップS1002)。
In the present embodiment, when an object possessed by the detection target person is detected (step S205: Yes), the clothing classification unit 701 uses the clothing model stored in the clothing database 702, from the same detection target person. Cloth is detected (step S1001). Then, clothing classification unit 701 estimates the position of the pocket associated with the clothing model of the detected clothing in clothing database 702 as the position of the pocket of the detected clothing. Next, the
次に、図11を用いて、本実施形態にかかる監視システムにおける警報レベルを表示する処理の流れの一例について説明する。図11は、第3の実施形態にかかる監視システムにおける警報レベルを表示する処理の流れの一例を示すフローチャートである。 Next, an example of a flow of processing for displaying an alarm level in the monitoring system according to the present embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a flow of processing for displaying an alarm level in the monitoring system according to the third embodiment.
表示部108は、検出した物体の分類の信頼度を取得する(ステップS301)。本実施形態では、物体分類部106は、検出した物体の分類を所定物体の分類だけでなく、スマートフォンや財布などの所定物体以外の物体の分類にも分類するものとする。次いで、表示部108は、取得した信頼度が閾値Rより大きいか否かを判断する(ステップS302)。そして、取得した信頼度が閾値Rより大きい場合(ステップS302:Yes)、表示部108は、検出した物体が所定物体か否かを判断する(ステップS1101)。
The
検出した物体が所定物体である場合(ステップS1101:Yes)、表示部108は、検出した物体の警報レベルを、警報レベル:「3」とし、当該警報レベル:「3」を表示する(ステップS303)。一方、検出した物体が所定物体以外の物体である場合(ステップS1101:No)、表示部108は、警報レベルを表示しない(ステップS1102)。
When the detected object is a predetermined object (step S1101: Yes), the
また、取得した信頼度が閾値R以下である場合(ステップS302:No)、表示部108は、人物位置における、検出した物体の位置が、推定したポケットの位置以外の不審位置内か否かを判断する(ステップS1103)。検出した物体の位置が不審位置外である場合(ステップS1103:No)、表示部108は、検出した物体の警報レベルを、警報レベル:「1」とし、当該警報レベル:「1」を表示する(ステップS1104)。一方、検出した物体の位置が不審位置内である場合(ステップS1103:Yes)、表示部108は、検出した物体の警報レベルを、警報レベル:「2」とし、当該警報レベル:「2」を表示する(ステップS1105)。これにより、検出対象人物が意図的に物体を隠している可能性が高い場合に警報レベルを上げることができるので、検出対象人物が所持する物体に応じてより適切な警報レベルを表示することができる。また、検出対象人物の入退出を管理する管理者が、警報レベルを判断する必要が無くなるので、警備リソースの省力化を図ることができる。
If the acquired reliability is equal to or less than the threshold value R (step S302: No), the
次に、図12および図13を用いて、本実施形態にかかる監視システムによる警報レベルの表示例について説明する。図12および図13は、第3の実施形態にかかる監視システムによる警報レベルの表示例を示す図である。 Next, display examples of alarm levels by the monitoring system according to the present embodiment will be described with reference to FIGS. 12 and 13 are diagrams illustrating examples of alarm level display by the monitoring system according to the third embodiment.
図12に示すように、表示部108は、上流側の可視化画像取得部102により取得される可視化画像401、ポケット領域画像402、上流側のテラヘルツ画像取得部101により取得されるテラヘルツ画像403、テラヘルツ画像403に対してポケット領域画像402を重畳した重畳画像1201、物体画像404、判断結果405、分類結果406、信頼度407、および警報レベル408を含む画面を表示する。また、表示部108は、下流側の可視化画像取得部102により取得される可視化画像401、ポケット領域画像402、下流側のテラヘルツ画像取得部101により取得されるテラヘルツ画像403、テラヘルツ画像403に対してポケット領域画像402を重畳した重畳画像1201、物体画像404、判断結果405、分類結果406、信頼度407、および警報レベル408を含む画面を表示する。
As illustrated in FIG. 12, the
または、図13に示すように、表示部108は、ポケット領域画像402に代えて、不審位置を表す不審位置画像1301を表示し、かつテラヘルツ画像403に対してポケット領域画像402を重畳した重畳画像1201に代えて、テラヘルツ画像403に対して不審位置画像1301を重畳した重畳画像1302を表示しても良い。
Alternatively, as illustrated in FIG. 13, the
本実施形態では、表示部108は、衣類データベース702を用いて、検出した衣類が有するポケットの位置を推定しているが、これに限定するものではなく、テラヘルツ画像および可視化画像の少なくとも一方に基づいて、検出した衣類が有するポケットの位置を推定しても良い。
In the present embodiment, the
このように、第3の実施形態にかかる監視システムによれば、検出対象人物が意図的に物体を隠している可能性が高い場合に警報レベルを上げることができるので、検出対象人物が所持する物体に応じてより適切な警報レベルを表示することができる。 Thus, according to the monitoring system according to the third embodiment, the alarm level can be increased when the detection target person has a high possibility of intentionally hiding the object, so the detection target person possesses it. A more appropriate alarm level can be displayed according to the object.
また、本実施形態にかかる監視システムを複数の地点(所定位置)に設置し、警報レベルが所定の警報レベル(例えば、警報レベル:「2」)以上の警報レベルの検出対象人物を、記憶部に保存しても良い。これにより、各地点の監視システムで検出された検出対象人物と、記憶部に記憶された検出対象人物とを照合することにより、要注意人物を追跡することが可能となる。また、各地点の監視システムで検出された検出対象人物と、記憶部に記憶された検出対象人物との照合に成功した場合、閾値Rや警報レベルを上げる処理を行い、要注意人物が所持する物体の分類処理を、一般の検出対象人物が所持する物体の分類処理と異ならせても良い。 Further, the monitoring system according to the present embodiment is installed at a plurality of points (predetermined positions), and a detection target person whose alarm level is a predetermined alarm level (for example, alarm level: “2”) or higher is stored in the storage unit. You may save it. Accordingly, it is possible to track a person requiring attention by comparing the detection target person detected by the monitoring system at each point with the detection target person stored in the storage unit. In addition, when the detection target person detected by the monitoring system at each point is successfully matched with the detection target person stored in the storage unit, processing to increase the threshold R and the alarm level is performed, and the person who needs attention is possessed. The object classification process may be different from the object classification process carried by a general person to be detected.
以上説明したとおり、第1から第3の実施形態によれば、所定位置において検出対象人物を止めることなく、テラヘルツ画像から、検出対象人物が所持する物体を検出できる。 As described above, according to the first to third embodiments, an object held by a detection target person can be detected from a terahertz image without stopping the detection target person at a predetermined position.
なお、本実施形態の監視システムで実行されるプログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。本実施形態の監視システムで実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。 The program executed by the monitoring system of this embodiment is provided by being incorporated in advance in a ROM (Read Only Memory) or the like. A program executed in the monitoring system of the present embodiment is an installable or executable file and is read by a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). You may comprise so that it may record on a possible recording medium and provide.
さらに、本実施形態の監視システムで実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の監視システムで実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Furthermore, the program executed by the monitoring system of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program executed in the monitoring system of the present embodiment may be provided or distributed via a network such as the Internet.
本実施形態の監視システムで実行されるプログラムは、上述した各部(人物検出部103、画像処理部104、物体検出部105、物体分類部106、人物追跡部501、および衣類分類部701)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、人物検出部103、画像処理部104、物体検出部105、物体分類部106、人物追跡部501、および衣類分類部701が主記憶装置上に生成されるようになっている。
The program executed by the monitoring system of the present embodiment includes the above-described units (person detection unit 103, image processing unit 104, object
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
101 テラヘルツ画像取得部
102 可視化画像取得部
103 人物検出部
104 画像処理部
105 物体検出部
106 物体分類部
107 検出物体データベース
108 表示部
501 人物追跡部
701 衣類分類部
702 衣類データベース
DESCRIPTION OF
Claims (5)
前記所定位置で反射した光を受光し、当該光の受光結果に基づいて、前記所定位置を画像化した第2画像を取得する第2画像取得部と、
前記第2画像から、前記人物を検出する人物検出部と、
前記第1画像における前記検出した人物に対応する第1位置から、前記人物が所持する物体を検出する物体検出部と、
前記検出した物体が所定物体であるか否かを判断する分類処理を実行する分類部と、
前記分類処理の実行結果、および当該実行結果に基づく前記検出した物体の警報レベルを表示する表示部と、
を備える監視システム。 A first image acquisition unit that receives a terahertz wave emitted from a person passing through a predetermined position and acquires a first image obtained by imaging the predetermined position based on a reception result of the terahertz wave;
A second image acquisition unit that receives the light reflected at the predetermined position and acquires a second image obtained by imaging the predetermined position based on a light reception result of the light;
A person detecting unit for detecting the person from the second image;
An object detection unit for detecting an object possessed by the person from a first position corresponding to the detected person in the first image;
A classification unit that executes a classification process for determining whether the detected object is a predetermined object;
A display unit for displaying an execution result of the classification process and an alarm level of the detected object based on the execution result;
A monitoring system comprising:
前記分類部は、追跡中の同一の前記人物の前記第1位置から検出された前記物体について前記分類処理を実行する請求項1または2に記載の監視システム。 A person tracking unit that tracks the person between frames constituting the second image of the moving image;
The monitoring system according to claim 1, wherein the classification unit performs the classification process on the object detected from the first position of the same person being tracked.
前記分類部は、追跡中の同一の前記物体として追跡された前記物体毎に前記分類処理を実行する請求項3に記載の監視システム。 The object detection unit further tracks the same object between frames constituting the first image of the moving image,
The monitoring system according to claim 3, wherein the classification unit executes the classification process for each of the objects tracked as the same object being tracked.
前記表示部は、前記第2位置が、前記第1位置における前記第3位置に対応する位置以外の位置である場合、前記警報レベルを上げる請求項2に記載の監視システム。
A clothing detector for detecting clothing worn by the person based on the second image and estimating a third position of the pocket of the detected clothing;
The monitoring system according to claim 2, wherein the display unit increases the alarm level when the second position is a position other than the position corresponding to the third position in the first position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017054894A JP2018156586A (en) | 2017-03-21 | 2017-03-21 | Monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017054894A JP2018156586A (en) | 2017-03-21 | 2017-03-21 | Monitoring system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018156586A true JP2018156586A (en) | 2018-10-04 |
Family
ID=63715693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017054894A Pending JP2018156586A (en) | 2017-03-21 | 2017-03-21 | Monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018156586A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109917480A (en) * | 2019-03-21 | 2019-06-21 | 安徽启路达光电科技有限公司 | A kind of active Terahertz safety check apparatus |
CN110007360A (en) * | 2019-05-07 | 2019-07-12 | 安徽启路达光电科技有限公司 | Convert channel formula Terahertz safe examination system |
CN113848193A (en) * | 2021-09-23 | 2021-12-28 | 上海亨临光电科技有限公司 | Passive terahertz human body security inspection image extraction method |
US11621788B2 (en) | 2020-03-03 | 2023-04-04 | Canon Kabushiki Kaisha | Terahertz wave camera system, entry/exit management apparatus, and method for controlling terahertz wave camera system |
WO2023058265A1 (en) * | 2021-10-04 | 2023-04-13 | パナソニックIpマネジメント株式会社 | Determination device and determination method |
US11808699B2 (en) | 2020-05-19 | 2023-11-07 | Canon Kabushiki Kaisha | Imaging system |
JP7434914B2 (en) | 2019-04-11 | 2024-02-21 | 富士通株式会社 | Pedestrian object detection device and method, electronic equipment |
JP7455611B2 (en) | 2019-03-14 | 2024-03-26 | キヤノン株式会社 | processing system |
JP7467434B2 (en) | 2019-05-14 | 2024-04-15 | 太陽誘電株式会社 | Security Systems |
-
2017
- 2017-03-21 JP JP2017054894A patent/JP2018156586A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7455611B2 (en) | 2019-03-14 | 2024-03-26 | キヤノン株式会社 | processing system |
CN109917480A (en) * | 2019-03-21 | 2019-06-21 | 安徽启路达光电科技有限公司 | A kind of active Terahertz safety check apparatus |
JP7434914B2 (en) | 2019-04-11 | 2024-02-21 | 富士通株式会社 | Pedestrian object detection device and method, electronic equipment |
CN110007360A (en) * | 2019-05-07 | 2019-07-12 | 安徽启路达光电科技有限公司 | Convert channel formula Terahertz safe examination system |
JP7467434B2 (en) | 2019-05-14 | 2024-04-15 | 太陽誘電株式会社 | Security Systems |
US11621788B2 (en) | 2020-03-03 | 2023-04-04 | Canon Kabushiki Kaisha | Terahertz wave camera system, entry/exit management apparatus, and method for controlling terahertz wave camera system |
US11808699B2 (en) | 2020-05-19 | 2023-11-07 | Canon Kabushiki Kaisha | Imaging system |
CN113848193A (en) * | 2021-09-23 | 2021-12-28 | 上海亨临光电科技有限公司 | Passive terahertz human body security inspection image extraction method |
WO2023058265A1 (en) * | 2021-10-04 | 2023-04-13 | パナソニックIpマネジメント株式会社 | Determination device and determination method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018156586A (en) | Monitoring system | |
JP6233624B2 (en) | Information processing system, information processing method, and program | |
US7825954B2 (en) | Multi-state target tracking | |
US10846537B2 (en) | Information processing device, determination device, notification system, information transmission method, and program | |
US10776931B2 (en) | Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium | |
US20190163966A1 (en) | Suspicious person detection device, suspicious person detection method, and program | |
US20180115749A1 (en) | Surveillance system and surveillance method | |
WO2018056355A1 (en) | Monitoring device | |
JP2018147160A (en) | Information processing device, information processing method, and program | |
US20140254863A1 (en) | Method for Detecting and Tracking Objects in Image Sequences of Scenes Acquired by a Stationary Camera | |
JP2009110152A (en) | Congestion estimation device | |
JP6436077B2 (en) | Image processing system, image processing method, and program | |
KR20070010352A (en) | Apparatus for tracing a moving object by mixing the video signals from multi sensors | |
Tripathi et al. | A framework for abandoned object detection from video surveillance | |
US20160210756A1 (en) | Image processing system, image processing method, and recording medium | |
JP6629139B2 (en) | Control device, control method, and program | |
JP2012191354A (en) | Information processing apparatus, information processing method, and program | |
US20210319229A1 (en) | System and method for determining object distance and/or count in a video stream | |
JP4999794B2 (en) | Still region detection method and apparatus, program and recording medium | |
US20200084416A1 (en) | Information processing apparatus, control method, and program | |
JP2014149716A (en) | Object tracking apparatus and method thereof | |
JP2010199865A (en) | Abnormality detection system, abnormality detection method, and abnormality detection program | |
JP6527183B2 (en) | Leftover object detection device | |
US20230044673A1 (en) | Detection device and control method of the same | |
KR101827114B1 (en) | Apparatus and method for detecting proximal entity in pen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20170911 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170912 |