JP7467434B2 - Security Systems - Google Patents
Security Systems Download PDFInfo
- Publication number
- JP7467434B2 JP7467434B2 JP2021519428A JP2021519428A JP7467434B2 JP 7467434 B2 JP7467434 B2 JP 7467434B2 JP 2021519428 A JP2021519428 A JP 2021519428A JP 2021519428 A JP2021519428 A JP 2021519428A JP 7467434 B2 JP7467434 B2 JP 7467434B2
- Authority
- JP
- Japan
- Prior art keywords
- processing unit
- data processing
- monitored space
- video
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 67
- 238000007689 inspection Methods 0.000 claims description 51
- 239000003550 marker Substances 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 10
- 238000009434 installation Methods 0.000 claims description 8
- 239000002131 composite material Substances 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000013459 approach Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000009466 transformation Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 208000027744 congestion Diseases 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000383 hazardous chemical Substances 0.000 description 2
- 206010040007 Sense of oppression Diseases 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000013056 hazardous product Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V3/00—Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
- G01V3/12—Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with electromagnetic waves
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Description
本発明の実施形態は、セキュリティシステムに関する。 An embodiment of the present invention relates to a security system.
近年、テロ防止などの目的で例えば空港などのハードターゲットにおけるセキュリティ対策の強化が進められている。従来のセキュリティ対策は、X線検査や目視による手荷物検査などが主流である。ここで問題となるのが、X線検査や目視による手荷物検査では一人ひとりの検査に時間がかかり、人の滞留や混雑を発生させてしまうことである。そこで、検査による人の滞留を緩和させるアプローチの一つとして、例えば特許文献1や非特許文献1に示すようなウォークスルータイプの危険物検知装置が提案されている。特に非特許文献1の危険物検知装置は移動式のため、比較的警備の薄いソフトターゲットを対象としたセキュリティ対策を強化するためにも有効な手段として期待されている。In recent years, security measures at hard targets such as airports have been strengthened for the purpose of preventing terrorism. Conventional security measures are mainly X-ray inspection and visual baggage inspection. The problem here is that X-ray inspection and visual baggage inspection take time to inspect each person, causing people to stagnate and become crowded. Therefore, as one approach to alleviate people from stagnation due to inspection, a walk-through type dangerous goods detection device as shown in Patent Document 1 and Non-Patent Document 1 has been proposed. In particular, the dangerous goods detection device in Non-Patent Document 1 is mobile, so it is expected to be an effective means of strengthening security measures for soft targets with relatively light security.
しかし、ウォークスルータイプの危険物検知装置は、一人ずつ順番にゲートを通過させて検査を行うため、一人ひとりの検査時間は短縮されるとしても、順番待ちによる混雑が発生する懸念がある。また、ウォークスルータイプの危険物検知装置では、ゲートを通過する人に対し検査が行われていることを意識させてしまうため、圧迫感を与えることになる。 However, walk-through type hazardous materials detection devices inspect people one by one through the gate, so even though the inspection time for each person is reduced, there are concerns that congestion will occur as people wait their turn. In addition, walk-through type hazardous materials detection devices make people who pass through the gate aware that they are being inspected, which creates a feeling of oppression.
本発明は、こうした実情に鑑みてなされたものであり、検査が行われていることを意識させずに同時に多くの人を対象とした検査を行うことができ、人に圧迫感を与えず、検査に伴う混雑を緩和できるセキュリティシステムを提供することを目的の一つとする。The present invention has been made in consideration of these circumstances, and one of its objectives is to provide a security system that can test many people at the same time without them being aware that testing is taking place, does not make people feel oppressed, and can alleviate the congestion that accompanies testing.
実施形態のセキュリティシステムは、複数のミリ波センサと、センサデータ処理部と、カメラと、映像データ処理部と、表示装置と、を備える。複数のミリ波センサは、複数の人が通行可能な監視対象空間を仕切る構造物の裏側に間隔を隔てて離散的に配置され、各々の検知範囲を統合した範囲が前記監視対象空間の全体を網羅する。センサデータ処理部は、前記複数のミリ波センサの出力データを合成した合成データに基づいて、前記監視対象空間内に存在する検査対象物の位置を検出する。カメラは、所定位置から前記監視対象空間を撮影する。映像データ処理部は、前記センサデータ処理部により検出される前記検査対象物の位置に対応する、前記カメラが撮影する映像上の位置にマーキングを施した映像を生成する。表示装置は、前記映像データ処理部が生成した映像を表示する。 A security system according to an embodiment includes a plurality of millimeter wave sensors, a sensor data processing unit, a camera, a video data processing unit, and a display device. The plurality of millimeter wave sensors are discretely arranged at intervals on the rear side of a structure that separates a monitored space through which a plurality of people can pass, and a combined range of the detection ranges of the sensors covers the entire monitored space . The sensor data processing unit detects a position of an object to be inspected that exists in the monitored space based on composite data obtained by combining output data of the plurality of millimeter wave sensors. The camera captures an image of the monitored space from a predetermined position. The video data processing unit generates an image in which a mark is applied to a position on the image captured by the camera that corresponds to the position of the object to be inspected detected by the sensor data processing unit. The display device displays the image generated by the video data processing unit.
以下、添付図面を参照しながら、本発明に係るセキュリティシステムの具体的な実施形態について詳細に説明する。本実施形態のセキュリティシステムは、複数の人が通行可能な空間を対象としてミリ波センサを用いた検査対象物の監視を行うシステムである。空間は、例えば、三次元空間である。以下、空間が三次元空間である場合を一例として説明する。監視の対象となる三次元空間(以下、これを「監視対象空間」と呼ぶ)は、例えば、空港などのテロの標的となり得る施設などに設定される。例えば本実施形態のセキュリティシステムを空港に導入する場合、空港ロビーからゲートのある保安区画に繋がるエリアなど、不特定多数の人が通過するエリアを監視対象空間として設定することが有効である。 Below, a specific embodiment of the security system according to the present invention will be described in detail with reference to the attached drawings. The security system of this embodiment is a system that monitors an object to be inspected using a millimeter wave sensor in a space through which multiple people can pass. The space is, for example, a three-dimensional space. Below, an example will be described in which the space is a three-dimensional space. The three-dimensional space to be monitored (hereinafter, this will be referred to as the "monitored space") is set, for example, in a facility that may be a target of terrorism, such as an airport. For example, when the security system of this embodiment is introduced in an airport, it is effective to set an area through which an unspecified number of people pass, such as an area that connects the airport lobby to a security area with a gate, as the monitored space.
本実施形態のセキュリティシステムによる監視対象空間は、空港に限らず、例えばショッピングモールやコンサート会場、学校、教会など、多くの人が集まる施設に設定してもよい。これらの施設もテロの標的となり易いので、本実施形態のセキュリティシステムを導入することの有用性が高い。テロ対策の用途で本実施形態のセキュリティシステムを導入する場合、検査対象物は、銃器、火器、刃物、爆発物などである。 The space monitored by the security system of this embodiment is not limited to airports, but may be set in facilities where many people gather, such as shopping malls, concert venues, schools, and churches. These facilities are also likely to become targets of terrorism, so the introduction of the security system of this embodiment is highly useful. When the security system of this embodiment is introduced for anti-terrorism purposes, the objects to be inspected are firearms, firearms, knives, explosives, etc.
その他、本実施形態のセキュリティシステムは、テロ対策以外にも、例えば企業活動が行われるオフィスビルなどにおける情報漏洩対策としても有効である。すなわち、企業活動が行われるオフィスビルなどにおいては、機密情報の漏洩を防止する目的で、カメラ付き携帯電話機やスマートフォンなどの持ち込みを禁止している場合がある。このとき、オフィスビルを訪問する全ての人を対象に手荷物検査などを行うと混雑を招く虞がある。そこで、企業活動が行われるオフィスビルに本実施形態のセキュリティシステムを導入し、オフィスビルのエントランスなどを監視対象空間として、カメラ付き携帯電話機やスマートフォンなどの持ち込みを監視することが有効となる。In addition to countering terrorism, the security system of this embodiment is also effective as a countermeasure against information leaks in, for example, office buildings where business activities are carried out. That is, in office buildings where business activities are carried out, the bringing in of camera-equipped mobile phones, smartphones, etc. may be prohibited in order to prevent the leakage of confidential information. In this case, there is a risk of congestion if baggage inspections are carried out on all people who visit the office building. Therefore, it is effective to introduce the security system of this embodiment into office buildings where business activities are carried out and monitor the bringing in of camera-equipped mobile phones, smartphones, etc. by using the entrances of the office buildings as monitored spaces.
本実施形態のセキュリティシステムは、検査対象物を正確に見つけ出すことを目的とするものではなく、検査対象物を所持していると疑われる人物を特定し、その人物を警備員などに伝えることを目的とする。検査対象物を所持していると疑われる人物を警備員に伝えることができれば、警備員がその人物を目視による身体検査や手荷物検査、X線検査などを行う場所に誘導し、その人物が実際に検査対象物を所持しているかどうかを詳細に検査することができる。この場合、検査対象物を所持していると疑われる人物以外は自由が拘束されず、例えば空港の保安区画などにそのまま入ることができる。このように、本実施形態のセキュリティシステムでは、監視対象空間に存在する複数の人を対象として簡易的な検査を行い、検査対象物を所持していると疑われる人物を特定してその人物のみを詳細検査に誘導させる構成であるため、従来技術で懸念される検査に伴う混雑を緩和することができる。The security system of this embodiment does not aim to accurately find the object to be inspected, but to identify a person suspected of possessing the object to be inspected and to inform the person of the person to a security guard or the like. If the person suspected of possessing the object to be inspected can be informed to the security guard, the security guard can guide the person to a place where a visual body inspection, baggage inspection, X-ray inspection, etc. will be performed, and a detailed inspection can be performed to see if the person actually possesses the object to be inspected. In this case, the freedom of people other than the person suspected of possessing the object to be inspected is not restricted, and they can enter the security area of an airport, for example. In this way, the security system of this embodiment is configured to perform a simple inspection of multiple people in the monitored space, identify a person suspected of possessing the object to be inspected, and guide only that person to a detailed inspection, so that the congestion associated with the inspection that is a concern in the conventional technology can be alleviated.
また、本実施形態のセキュリティシステムは、上述の監視対象空間を仕切る壁面パネルや天井パネルなどの構造物の裏側に複数のミリ波センサを離散的に配置し、これら複数のミリ波センサの出力データを用いて監視対象空間の監視を行う構成である。このため、監視対象空間内に存在する人に対し検査が行われていることを意識させることがなく、圧迫感を与えることがない。以下では、例えば空港などの保安区画を有する施設において、保安区画に繋がるエリアを監視対象空間として設定した例を想定して、本実施形態のセキュリティシステムを詳しく説明する。 The security system of this embodiment is configured to place multiple millimeter wave sensors discretely behind structures such as wall panels and ceiling panels that separate the above-mentioned monitored space, and to monitor the monitored space using output data from these multiple millimeter wave sensors. This ensures that people in the monitored space are not made aware that an inspection is being conducted, and they do not feel oppressed. Below, the security system of this embodiment will be described in detail, assuming an example in which an area connected to a security zone in a facility with a security zone, such as an airport, is set as the monitored space.
図1および図2は、本実施形態のセキュリティシステムの利用例を説明する図であり、図1は、セキュリティシステムが導入された施設の平面図、図2は、図1のA-A線に沿った縦断面図である。図1および図2に示す例では、監視対象空間100が、施設の保安区画110に繋がるエリアに設定されている。保安区画110とは、安全性を確保するために警備員200が滞在する区画である。
Figures 1 and 2 are diagrams illustrating an example of the use of the security system of this embodiment, with Figure 1 being a plan view of a facility in which the security system has been installed, and Figure 2 being a longitudinal cross-sectional view taken along line A-A in Figure 1. In the example shown in Figures 1 and 2, the monitored
監視対象空間100の境界となる壁面パネル101や天井パネル102などの構造物の裏側には、複数のミリ波センサ10が離散的に配置されている。ミリ波センサ10は、例えば24GHz~100GHzなどの周波数帯の電波を前方に照射し、前方の物体で反射された反射波を受信した結果に基づいて、物体までの距離や角度、反射強度などの情報を取得するセンサである。なお、一般的にミリ波とは30GHz~300GHzの周波数帯の電磁波であるが、本実施形態ではミリ波に近いマイクロ波(24GHz以上)の電波を扱うものも含めてミリ波センサ10と呼ぶ。また、電波を照射せずに物体から放射されるミリ波を受信するパッシブ型のミリ波センサ10もあり、これを利用してもよいが、本実施形態では電波を照射して反射波を受信するアクティブ型のミリ波センサ10を用いることを想定する。A number of
複数のミリ波センサ10は、個々のセンサの検知範囲を統合することで監視対象空間100の全体を網羅する大きな検知範囲が生成されるように、監視対象空間100の境界となる壁面パネル101や天井パネル102などの構造物の裏側に離散的に配置されている。個々のミリ波センサ10の各々は、検知方向が監視対象空間100側を向くように壁面パネル101や天井パネル102の裏側に設置され、監視対象空間100内からはこれらミリ波センサ10を視認できないようになっている。なお、図1の破線の四角は、天井パネル102の裏側に設置されたミリ波センサ10の床面への投影位置を示している。The multiple
壁面パネル101や天井パネル102の裏側に設置するミリ波センサ10の個数は、監視対象空間100の大きさと個々のミリ波センサ10の検知範囲との関係から、個々のミリ波センサ10の検知範囲を統合することで監視対象空間100の全体を網羅できる数とすればよい。The number of
監視対象空間100と保安区画110との間には、図1に示すように、監視対象空間100を撮影する監視カメラ20と、この監視カメラ20の映像をベースに生成される後述の監視映像を表示する液晶ディスプレイなどの表示装置30とが設置されている。監視カメラ20は、カメラの一例である。監視映像は、映像の一例である。図1では、2つの監視カメラ20と2つの表示装置30が設置されている例を示しているが、監視カメラ20と表示装置30の数は任意である。As shown in Figure 1, between the monitored
表示装置30に表示される監視映像は、保安区画110内に滞在する警備員200によって参照される。警備員200がこの監視映像を参照し、検査対象物を所持していると疑われる人物を発見した場合、その人物が保安区画110に入る前にその人物を詳細検査エリア120へと誘導する。そして、この詳細検査エリア120にて、目視による身体検査や手荷物検査、X線検査などが行われる。The surveillance video displayed on the
図3は、本実施形態のセキュリティシステムの構成例を示すブロック図である。本実施形態のセキュリティシステムは、図3に示すように、上述の複数のミリ波センサ10、監視カメラ20および表示装置30のほかに、複数のミリ波センサ10の出力データを処理するセンサデータ処理部40と、監視カメラ20の映像データを処理する映像データ処理部50とを備える。複数のミリ波センサ10の各々は、光無線通信により出力データをセンサデータ処理部40へ送信する。すなわち、複数のミリ波センサ10の各々とプロセッサとは、光無線通信により通信可能に接続されている。監視カメラ20は、光無線通信により映像データを映像データ処理部50へ送信する。すなわち、監視カメラ20とプロセッサとは、光無線通信により通信可能に接続されている。
Figure 3 is a block diagram showing an example of the configuration of a security system of this embodiment. As shown in Figure 3, in addition to the multiple
センサデータ処理部40と映像データ処理部50は、プロセッサによって実現される機能部である。例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの汎用プロセッサが所定のプログラムを実行することにより、これらセンサデータ処理部40や映像データ処理部50を実現することができる。また、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの専用のプロセッサを用いてこれらセンサデータ処理部40や映像データ処理部50を実現してもよい。The sensor
センサデータ処理部40は、上述の複数のミリ波センサ10の出力データを合成した合成データに基づいて、監視対象空間100内に存在する検査対象物の位置を検出する。本実施形態では、センサデータ処理部40は、検査対象物の三次元位置を検出する場合を一例として説明する。センサデータ処理部40の構成例を図4に示す。センサデータ処理部40は、例えば図4に示すように、データ合成部41と、検出器42とを備える。The sensor
データ合成部41は、上述の複数のミリ波センサ10の出力データを合成し、監視対象空間100の全体に対するセンシングデータに相当する合成データを生成する。複数のミリ波センサ10の各々の出力データは、各ミリ波センサ10の設置位置から監視対象空間100内の検知範囲をセンシングしたセンシングデータである。ここで、複数のミリ波センサ10の各々の設置位置は既知であるため、ミリ波センサ10の設置位置に基づいて監視対象空間100内の検知範囲を特定することができ、各ミリ波センサ10の出力データが監視対象空間100内のどの部分をセンシングしたセンシングデータであるかが分かる。したがって、複数のミリ波センサ10の各々の設置位置に基づいて各ミリ波センサ10の出力データを合成することにより、監視対象空間100の全体に対するセンシングデータに相当する合成データを生成することができる。The data synthesis unit 41 synthesizes the output data of the above-mentioned multiple
検出器42は、データ合成部41が生成した合成データを入力とし、監視対象空間100内に存在する物体の各々について検査対象物である確からしさを示す尤度を求めて、尤度が基準値を超える物体の三次元位置を出力する。この検出器42には、例えば深層学習(Deep Learning)により学習されたDNN(Deep Neural Network)などを用いることができる。DNNは、入力層と出力層との間に多段の中間層を持つニューラルネットワークである。検出器42を構成するDNNは、学習データに教師ありデータを用いた逆誤差伝播法によってネットワークパラメータ(各層における重みやバイアス)を逐次更新することで、監視対象空間100内に存在する物体のうち、検査対象物である尤度が基準値を超える物体の三次元位置を出力するように学習される。The detector 42 receives the synthesized data generated by the data synthesis unit 41 as input, calculates the likelihood of each object existing in the monitored
この場合、学習データとしては、監視対象空間100内に検査対象物が存在するときにデータ合成部41が生成する合成データに対して検査対象物の三次元位置を示すラベルを付与したものと、監視対象空間100内に検査対象物が存在しないときにデータ合成部41が生成する合成データに対して出力なしを示すラベルを付与したものとが多数用意され、検出器42を構成するDNNの学習に用いられる。これらの学習用データは、例えば、本実施形態のセキュリティシステムを実際に運用する前に試験的に稼働させ、様々な状況で合成データを生成することにより作成することができる。検出器42が出力する監視対象空間100内の検査対象物と推定される物体の三次元位置の情報は、映像データ処理部50に入力される。In this case, a large number of learning data are prepared, including data generated by the data synthesis unit 41 when an object to be inspected is present in the monitored
映像データ処理部50は、監視カメラ20が撮影する監視対象空間100の映像上で、センサデータ処理部40の検出器42から出力される三次元位置、すなわち、監視対象空間100内の検査対象物の三次元位置に対応する、監視映像上の位置に、マーキングを施して、表示装置30に表示する監視映像を生成する。映像データ処理部50の構成例を図5に示す。映像データ処理部50は、例えば図5に示すように、座標変換部51と、マーカ生成部52と、監視映像生成部53とを備える。The video
座標変換部51は、センサデータ処理部40の検出器42から出力される三次元位置、すなわち、監視対象空間100内の検査対象物と推定される物体の三次元位置を、監視カメラ20が撮影する監視対象空間100の映像の二次元座標系における位置(二次元位置)に座標変換する。監視対象空間100を撮影する監視カメラ20の位置、向き、画角などは固定であるため、監視対象空間100内の三次元位置と監視カメラ20の映像上の各画素位置(二次元位置)との対応関係は一意に定まり、この対応関係は座標変換式で表すことができる。座標変換部51は、この座標変換式を用いて、監視対象空間100内の検査対象物と推定される物体の三次元位置を、監視カメラ20の映像の二次元位置に座標変換する。The coordinate
マーカ生成部52は、センサデータ処理部40の検出器42から出力される三次元位置と、既知の値である監視カメラ20の設置位置とに基づいて、監視カメラ20から監視対象空間100内の検査対象物と推定される物体の三次元位置までの距離を算出する。そして、マーカ生成部52は、算出した距離に応じた大きさのマーカ、つまり、監視対象空間100内の検査対象物と推定される物体の三次元位置が監視カメラ20の設置位置に近いほどサイズが大きくなるマーカを生成する。マーカは、監視カメラ20の映像上に重畳したときに目立つ形態で生成されればよく、その形状、色、明るさなどは任意である。The
監視映像生成部53は、監視カメラ20により撮影された監視対象空間100の映像上で、座標変換部51での座標変換によって得られた位置にマーカ生成部52により生成されたマーカを重畳して監視映像を生成する。監視映像生成部53により生成された監視映像は、表示装置30に表示される。なお、監視対象空間100内に検査対象物が存在せず、センサデータ処理部40の検出器42から三次元位置が出力されない場合は、監視映像生成部53は、監視カメラ20により撮影された監視対象空間100の映像をそのまま表示装置30に出力する。この場合、表示装置30には、監視カメラ20により撮影された監視対象空間100の映像がそのまま表示される。The surveillance
本実施形態のセキュリティシステムにおけるセンサデータ処理部40および映像データ処理部50は、例えば、監視カメラ20のフレーム周期に一致する周期、フレーム周期の1/2、フレーム周期の1/3・・・など、監視カメラ20のフレーム周期を基準とした所定周期で上述の処理を繰り返し実行する。これにより、監視カメラ20により撮影された監視対象空間100の映像の動きに合わせてマーカも動く監視映像が随時生成され、表示装置30に表示される。The sensor
図6は、表示装置30に表示される監視映像60の一例を示す図である。監視対象空間100内に検査対象物と推定される物体が存在する場合、表示装置30に表示される監視映像60では、図6に示すように、この検査対象物と推定される物体の三次元位置に対応する位置にマーカ70が重畳される。したがって、この監視映像60を参照した警備員200は、監視対象空間100内の人物の中から検査対象物を所持していると疑われる人物90を特定することができ、その人物90を詳細検査エリア120へと誘導して目視による身体検査や手荷物検査、X線検査などを行うことができる。
Figure 6 is a diagram showing an example of a
監視カメラ20により撮影された監視対象空間100の映像上では、監視カメラ20の設置位置から見て監視対象空間100の奥行方向に複数の人物が重なるように存在する場合、後ろの人物が前の人物によって遮蔽されて映像上で明確に視認できない。ここで、後ろの人物が検査対象物を所持している場合、検査対象物と推定される物体の三次元位置に対応する映像上の位置にマーカ70を重畳すると、図7-1に示すように、前の人物上にマーカ70が重畳されることもある。In the image of the monitored
しかし、本実施形態では、検査対象物と推定される物体の三次元位置と監視カメラ20との間の距離に応じた大きさのマーカ70を重畳するようにしているので、マーカ70のサイズと映像上の人物の大きさから、マーカ70が重畳された人物が検査対象物を所持していると疑われる人物90であるかどうかを的確に判断することができる。また、図7-1の監視映像60において前の人物に遮蔽されている後ろの人物が、その後、監視カメラ20の位置に近づいたときには、図7-2に示すように、その人物上に比較的大きいサイズのマーカ70が重畳された監視映像60が表示されるので、この人物が検査対象物を所持していると疑われる人物90であると特定することができる。However, in this embodiment, a
なお、以上はマーキングの一例として、監視カメラ20により撮影された監視対象空間100の映像上にマーカ70を重畳する例を説明したが、マーキングの手法はこれに限らない。例えば、検査対象物と推定される物体の三次元位置に対応する映像上の位置に映る人物を強調させるようにしてもよい。この場合の映像データ処理部50の構成例を図8に示す。図8に示す映像データ処理部50は、上述のマーカ生成部52に代えて人物検出追跡部54を備える。
Note that, as an example of marking, an example of superimposing a
人物検出追跡部54は、センサデータ処理部40の検出器42から検査対象物と推定される物体の三次元位置が出力された場合に、監視カメラ20により撮影された監視対象空間100の映像を解析して人物を検出し、座標変換部51での座標変換によって得られた位置に映る人物を、強調の対象となる人物として特定する。ここで、座標変換部51での座標変換によって得られた位置には、上述のように、前の人物によって遮蔽された人物が存在する場合もあるので、監視カメラ20の映像を繰り返し解析し、座標変換部51での座標変換によって得られた位置に同じ人物が映っていると判断できるときに、その人物を強調の対象となる人物として特定することが望ましい。When the three-dimensional position of an object estimated to be an object to be inspected is output from the detector 42 of the sensor
なお、映像から人物を検出する方法は、例えば、顔特徴などの画像特徴を用いた公知の人物検出アルゴリズムを用いればよい。また、映像のフレーム間で動きのある物体を追跡する公知の物体追跡アルゴリズムを用い、監視カメラ20により撮影された監視対象空間100の映像から強調の対象となる人物を特定した後は、その人物を映像上で追跡するようにしてもよい。この場合は、強調の対象となる人物を特定した後の処理を簡略化することができる。A method for detecting a person from a video image may use, for example, a known person detection algorithm that uses image features such as facial features. Also, a known object tracking algorithm that tracks moving objects between video frames may be used to identify a person to be highlighted from the video image of the monitored
監視映像生成部53’は、監視カメラ20により撮影された監視対象空間100の映像上で、人物検出追跡部54により特定された人物にハイライト加工を施して、その人物を強調した監視映像60を生成し、表示装置30に表示させる。この場合の監視映像60の一例を図9に示す。この監視映像60では、検査対象物と推定される物体の三次元位置に対応する位置に存在する人物がハイライト加工80によって強調されている。したがって、この監視映像60を参照した警備員200は、監視対象空間100内の人物の中から検査対象物を所持していると疑われる人物90を特定することができ、その人物を詳細検査エリア120へと誘導して目視による身体検査や手荷物検査、X線検査などを行うことができる。The surveillance image generating unit 53' applies highlight processing to the person identified by the person detection and
なお、ハイライト加工80は、監視映像60上で検査対象物を所持していると疑われる人物90を強調できる加工であればよく、例えば、その人物90が映る領域の輝度を高めて際立たせる、その人物90が映る領域の輝度を小刻みに増減させることで点滅効果を持たせる、その人物90が映る領域を所定の色で色付けするなど、任意の方法を用いればよい。The
次に、図10を参照して本実施形態のセキュリティシステムの動作の流れを説明する。図10は、本実施形態のセキュリティシステムにおいて、センサデータ処理部40および映像データ処理部50により所定周期で繰り返し実行される処理手順を示すフローチャートである。Next, the flow of operation of the security system of this embodiment will be described with reference to Figure 10. Figure 10 is a flowchart showing the processing procedure repeatedly executed at a predetermined interval by the sensor
処理が開始されると、まず、センサデータ処理部40のデータ合成部41が、監視対象空間100の境界となる壁面パネル101や天井パネル102の裏側に離散的に配置された複数のミリ波センサ10の出力データを合成し、合成データを生成する(ステップS101)。When the process starts, first, the data synthesis unit 41 of the sensor
次に、ステップS101で生成された合成データが、DNNなどにより構成される検出器42に入力される(ステップS102)。検出器42は、合成データを入力とし、監視対象空間100内に存在する物体の各々について検査対象物である確からしさを示す尤度を求め、該尤度が基準値を超える物体の三次元位置を出力するように学習されている。Next, the composite data generated in step S101 is input to a detector 42 configured by a DNN or the like (step S102). The detector 42 receives the composite data as input, calculates a likelihood indicating the likelihood that each object present in the monitored
次に、ステップS102で合成データを入力した検出器42から、検査対象物と推定される物体の三次元位置が出力されたか否かが確認される(ステップS103)。ここで、検出器42から検査対象物と推定される物体の三次元位置が出力されない場合は(ステップS103:No)、映像データ処理部50の監視映像生成部53(53’)は、監視カメラ20により撮影された監視対象空間100の映像をそのまま表示装置30に表示させる(ステップS104)。Next, it is confirmed whether or not the three-dimensional position of the object presumed to be the object to be inspected is output from the detector 42 to which the composite data was input in step S102 (step S103). If the three-dimensional position of the object presumed to be the object to be inspected is not output from the detector 42 (step S103: No), the surveillance image generating unit 53 (53') of the video
一方、検出器42から検査対象物と推定される物体の三次元位置が出力された場合は(ステップS103:Yes)、映像データ処理部50の座標変換部51が、検出器42から出力された三次元位置を監視カメラ20の映像の二次元座標系における位置(二次元位置)に座標変換する(ステップS105)。そして、監視映像生成部53(53’)が、監視カメラ20の映像上で座標変換部51の座標変換によって得られた位置、すなわち、検査対象物と推定される物体が存在する位置にマーキングを施した監視映像60を生成し、監視映像60を表示装置30に表示させる(ステップS106)。これにより、警備員200がこの監視映像60を参照して、監視対象空間100内の人物の中から検査対象物を所持していると疑われる人物90を特定することができ、その人物90を詳細検査エリア120へと誘導して目視による身体検査や手荷物検査、X線検査などを行うことができる。On the other hand, if the detector 42 outputs the three-dimensional position of the object presumed to be the inspection object (step S103: Yes), the coordinate
以上、具体的な例を挙げながら詳細に説明したように、本実施形態のセキュリティシステムにおいては、複数の人が通行可能な空間を監視対象空間100とし、この監視対象空間100を仕切る壁面パネル101や天井パネル102などの構造物の裏側に複数のミリ波センサ10を、間隔を隔てて配置している。そして、これら複数のミリ波センサ10の出力データを合成して合成データを生成し、この合成データに基づいて、監視対象空間100内に存在する検査対象物の位置を検出する。また、監視カメラ20により監視対象空間100を撮影し、監視対象空間100内に存在する検査対象物の位置が検出された場合には、監視カメラ20により撮影された監視対象空間100の映像上で、検査対象物の位置に対応する、映像上の位置に、所定のマーキングを施して監視映像60を生成する。そして、この監視映像60を表示装置30に表示することにより、監視映像60を参照した警備員200などが検査対象物を所持していると疑われる人物を特定できるようにしている。As described above in detail with specific examples, in the security system of this embodiment, a space through which multiple people can pass is set as the monitored
このように、本実施形態のセキュリティシステムは、従来のウォークスルータイプの危険物検知装置のように一人ひとり順番に検査するのではなく、複数の人が通行可能な監視対象空間100を仕切る構造物の裏側に間隔を隔てて配置された複数のミリ波センサ10を用いて、監視対象空間100内に存在する複数の人の中から検査対象物を所持していると疑われる人物を特定できるようにしている。したがって、本実施形態のセキュリティシステムによれば、検査が行われていることを意識させずに同時に多くの人を対象とした検査を行うことができ、人に圧迫感を与えず、検査に伴う混雑を緩和することができる。In this way, the security system of this embodiment does not inspect each person in turn as in conventional walk-through type hazardous material detection devices, but uses multiple
以上、本発明の具体的な実施形態について説明したが、上述した実施形態は本発明の一適用例を示したものである。本発明は、上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で、種々の省略、置き換え、変更を加えて具体化することができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。 Specific embodiments of the present invention have been described above, but the above-mentioned embodiments show one application example of the present invention. The present invention is not limited to the above-mentioned embodiments as they are, and can be embodied in various ways in the implementation stage without departing from the gist of the invention. These embodiments and their variations are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents as set forth in the claims.
10 ミリ波センサ
20 カメラ
30 表示装置
40 センサデータ処理部
41 データ合成部
42 検出器
50 映像データ処理部
51 座標変換部
52 マーカ生成部
53(53’) 監視映像生成部
54 人物検出追跡部
60 監視映像
70 マーカ
80 ハイライト加工
REFERENCE SIGNS
Claims (6)
前記複数のミリ波センサの出力データを合成した合成データに基づいて、前記監視対象空間内に存在する検査対象物の位置を検出するセンサデータ処理部と、
所定位置から前記監視対象空間を撮影するカメラと、
前記センサデータ処理部により検出される前記検査対象物の位置に対応する、前記カメラが撮影する映像上の位置にマーキングを施した映像を生成する映像データ処理部と、
前記映像データ処理部が生成した映像を表示する表示装置と、を備えることを特徴とするセキュリティシステム。 a plurality of millimeter wave sensors that are discretely arranged at intervals on a rear side of a structure that separates a monitored space through which a plurality of people can pass , the combined detection ranges of the respective millimeter wave sensors covering the entire monitored space;
a sensor data processing unit that detects a position of an inspection target present in the monitored space based on composite data obtained by combining output data of the plurality of millimeter wave sensors;
A camera that captures an image of the monitored space from a predetermined position;
an image data processing unit that generates an image in which a mark is applied to a position on the image captured by the camera, the position corresponding to the position of the inspection object detected by the sensor data processing unit;
a display device that displays the image generated by the image data processing unit.
前記映像データ処理部は、前記カメラによって撮影された前記映像の映像データを光無線通信により受信する、
ことを特徴とする請求項1に記載のセキュリティシステム。 the sensor data processing unit receives the output data of each of the millimeter wave sensors via optical wireless communication;
The video data processing unit receives video data of the video captured by the camera via optical wireless communication.
2. The security system of claim 1.
前記カメラのフレーム周期に一致する周期、フレーム周期の1/2、またはフレーム周期の1/3を基準とした所定周期で、前記検査対象物の位置の検出および前記映像の生成を含む処理を繰り返し実行する、repeating a process including detection of the position of the inspection object and generation of the image at a predetermined period based on a period that is equal to a frame period of the camera, 1/2 the frame period, or 1/3 the frame period;
ことを特徴とする請求項1に記載のセキュリティシステム。2. The security system according to claim 1.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019091697 | 2019-05-14 | ||
JP2019091697 | 2019-05-14 | ||
PCT/JP2020/018874 WO2020230766A1 (en) | 2019-05-14 | 2020-05-11 | Security system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020230766A1 JPWO2020230766A1 (en) | 2020-11-19 |
JP7467434B2 true JP7467434B2 (en) | 2024-04-15 |
Family
ID=73289924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021519428A Active JP7467434B2 (en) | 2019-05-14 | 2020-05-11 | Security Systems |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7467434B2 (en) |
WO (1) | WO2020230766A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7411539B2 (en) | 2020-12-24 | 2024-01-11 | 株式会社日立エルジーデータストレージ | Ranging system and its coordinate calibration method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007517275A (en) | 2003-10-30 | 2007-06-28 | バッテル メモリアル インスティチュート | Hidden object detection |
JP2010156697A (en) | 2008-12-30 | 2010-07-15 | Sony Deutsche Gmbh | Camera assisted sensor imaging system and multi aspect imaging system |
JP2011503597A (en) | 2007-11-13 | 2011-01-27 | シェクロン、クロード | Device for detecting objects, especially dangerous materials |
CN102565794A (en) | 2011-12-30 | 2012-07-11 | 北京华航无线电测量研究所 | Microwave security inspection system for automatically detecting dangerous object hidden in human body |
US20160291148A1 (en) | 2015-04-03 | 2016-10-06 | Evolv Technologies, Inc. | Modular Imaging System |
US20170270366A1 (en) | 2012-06-20 | 2017-09-21 | Apstec Systems Usa Llc | Methods and systems for non-cooperative automatic security screening in crowded areas |
JP2018013448A (en) | 2016-07-22 | 2018-01-25 | 日本信号株式会社 | Portable object detection device |
JP2018146257A (en) | 2017-03-01 | 2018-09-20 | 株式会社東芝 | Dangerous object detector |
JP2018156586A (en) | 2017-03-21 | 2018-10-04 | 株式会社東芝 | Monitoring system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10282247A (en) * | 1997-04-10 | 1998-10-23 | Mitsubishi Electric Corp | Metal detecting device |
JPH1183996A (en) * | 1997-09-03 | 1999-03-26 | Omron Corp | Millimetric wave detector |
JPH11203569A (en) * | 1998-01-12 | 1999-07-30 | Hitachi Zosen Corp | Passerby detecting method and detection system |
-
2020
- 2020-05-11 JP JP2021519428A patent/JP7467434B2/en active Active
- 2020-05-11 WO PCT/JP2020/018874 patent/WO2020230766A1/en active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007517275A (en) | 2003-10-30 | 2007-06-28 | バッテル メモリアル インスティチュート | Hidden object detection |
JP2011503597A (en) | 2007-11-13 | 2011-01-27 | シェクロン、クロード | Device for detecting objects, especially dangerous materials |
JP2010156697A (en) | 2008-12-30 | 2010-07-15 | Sony Deutsche Gmbh | Camera assisted sensor imaging system and multi aspect imaging system |
CN102565794A (en) | 2011-12-30 | 2012-07-11 | 北京华航无线电测量研究所 | Microwave security inspection system for automatically detecting dangerous object hidden in human body |
US20170270366A1 (en) | 2012-06-20 | 2017-09-21 | Apstec Systems Usa Llc | Methods and systems for non-cooperative automatic security screening in crowded areas |
US20160291148A1 (en) | 2015-04-03 | 2016-10-06 | Evolv Technologies, Inc. | Modular Imaging System |
JP2018013448A (en) | 2016-07-22 | 2018-01-25 | 日本信号株式会社 | Portable object detection device |
JP2018146257A (en) | 2017-03-01 | 2018-09-20 | 株式会社東芝 | Dangerous object detector |
JP2018156586A (en) | 2017-03-21 | 2018-10-04 | 株式会社東芝 | Monitoring system |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020230766A1 (en) | 2020-11-19 |
WO2020230766A1 (en) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2510036C2 (en) | Adaptive detection system | |
US10347062B2 (en) | Personal identification for multi-stage inspections of persons | |
US6297844B1 (en) | Video safety curtain | |
US6829371B1 (en) | Auto-setup of a video safety curtain system | |
US10740906B2 (en) | Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method | |
JP6178511B2 (en) | Active microwave device and detection method | |
RU2671237C2 (en) | Method for generating image and handheld screening device | |
US9282258B2 (en) | Active microwave device and detection method | |
JP2007536506A (en) | Monitoring portal with multiple sources | |
CN103885088A (en) | Method For Operating A Handheld Screening Device And Handheld Screening Device | |
EP2546807B1 (en) | Traffic monitoring device | |
JP7467434B2 (en) | Security Systems | |
KR102282459B1 (en) | Method and Apparatus for counting the number of person | |
US20160133023A1 (en) | Method for image processing, presence detector and illumination system | |
JP2020153975A (en) | Processing system | |
US10553093B2 (en) | Security system and method to detect motions and features associated with a traveler | |
JP7388532B2 (en) | Processing system, processing method and program | |
US10867492B1 (en) | Systems and methods for discreet imaging of a scene | |
CN103984036A (en) | Screening method for operating a plurality of screening sensors, and screening system | |
US20220334243A1 (en) | Systems and methods for detection of concealed threats | |
US11454735B2 (en) | Method and a system for detecting a potential threat in a shoe worn by an individual | |
WO2023194826A1 (en) | Thermal imaging with ai image identification | |
Gogulamudi et al. | Social distance monitoring framework for Covid-19 using deep learning | |
US20210149047A1 (en) | Standoff detection system | |
JP2012202883A (en) | Object recognition system, watching system and monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7467434 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |