JP7467434B2 - Security Systems - Google Patents

Security Systems Download PDF

Info

Publication number
JP7467434B2
JP7467434B2 JP2021519428A JP2021519428A JP7467434B2 JP 7467434 B2 JP7467434 B2 JP 7467434B2 JP 2021519428 A JP2021519428 A JP 2021519428A JP 2021519428 A JP2021519428 A JP 2021519428A JP 7467434 B2 JP7467434 B2 JP 7467434B2
Authority
JP
Japan
Prior art keywords
processing unit
data processing
monitored space
video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021519428A
Other languages
Japanese (ja)
Other versions
JPWO2020230766A1 (en
Inventor
泉 井川
隆一 砂川
政志 三木
和憲 芳賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyo Yuden Co Ltd
Original Assignee
Taiyo Yuden Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyo Yuden Co Ltd filed Critical Taiyo Yuden Co Ltd
Publication of JPWO2020230766A1 publication Critical patent/JPWO2020230766A1/ja
Application granted granted Critical
Publication of JP7467434B2 publication Critical patent/JP7467434B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/12Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with electromagnetic waves
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明の実施形態は、セキュリティシステムに関する。 An embodiment of the present invention relates to a security system.

近年、テロ防止などの目的で例えば空港などのハードターゲットにおけるセキュリティ対策の強化が進められている。従来のセキュリティ対策は、X線検査や目視による手荷物検査などが主流である。ここで問題となるのが、X線検査や目視による手荷物検査では一人ひとりの検査に時間がかかり、人の滞留や混雑を発生させてしまうことである。そこで、検査による人の滞留を緩和させるアプローチの一つとして、例えば特許文献1や非特許文献1に示すようなウォークスルータイプの危険物検知装置が提案されている。特に非特許文献1の危険物検知装置は移動式のため、比較的警備の薄いソフトターゲットを対象としたセキュリティ対策を強化するためにも有効な手段として期待されている。In recent years, security measures at hard targets such as airports have been strengthened for the purpose of preventing terrorism. Conventional security measures are mainly X-ray inspection and visual baggage inspection. The problem here is that X-ray inspection and visual baggage inspection take time to inspect each person, causing people to stagnate and become crowded. Therefore, as one approach to alleviate people from stagnation due to inspection, a walk-through type dangerous goods detection device as shown in Patent Document 1 and Non-Patent Document 1 has been proposed. In particular, the dangerous goods detection device in Non-Patent Document 1 is mobile, so it is expected to be an effective means of strengthening security measures for soft targets with relatively light security.

特表2001-521157号公報JP 2001-521157 A

“EVOLV EDGE TM WEAPON AND BOMB DETECTION | NO LINES AUTOMATED AND CONSISTENT SCREENING”,パンフレット,[online],[平成31年4月25日検索],インターネット<https://evolvtechnology.com/wp-content/uploads/EvolvEdge_Brochure_1Up-B.pdf>"EVOLV EDGE TM WEAPON AND BOMB DETECTION | NO LINES AUTOMATED AND CONSISTENT SCREENING", brochure, [online], [searched April 25, 2019], Internet <https://evolvtechnology.com/wp-content/uploads/EvolvEdge_Brochure_1Up-B.pdf>

しかし、ウォークスルータイプの危険物検知装置は、一人ずつ順番にゲートを通過させて検査を行うため、一人ひとりの検査時間は短縮されるとしても、順番待ちによる混雑が発生する懸念がある。また、ウォークスルータイプの危険物検知装置では、ゲートを通過する人に対し検査が行われていることを意識させてしまうため、圧迫感を与えることになる。 However, walk-through type hazardous materials detection devices inspect people one by one through the gate, so even though the inspection time for each person is reduced, there are concerns that congestion will occur as people wait their turn. In addition, walk-through type hazardous materials detection devices make people who pass through the gate aware that they are being inspected, which creates a feeling of oppression.

本発明は、こうした実情に鑑みてなされたものであり、検査が行われていることを意識させずに同時に多くの人を対象とした検査を行うことができ、人に圧迫感を与えず、検査に伴う混雑を緩和できるセキュリティシステムを提供することを目的の一つとする。The present invention has been made in consideration of these circumstances, and one of its objectives is to provide a security system that can test many people at the same time without them being aware that testing is taking place, does not make people feel oppressed, and can alleviate the congestion that accompanies testing.

実施形態のセキュリティシステムは、複数のミリ波センサと、センサデータ処理部と、カメラと、映像データ処理部と、表示装置と、を備える。複数のミリ波センサは、複数の人が通行可能な監視対象空間を仕切る構造物の裏側に間隔を隔てて離散的に配置され、各々の検知範囲を統合した範囲が前記監視対象空間の全体を網羅する。センサデータ処理部は、前記複数のミリ波センサの出力データを合成した合成データに基づいて、前記監視対象空間内に存在する検査対象物の位置を検出する。カメラは、所定位置から前記監視対象空間を撮影する。映像データ処理部は、前記センサデータ処理部により検出される前記検査対象物の位置に対応する、前記カメラが撮影する映像上の位置にマーキングを施した映像を生成する。表示装置は、前記映像データ処理部が生成した映像を表示する。 A security system according to an embodiment includes a plurality of millimeter wave sensors, a sensor data processing unit, a camera, a video data processing unit, and a display device. The plurality of millimeter wave sensors are discretely arranged at intervals on the rear side of a structure that separates a monitored space through which a plurality of people can pass, and a combined range of the detection ranges of the sensors covers the entire monitored space . The sensor data processing unit detects a position of an object to be inspected that exists in the monitored space based on composite data obtained by combining output data of the plurality of millimeter wave sensors. The camera captures an image of the monitored space from a predetermined position. The video data processing unit generates an image in which a mark is applied to a position on the image captured by the camera that corresponds to the position of the object to be inspected detected by the sensor data processing unit. The display device displays the image generated by the video data processing unit.

図1は、実施形態のセキュリティシステムの利用例を説明する図であり、セキュリティシステムが導入された施設の平面図である。FIG. 1 is a diagram for explaining an example of use of a security system according to an embodiment, and is a plan view of a facility in which the security system is installed. 図2は、実施形態のセキュリティシステムの利用例を説明する図であり、図1のA-A線に沿った縦断面図である。FIG. 2 is a diagram for explaining an example of use of the security system according to the embodiment, and is a vertical cross-sectional view taken along line AA in FIG. 図3は、実施形態のセキュリティシステムの構成例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of a security system according to an embodiment. 図4は、センサデータ処理部の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of the configuration of the sensor data processing unit. 図5は、映像データ処理部の構成例を示すブロック図である。FIG. 5 is a block diagram showing an example of the configuration of the video data processing unit. 図6は、監視映像の一例を示す図である。FIG. 6 is a diagram showing an example of a monitoring image. 図7-1は、監視映像の一例を示す図である。FIG. 7A is a diagram showing an example of a monitoring image. 図7-2は、監視映像の一例を示す図である。FIG. 7B is a diagram showing an example of a monitoring image. 図8は、映像データ処理部の他の構成例を示すブロック図である。FIG. 8 is a block diagram showing another example of the configuration of the video data processing unit. 図9は、監視映像の一例を示す図である。FIG. 9 is a diagram showing an example of a monitoring image. 図10は、実施形態のセキュリティシステムの処理手順を説明するフローチャートである。FIG. 10 is a flowchart illustrating a processing procedure of the security system according to the embodiment.

以下、添付図面を参照しながら、本発明に係るセキュリティシステムの具体的な実施形態について詳細に説明する。本実施形態のセキュリティシステムは、複数の人が通行可能な空間を対象としてミリ波センサを用いた検査対象物の監視を行うシステムである。空間は、例えば、三次元空間である。以下、空間が三次元空間である場合を一例として説明する。監視の対象となる三次元空間(以下、これを「監視対象空間」と呼ぶ)は、例えば、空港などのテロの標的となり得る施設などに設定される。例えば本実施形態のセキュリティシステムを空港に導入する場合、空港ロビーからゲートのある保安区画に繋がるエリアなど、不特定多数の人が通過するエリアを監視対象空間として設定することが有効である。 Below, a specific embodiment of the security system according to the present invention will be described in detail with reference to the attached drawings. The security system of this embodiment is a system that monitors an object to be inspected using a millimeter wave sensor in a space through which multiple people can pass. The space is, for example, a three-dimensional space. Below, an example will be described in which the space is a three-dimensional space. The three-dimensional space to be monitored (hereinafter, this will be referred to as the "monitored space") is set, for example, in a facility that may be a target of terrorism, such as an airport. For example, when the security system of this embodiment is introduced in an airport, it is effective to set an area through which an unspecified number of people pass, such as an area that connects the airport lobby to a security area with a gate, as the monitored space.

本実施形態のセキュリティシステムによる監視対象空間は、空港に限らず、例えばショッピングモールやコンサート会場、学校、教会など、多くの人が集まる施設に設定してもよい。これらの施設もテロの標的となり易いので、本実施形態のセキュリティシステムを導入することの有用性が高い。テロ対策の用途で本実施形態のセキュリティシステムを導入する場合、検査対象物は、銃器、火器、刃物、爆発物などである。 The space monitored by the security system of this embodiment is not limited to airports, but may be set in facilities where many people gather, such as shopping malls, concert venues, schools, and churches. These facilities are also likely to become targets of terrorism, so the introduction of the security system of this embodiment is highly useful. When the security system of this embodiment is introduced for anti-terrorism purposes, the objects to be inspected are firearms, firearms, knives, explosives, etc.

その他、本実施形態のセキュリティシステムは、テロ対策以外にも、例えば企業活動が行われるオフィスビルなどにおける情報漏洩対策としても有効である。すなわち、企業活動が行われるオフィスビルなどにおいては、機密情報の漏洩を防止する目的で、カメラ付き携帯電話機やスマートフォンなどの持ち込みを禁止している場合がある。このとき、オフィスビルを訪問する全ての人を対象に手荷物検査などを行うと混雑を招く虞がある。そこで、企業活動が行われるオフィスビルに本実施形態のセキュリティシステムを導入し、オフィスビルのエントランスなどを監視対象空間として、カメラ付き携帯電話機やスマートフォンなどの持ち込みを監視することが有効となる。In addition to countering terrorism, the security system of this embodiment is also effective as a countermeasure against information leaks in, for example, office buildings where business activities are carried out. That is, in office buildings where business activities are carried out, the bringing in of camera-equipped mobile phones, smartphones, etc. may be prohibited in order to prevent the leakage of confidential information. In this case, there is a risk of congestion if baggage inspections are carried out on all people who visit the office building. Therefore, it is effective to introduce the security system of this embodiment into office buildings where business activities are carried out and monitor the bringing in of camera-equipped mobile phones, smartphones, etc. by using the entrances of the office buildings as monitored spaces.

本実施形態のセキュリティシステムは、検査対象物を正確に見つけ出すことを目的とするものではなく、検査対象物を所持していると疑われる人物を特定し、その人物を警備員などに伝えることを目的とする。検査対象物を所持していると疑われる人物を警備員に伝えることができれば、警備員がその人物を目視による身体検査や手荷物検査、X線検査などを行う場所に誘導し、その人物が実際に検査対象物を所持しているかどうかを詳細に検査することができる。この場合、検査対象物を所持していると疑われる人物以外は自由が拘束されず、例えば空港の保安区画などにそのまま入ることができる。このように、本実施形態のセキュリティシステムでは、監視対象空間に存在する複数の人を対象として簡易的な検査を行い、検査対象物を所持していると疑われる人物を特定してその人物のみを詳細検査に誘導させる構成であるため、従来技術で懸念される検査に伴う混雑を緩和することができる。The security system of this embodiment does not aim to accurately find the object to be inspected, but to identify a person suspected of possessing the object to be inspected and to inform the person of the person to a security guard or the like. If the person suspected of possessing the object to be inspected can be informed to the security guard, the security guard can guide the person to a place where a visual body inspection, baggage inspection, X-ray inspection, etc. will be performed, and a detailed inspection can be performed to see if the person actually possesses the object to be inspected. In this case, the freedom of people other than the person suspected of possessing the object to be inspected is not restricted, and they can enter the security area of an airport, for example. In this way, the security system of this embodiment is configured to perform a simple inspection of multiple people in the monitored space, identify a person suspected of possessing the object to be inspected, and guide only that person to a detailed inspection, so that the congestion associated with the inspection that is a concern in the conventional technology can be alleviated.

また、本実施形態のセキュリティシステムは、上述の監視対象空間を仕切る壁面パネルや天井パネルなどの構造物の裏側に複数のミリ波センサを離散的に配置し、これら複数のミリ波センサの出力データを用いて監視対象空間の監視を行う構成である。このため、監視対象空間内に存在する人に対し検査が行われていることを意識させることがなく、圧迫感を与えることがない。以下では、例えば空港などの保安区画を有する施設において、保安区画に繋がるエリアを監視対象空間として設定した例を想定して、本実施形態のセキュリティシステムを詳しく説明する。 The security system of this embodiment is configured to place multiple millimeter wave sensors discretely behind structures such as wall panels and ceiling panels that separate the above-mentioned monitored space, and to monitor the monitored space using output data from these multiple millimeter wave sensors. This ensures that people in the monitored space are not made aware that an inspection is being conducted, and they do not feel oppressed. Below, the security system of this embodiment will be described in detail, assuming an example in which an area connected to a security zone in a facility with a security zone, such as an airport, is set as the monitored space.

図1および図2は、本実施形態のセキュリティシステムの利用例を説明する図であり、図1は、セキュリティシステムが導入された施設の平面図、図2は、図1のA-A線に沿った縦断面図である。図1および図2に示す例では、監視対象空間100が、施設の保安区画110に繋がるエリアに設定されている。保安区画110とは、安全性を確保するために警備員200が滞在する区画である。 Figures 1 and 2 are diagrams illustrating an example of the use of the security system of this embodiment, with Figure 1 being a plan view of a facility in which the security system has been installed, and Figure 2 being a longitudinal cross-sectional view taken along line A-A in Figure 1. In the example shown in Figures 1 and 2, the monitored space 100 is set in an area connected to a security zone 110 of the facility. The security zone 110 is an area where a security guard 200 stays to ensure safety.

監視対象空間100の境界となる壁面パネル101や天井パネル102などの構造物の裏側には、複数のミリ波センサ10が離散的に配置されている。ミリ波センサ10は、例えば24GHz~100GHzなどの周波数帯の電波を前方に照射し、前方の物体で反射された反射波を受信した結果に基づいて、物体までの距離や角度、反射強度などの情報を取得するセンサである。なお、一般的にミリ波とは30GHz~300GHzの周波数帯の電磁波であるが、本実施形態ではミリ波に近いマイクロ波(24GHz以上)の電波を扱うものも含めてミリ波センサ10と呼ぶ。また、電波を照射せずに物体から放射されるミリ波を受信するパッシブ型のミリ波センサ10もあり、これを利用してもよいが、本実施形態では電波を照射して反射波を受信するアクティブ型のミリ波センサ10を用いることを想定する。A number of millimeter wave sensors 10 are discretely arranged on the back side of structures such as wall panels 101 and ceiling panels 102 that form the boundaries of the monitored space 100. The millimeter wave sensor 10 is a sensor that irradiates radio waves in a frequency band such as 24 GHz to 100 GHz forward and acquires information such as the distance to an object, the angle, and the reflection intensity based on the results of receiving the reflected waves reflected by the object in front. Generally, millimeter waves are electromagnetic waves in a frequency band of 30 GHz to 300 GHz, but in this embodiment, the term millimeter wave sensor 10 also refers to sensors that handle microwaves (24 GHz or higher) that are close to millimeter waves. There are also passive millimeter wave sensors 10 that receive millimeter waves emitted from objects without irradiating radio waves, and these may be used, but in this embodiment, it is assumed that an active millimeter wave sensor 10 is used that irradiates radio waves and receives reflected waves.

複数のミリ波センサ10は、個々のセンサの検知範囲を統合することで監視対象空間100の全体を網羅する大きな検知範囲が生成されるように、監視対象空間100の境界となる壁面パネル101や天井パネル102などの構造物の裏側に離散的に配置されている。個々のミリ波センサ10の各々は、検知方向が監視対象空間100側を向くように壁面パネル101や天井パネル102の裏側に設置され、監視対象空間100内からはこれらミリ波センサ10を視認できないようになっている。なお、図1の破線の四角は、天井パネル102の裏側に設置されたミリ波センサ10の床面への投影位置を示している。The multiple millimeter wave sensors 10 are discretely arranged on the back side of structures such as wall panels 101 and ceiling panels 102 that form the boundaries of the monitored space 100 so that a large detection range that covers the entire monitored space 100 is generated by integrating the detection ranges of the individual sensors. Each of the individual millimeter wave sensors 10 is installed on the back side of the wall panels 101 and ceiling panels 102 so that the detection direction faces the monitored space 100, and these millimeter wave sensors 10 cannot be seen from within the monitored space 100. The dashed square in Figure 1 indicates the projection position of the millimeter wave sensor 10 installed on the back side of the ceiling panel 102 onto the floor surface.

壁面パネル101や天井パネル102の裏側に設置するミリ波センサ10の個数は、監視対象空間100の大きさと個々のミリ波センサ10の検知範囲との関係から、個々のミリ波センサ10の検知範囲を統合することで監視対象空間100の全体を網羅できる数とすればよい。The number of millimeter wave sensors 10 to be installed on the back side of the wall panel 101 or the ceiling panel 102 should be determined based on the relationship between the size of the monitored space 100 and the detection range of each millimeter wave sensor 10, and should be a number that can cover the entire monitored space 100 by integrating the detection ranges of each millimeter wave sensor 10.

監視対象空間100と保安区画110との間には、図1に示すように、監視対象空間100を撮影する監視カメラ20と、この監視カメラ20の映像をベースに生成される後述の監視映像を表示する液晶ディスプレイなどの表示装置30とが設置されている。監視カメラ20は、カメラの一例である。監視映像は、映像の一例である。図1では、2つの監視カメラ20と2つの表示装置30が設置されている例を示しているが、監視カメラ20と表示装置30の数は任意である。As shown in Figure 1, between the monitored space 100 and the security area 110, there are installed a surveillance camera 20 that captures the monitored space 100, and a display device 30 such as an LCD display that displays surveillance video (described below) generated based on the video from the surveillance camera 20. The surveillance camera 20 is an example of a camera. The surveillance video is an example of a video. Figure 1 shows an example in which two surveillance cameras 20 and two display devices 30 are installed, but the number of surveillance cameras 20 and display devices 30 is arbitrary.

表示装置30に表示される監視映像は、保安区画110内に滞在する警備員200によって参照される。警備員200がこの監視映像を参照し、検査対象物を所持していると疑われる人物を発見した場合、その人物が保安区画110に入る前にその人物を詳細検査エリア120へと誘導する。そして、この詳細検査エリア120にて、目視による身体検査や手荷物検査、X線検査などが行われる。The surveillance video displayed on the display device 30 is viewed by a security guard 200 staying within the security area 110. When the security guard 200 views this surveillance video and finds an individual suspected of possessing an item subject to inspection, he or she guides the individual to a detailed inspection area 120 before the individual enters the security area 110. Then, in this detailed inspection area 120, a visual body inspection, baggage inspection, X-ray inspection, etc. are carried out.

図3は、本実施形態のセキュリティシステムの構成例を示すブロック図である。本実施形態のセキュリティシステムは、図3に示すように、上述の複数のミリ波センサ10、監視カメラ20および表示装置30のほかに、複数のミリ波センサ10の出力データを処理するセンサデータ処理部40と、監視カメラ20の映像データを処理する映像データ処理部50とを備える。複数のミリ波センサ10の各々は、光無線通信により出力データをセンサデータ処理部40へ送信する。すなわち、複数のミリ波センサ10の各々とプロセッサとは、光無線通信により通信可能に接続されている。監視カメラ20は、光無線通信により映像データを映像データ処理部50へ送信する。すなわち、監視カメラ20とプロセッサとは、光無線通信により通信可能に接続されている。 Figure 3 is a block diagram showing an example of the configuration of a security system of this embodiment. As shown in Figure 3, in addition to the multiple millimeter wave sensors 10, surveillance camera 20, and display device 30 described above, the security system of this embodiment includes a sensor data processing unit 40 that processes output data from the multiple millimeter wave sensors 10, and a video data processing unit 50 that processes video data from the surveillance camera 20. Each of the multiple millimeter wave sensors 10 transmits output data to the sensor data processing unit 40 by optical wireless communication. That is, each of the multiple millimeter wave sensors 10 and the processor are connected to be able to communicate by optical wireless communication. The surveillance camera 20 transmits video data to the video data processing unit 50 by optical wireless communication. That is, the surveillance camera 20 and the processor are connected to be able to communicate by optical wireless communication.

センサデータ処理部40と映像データ処理部50は、プロセッサによって実現される機能部である。例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの汎用プロセッサが所定のプログラムを実行することにより、これらセンサデータ処理部40や映像データ処理部50を実現することができる。また、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの専用のプロセッサを用いてこれらセンサデータ処理部40や映像データ処理部50を実現してもよい。The sensor data processing unit 40 and the video data processing unit 50 are functional units realized by a processor. For example, the sensor data processing unit 40 and the video data processing unit 50 can be realized by a general-purpose processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) executing a predetermined program. The sensor data processing unit 40 and the video data processing unit 50 may also be realized using a dedicated processor such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

センサデータ処理部40は、上述の複数のミリ波センサ10の出力データを合成した合成データに基づいて、監視対象空間100内に存在する検査対象物の位置を検出する。本実施形態では、センサデータ処理部40は、検査対象物の三次元位置を検出する場合を一例として説明する。センサデータ処理部40の構成例を図4に示す。センサデータ処理部40は、例えば図4に示すように、データ合成部41と、検出器42とを備える。The sensor data processing unit 40 detects the position of an object to be inspected that exists within the monitored space 100 based on composite data obtained by combining output data from the above-mentioned multiple millimeter wave sensors 10. In this embodiment, the sensor data processing unit 40 detects the three-dimensional position of an object to be inspected as an example. An example configuration of the sensor data processing unit 40 is shown in FIG. 4. The sensor data processing unit 40 includes a data synthesis unit 41 and a detector 42, as shown in FIG. 4, for example.

データ合成部41は、上述の複数のミリ波センサ10の出力データを合成し、監視対象空間100の全体に対するセンシングデータに相当する合成データを生成する。複数のミリ波センサ10の各々の出力データは、各ミリ波センサ10の設置位置から監視対象空間100内の検知範囲をセンシングしたセンシングデータである。ここで、複数のミリ波センサ10の各々の設置位置は既知であるため、ミリ波センサ10の設置位置に基づいて監視対象空間100内の検知範囲を特定することができ、各ミリ波センサ10の出力データが監視対象空間100内のどの部分をセンシングしたセンシングデータであるかが分かる。したがって、複数のミリ波センサ10の各々の設置位置に基づいて各ミリ波センサ10の出力データを合成することにより、監視対象空間100の全体に対するセンシングデータに相当する合成データを生成することができる。The data synthesis unit 41 synthesizes the output data of the above-mentioned multiple millimeter wave sensors 10 to generate synthetic data equivalent to sensing data for the entire monitored space 100. The output data of each of the multiple millimeter wave sensors 10 is sensing data obtained by sensing the detection range in the monitored space 100 from the installation position of each millimeter wave sensor 10. Here, since the installation positions of each of the multiple millimeter wave sensors 10 are known, the detection range in the monitored space 100 can be identified based on the installation position of the millimeter wave sensor 10, and it is known which part of the monitored space 100 is sensed by the output data of each millimeter wave sensor 10. Therefore, by synthesizing the output data of each millimeter wave sensor 10 based on the installation position of each of the multiple millimeter wave sensors 10, synthetic data equivalent to sensing data for the entire monitored space 100 can be generated.

検出器42は、データ合成部41が生成した合成データを入力とし、監視対象空間100内に存在する物体の各々について検査対象物である確からしさを示す尤度を求めて、尤度が基準値を超える物体の三次元位置を出力する。この検出器42には、例えば深層学習(Deep Learning)により学習されたDNN(Deep Neural Network)などを用いることができる。DNNは、入力層と出力層との間に多段の中間層を持つニューラルネットワークである。検出器42を構成するDNNは、学習データに教師ありデータを用いた逆誤差伝播法によってネットワークパラメータ(各層における重みやバイアス)を逐次更新することで、監視対象空間100内に存在する物体のうち、検査対象物である尤度が基準値を超える物体の三次元位置を出力するように学習される。The detector 42 receives the synthesized data generated by the data synthesis unit 41 as input, calculates the likelihood of each object existing in the monitored space 100 being an object to be inspected, and outputs the three-dimensional position of the object whose likelihood exceeds a reference value. For example, a deep neural network (DNN) trained by deep learning can be used for the detector 42. A DNN is a neural network having multiple intermediate layers between an input layer and an output layer. The DNN constituting the detector 42 is trained to output the three-dimensional position of an object existing in the monitored space 100 whose likelihood of being an object to be inspected exceeds a reference value by sequentially updating the network parameters (weights and biases in each layer) by a backpropagation method using supervised data as the learning data.

この場合、学習データとしては、監視対象空間100内に検査対象物が存在するときにデータ合成部41が生成する合成データに対して検査対象物の三次元位置を示すラベルを付与したものと、監視対象空間100内に検査対象物が存在しないときにデータ合成部41が生成する合成データに対して出力なしを示すラベルを付与したものとが多数用意され、検出器42を構成するDNNの学習に用いられる。これらの学習用データは、例えば、本実施形態のセキュリティシステムを実際に運用する前に試験的に稼働させ、様々な状況で合成データを生成することにより作成することができる。検出器42が出力する監視対象空間100内の検査対象物と推定される物体の三次元位置の情報は、映像データ処理部50に入力される。In this case, a large number of learning data are prepared, including data generated by the data synthesis unit 41 when an object to be inspected is present in the monitored space 100, to which a label indicating the three-dimensional position of the object to be inspected is added, and data generated by the data synthesis unit 41 when an object to be inspected is not present in the monitored space 100, to which a label indicating no output is added, and these are used to train the DNN that constitutes the detector 42. These learning data can be created, for example, by running the security system of this embodiment on a trial basis before actually operating it, and generating synthetic data under various conditions. Information on the three-dimensional position of an object estimated to be an object to be inspected in the monitored space 100, output by the detector 42, is input to the video data processing unit 50.

映像データ処理部50は、監視カメラ20が撮影する監視対象空間100の映像上で、センサデータ処理部40の検出器42から出力される三次元位置、すなわち、監視対象空間100内の検査対象物の三次元位置に対応する、監視映像上の位置に、マーキングを施して、表示装置30に表示する監視映像を生成する。映像データ処理部50の構成例を図5に示す。映像データ処理部50は、例えば図5に示すように、座標変換部51と、マーカ生成部52と、監視映像生成部53とを備える。The video data processing unit 50 applies markings to positions on the video of the monitored space 100 captured by the surveillance camera 20 that correspond to the three-dimensional positions output from the detector 42 of the sensor data processing unit 40, i.e., the three-dimensional positions of the object to be inspected in the monitored space 100, to generate a surveillance video to be displayed on the display device 30. An example configuration of the video data processing unit 50 is shown in Figure 5. The video data processing unit 50 includes a coordinate conversion unit 51, a marker generation unit 52, and a surveillance video generation unit 53, as shown in Figure 5, for example.

座標変換部51は、センサデータ処理部40の検出器42から出力される三次元位置、すなわち、監視対象空間100内の検査対象物と推定される物体の三次元位置を、監視カメラ20が撮影する監視対象空間100の映像の二次元座標系における位置(二次元位置)に座標変換する。監視対象空間100を撮影する監視カメラ20の位置、向き、画角などは固定であるため、監視対象空間100内の三次元位置と監視カメラ20の映像上の各画素位置(二次元位置)との対応関係は一意に定まり、この対応関係は座標変換式で表すことができる。座標変換部51は、この座標変換式を用いて、監視対象空間100内の検査対象物と推定される物体の三次元位置を、監視カメラ20の映像の二次元位置に座標変換する。The coordinate conversion unit 51 converts the three-dimensional position output from the detector 42 of the sensor data processing unit 40, i.e., the three-dimensional position of an object estimated to be an inspection target in the monitored space 100, into a position (two-dimensional position) in a two-dimensional coordinate system of the image of the monitored space 100 captured by the surveillance camera 20. Since the position, orientation, angle of view, etc. of the surveillance camera 20 capturing the monitored space 100 are fixed, the correspondence between the three-dimensional position in the monitored space 100 and each pixel position (two-dimensional position) on the image of the surveillance camera 20 is uniquely determined, and this correspondence can be expressed by a coordinate conversion formula. The coordinate conversion unit 51 uses this coordinate conversion formula to convert the three-dimensional position of the object estimated to be an inspection target in the monitored space 100 into a two-dimensional position of the image of the surveillance camera 20.

マーカ生成部52は、センサデータ処理部40の検出器42から出力される三次元位置と、既知の値である監視カメラ20の設置位置とに基づいて、監視カメラ20から監視対象空間100内の検査対象物と推定される物体の三次元位置までの距離を算出する。そして、マーカ生成部52は、算出した距離に応じた大きさのマーカ、つまり、監視対象空間100内の検査対象物と推定される物体の三次元位置が監視カメラ20の設置位置に近いほどサイズが大きくなるマーカを生成する。マーカは、監視カメラ20の映像上に重畳したときに目立つ形態で生成されればよく、その形状、色、明るさなどは任意である。The marker generation unit 52 calculates the distance from the surveillance camera 20 to the three-dimensional position of the object estimated to be the inspection target in the monitored space 100 based on the three-dimensional position output from the detector 42 of the sensor data processing unit 40 and the installation position of the surveillance camera 20, which is a known value. The marker generation unit 52 then generates a marker of a size according to the calculated distance, that is, a marker whose size increases as the three-dimensional position of the object estimated to be the inspection target in the monitored space 100 approaches the installation position of the surveillance camera 20. The marker may be generated in a form that stands out when superimposed on the image of the surveillance camera 20, and the shape, color, brightness, etc. of the marker are arbitrary.

監視映像生成部53は、監視カメラ20により撮影された監視対象空間100の映像上で、座標変換部51での座標変換によって得られた位置にマーカ生成部52により生成されたマーカを重畳して監視映像を生成する。監視映像生成部53により生成された監視映像は、表示装置30に表示される。なお、監視対象空間100内に検査対象物が存在せず、センサデータ処理部40の検出器42から三次元位置が出力されない場合は、監視映像生成部53は、監視カメラ20により撮影された監視対象空間100の映像をそのまま表示装置30に出力する。この場合、表示装置30には、監視カメラ20により撮影された監視対象空間100の映像がそのまま表示される。The surveillance video generating unit 53 generates a surveillance video by superimposing a marker generated by the marker generating unit 52 on the position obtained by the coordinate transformation in the coordinate transformation unit 51 on the video of the monitored space 100 captured by the surveillance camera 20. The surveillance video generated by the surveillance video generating unit 53 is displayed on the display device 30. If there is no object to be inspected in the monitored space 100 and no three-dimensional position is output from the detector 42 of the sensor data processing unit 40, the surveillance video generating unit 53 outputs the video of the monitored space 100 captured by the surveillance camera 20 as is to the display device 30. In this case, the video of the monitored space 100 captured by the surveillance camera 20 is displayed as is on the display device 30.

本実施形態のセキュリティシステムにおけるセンサデータ処理部40および映像データ処理部50は、例えば、監視カメラ20のフレーム周期に一致する周期、フレーム周期の1/2、フレーム周期の1/3・・・など、監視カメラ20のフレーム周期を基準とした所定周期で上述の処理を繰り返し実行する。これにより、監視カメラ20により撮影された監視対象空間100の映像の動きに合わせてマーカも動く監視映像が随時生成され、表示装置30に表示される。The sensor data processing unit 40 and the video data processing unit 50 in the security system of this embodiment repeatedly execute the above-mentioned processing at a predetermined period based on the frame period of the surveillance camera 20, such as a period that matches the frame period of the surveillance camera 20, 1/2 the frame period, 1/3 the frame period, etc. As a result, a surveillance image in which the marker moves in accordance with the movement of the image of the monitored space 100 captured by the surveillance camera 20 is generated at any time and displayed on the display device 30.

図6は、表示装置30に表示される監視映像60の一例を示す図である。監視対象空間100内に検査対象物と推定される物体が存在する場合、表示装置30に表示される監視映像60では、図6に示すように、この検査対象物と推定される物体の三次元位置に対応する位置にマーカ70が重畳される。したがって、この監視映像60を参照した警備員200は、監視対象空間100内の人物の中から検査対象物を所持していると疑われる人物90を特定することができ、その人物90を詳細検査エリア120へと誘導して目視による身体検査や手荷物検査、X線検査などを行うことができる。 Figure 6 is a diagram showing an example of a surveillance image 60 displayed on the display device 30. When an object presumed to be an object to be inspected is present in the monitored space 100, a marker 70 is superimposed on the surveillance image 60 displayed on the display device 30 at a position corresponding to the three-dimensional position of the object presumed to be an object to be inspected, as shown in Figure 6. Therefore, a security guard 200 who refers to this surveillance image 60 can identify a person 90 who is suspected of carrying an object to be inspected from among the people in the monitored space 100, and can guide the person 90 to a detailed inspection area 120 to perform a visual physical inspection, baggage inspection, X-ray inspection, etc.

監視カメラ20により撮影された監視対象空間100の映像上では、監視カメラ20の設置位置から見て監視対象空間100の奥行方向に複数の人物が重なるように存在する場合、後ろの人物が前の人物によって遮蔽されて映像上で明確に視認できない。ここで、後ろの人物が検査対象物を所持している場合、検査対象物と推定される物体の三次元位置に対応する映像上の位置にマーカ70を重畳すると、図7-1に示すように、前の人物上にマーカ70が重畳されることもある。In the image of the monitored space 100 captured by the surveillance camera 20, if multiple people overlap in the depth direction of the monitored space 100 as viewed from the installation position of the surveillance camera 20, the person behind cannot be clearly seen in the image because they are blocked by the person in front. Here, if the person behind is holding an object to be inspected, when a marker 70 is superimposed on a position on the image corresponding to the three-dimensional position of the object presumed to be the object to be inspected, the marker 70 may be superimposed on the person in front, as shown in Figure 7-1.

しかし、本実施形態では、検査対象物と推定される物体の三次元位置と監視カメラ20との間の距離に応じた大きさのマーカ70を重畳するようにしているので、マーカ70のサイズと映像上の人物の大きさから、マーカ70が重畳された人物が検査対象物を所持していると疑われる人物90であるかどうかを的確に判断することができる。また、図7-1の監視映像60において前の人物に遮蔽されている後ろの人物が、その後、監視カメラ20の位置に近づいたときには、図7-2に示すように、その人物上に比較的大きいサイズのマーカ70が重畳された監視映像60が表示されるので、この人物が検査対象物を所持していると疑われる人物90であると特定することができる。However, in this embodiment, a marker 70 of a size according to the distance between the three-dimensional position of the object presumed to be the inspection target and the surveillance camera 20 is superimposed, so that it is possible to accurately determine whether the person on whom the marker 70 is superimposed is a person 90 suspected of carrying the inspection target from the size of the marker 70 and the size of the person in the video. Also, when a person behind who is blocked by the person in front in the surveillance video 60 of FIG. 7-1 approaches the position of the surveillance camera 20, as shown in FIG. 7-2, a surveillance video 60 is displayed with a relatively large marker 70 superimposed on that person, so that this person can be identified as a person 90 suspected of carrying the inspection target.

なお、以上はマーキングの一例として、監視カメラ20により撮影された監視対象空間100の映像上にマーカ70を重畳する例を説明したが、マーキングの手法はこれに限らない。例えば、検査対象物と推定される物体の三次元位置に対応する映像上の位置に映る人物を強調させるようにしてもよい。この場合の映像データ処理部50の構成例を図8に示す。図8に示す映像データ処理部50は、上述のマーカ生成部52に代えて人物検出追跡部54を備える。 Note that, as an example of marking, an example of superimposing a marker 70 on the image of the monitored space 100 captured by the surveillance camera 20 has been described above, but the marking method is not limited to this. For example, a person appearing in a position on the image corresponding to the three-dimensional position of an object presumed to be the object of inspection may be emphasized. An example of the configuration of the video data processing unit 50 in this case is shown in Figure 8. The video data processing unit 50 shown in Figure 8 includes a person detection and tracking unit 54 instead of the above-mentioned marker generation unit 52.

人物検出追跡部54は、センサデータ処理部40の検出器42から検査対象物と推定される物体の三次元位置が出力された場合に、監視カメラ20により撮影された監視対象空間100の映像を解析して人物を検出し、座標変換部51での座標変換によって得られた位置に映る人物を、強調の対象となる人物として特定する。ここで、座標変換部51での座標変換によって得られた位置には、上述のように、前の人物によって遮蔽された人物が存在する場合もあるので、監視カメラ20の映像を繰り返し解析し、座標変換部51での座標変換によって得られた位置に同じ人物が映っていると判断できるときに、その人物を強調の対象となる人物として特定することが望ましい。When the three-dimensional position of an object estimated to be an object to be inspected is output from the detector 42 of the sensor data processing unit 40, the person detection and tracking unit 54 analyzes the image of the monitored space 100 captured by the surveillance camera 20 to detect a person, and identifies the person who appears at the position obtained by the coordinate transformation in the coordinate transformation unit 51 as the person to be emphasized. Here, since there may be a person who is occluded by a previous person at the position obtained by the coordinate transformation in the coordinate transformation unit 51 as described above, it is desirable to repeatedly analyze the image of the surveillance camera 20, and identify the person as the person to be emphasized when it can be determined that the same person appears at the position obtained by the coordinate transformation in the coordinate transformation unit 51.

なお、映像から人物を検出する方法は、例えば、顔特徴などの画像特徴を用いた公知の人物検出アルゴリズムを用いればよい。また、映像のフレーム間で動きのある物体を追跡する公知の物体追跡アルゴリズムを用い、監視カメラ20により撮影された監視対象空間100の映像から強調の対象となる人物を特定した後は、その人物を映像上で追跡するようにしてもよい。この場合は、強調の対象となる人物を特定した後の処理を簡略化することができる。A method for detecting a person from a video image may use, for example, a known person detection algorithm that uses image features such as facial features. Also, a known object tracking algorithm that tracks moving objects between video frames may be used to identify a person to be highlighted from the video image of the monitored space 100 captured by the surveillance camera 20, and then track that person on the video image. In this case, the processing after identifying the person to be highlighted can be simplified.

監視映像生成部53’は、監視カメラ20により撮影された監視対象空間100の映像上で、人物検出追跡部54により特定された人物にハイライト加工を施して、その人物を強調した監視映像60を生成し、表示装置30に表示させる。この場合の監視映像60の一例を図9に示す。この監視映像60では、検査対象物と推定される物体の三次元位置に対応する位置に存在する人物がハイライト加工80によって強調されている。したがって、この監視映像60を参照した警備員200は、監視対象空間100内の人物の中から検査対象物を所持していると疑われる人物90を特定することができ、その人物を詳細検査エリア120へと誘導して目視による身体検査や手荷物検査、X線検査などを行うことができる。The surveillance image generating unit 53' applies highlight processing to the person identified by the person detection and tracking unit 54 on the image of the monitored space 100 captured by the surveillance camera 20, generates surveillance image 60 in which the person is emphasized, and displays it on the display device 30. An example of the surveillance image 60 in this case is shown in FIG. 9. In this surveillance image 60, a person present at a position corresponding to the three-dimensional position of an object presumed to be an inspection object is emphasized by highlight processing 80. Therefore, a security guard 200 who refers to this surveillance image 60 can identify a person 90 who is suspected of carrying an inspection object from among the people in the monitored space 100, and guide the person to the detailed inspection area 120 to perform a visual physical inspection, baggage inspection, X-ray inspection, etc.

なお、ハイライト加工80は、監視映像60上で検査対象物を所持していると疑われる人物90を強調できる加工であればよく、例えば、その人物90が映る領域の輝度を高めて際立たせる、その人物90が映る領域の輝度を小刻みに増減させることで点滅効果を持たせる、その人物90が映る領域を所定の色で色付けするなど、任意の方法を用いればよい。The highlight processing 80 may be any processing that can highlight a person 90 suspected of possessing an object to be inspected on the surveillance video 60, and may be any method, such as increasing the brightness of the area showing the person 90 to make them stand out, gradually increasing and decreasing the brightness of the area showing the person 90 to create a blinking effect, or coloring the area showing the person 90 in a specified color.

次に、図10を参照して本実施形態のセキュリティシステムの動作の流れを説明する。図10は、本実施形態のセキュリティシステムにおいて、センサデータ処理部40および映像データ処理部50により所定周期で繰り返し実行される処理手順を示すフローチャートである。Next, the flow of operation of the security system of this embodiment will be described with reference to Figure 10. Figure 10 is a flowchart showing the processing procedure repeatedly executed at a predetermined interval by the sensor data processing unit 40 and the video data processing unit 50 in the security system of this embodiment.

処理が開始されると、まず、センサデータ処理部40のデータ合成部41が、監視対象空間100の境界となる壁面パネル101や天井パネル102の裏側に離散的に配置された複数のミリ波センサ10の出力データを合成し、合成データを生成する(ステップS101)。When the process starts, first, the data synthesis unit 41 of the sensor data processing unit 40 synthesizes the output data of multiple millimeter wave sensors 10 that are discretely placed on the back side of the wall panels 101 and ceiling panels 102 that form the boundaries of the monitored space 100, to generate synthetic data (step S101).

次に、ステップS101で生成された合成データが、DNNなどにより構成される検出器42に入力される(ステップS102)。検出器42は、合成データを入力とし、監視対象空間100内に存在する物体の各々について検査対象物である確からしさを示す尤度を求め、該尤度が基準値を超える物体の三次元位置を出力するように学習されている。Next, the composite data generated in step S101 is input to a detector 42 configured by a DNN or the like (step S102). The detector 42 receives the composite data as input, calculates a likelihood indicating the likelihood that each object present in the monitored space 100 is an object to be inspected, and is trained to output the three-dimensional position of an object whose likelihood exceeds a reference value.

次に、ステップS102で合成データを入力した検出器42から、検査対象物と推定される物体の三次元位置が出力されたか否かが確認される(ステップS103)。ここで、検出器42から検査対象物と推定される物体の三次元位置が出力されない場合は(ステップS103:No)、映像データ処理部50の監視映像生成部53(53’)は、監視カメラ20により撮影された監視対象空間100の映像をそのまま表示装置30に表示させる(ステップS104)。Next, it is confirmed whether or not the three-dimensional position of the object presumed to be the object to be inspected is output from the detector 42 to which the composite data was input in step S102 (step S103). If the three-dimensional position of the object presumed to be the object to be inspected is not output from the detector 42 (step S103: No), the surveillance image generating unit 53 (53') of the video data processing unit 50 displays the image of the monitored space 100 captured by the surveillance camera 20 as is on the display device 30 (step S104).

一方、検出器42から検査対象物と推定される物体の三次元位置が出力された場合は(ステップS103:Yes)、映像データ処理部50の座標変換部51が、検出器42から出力された三次元位置を監視カメラ20の映像の二次元座標系における位置(二次元位置)に座標変換する(ステップS105)。そして、監視映像生成部53(53’)が、監視カメラ20の映像上で座標変換部51の座標変換によって得られた位置、すなわち、検査対象物と推定される物体が存在する位置にマーキングを施した監視映像60を生成し、監視映像60を表示装置30に表示させる(ステップS106)。これにより、警備員200がこの監視映像60を参照して、監視対象空間100内の人物の中から検査対象物を所持していると疑われる人物90を特定することができ、その人物90を詳細検査エリア120へと誘導して目視による身体検査や手荷物検査、X線検査などを行うことができる。On the other hand, if the detector 42 outputs the three-dimensional position of the object presumed to be the inspection object (step S103: Yes), the coordinate conversion unit 51 of the video data processing unit 50 converts the three-dimensional position output from the detector 42 into a position (two-dimensional position) in the two-dimensional coordinate system of the video of the surveillance camera 20 (step S105). Then, the surveillance video generating unit 53 (53') generates a surveillance video 60 in which a mark is applied to the position obtained by the coordinate conversion of the coordinate conversion unit 51 on the video of the surveillance camera 20, that is, the position where the object presumed to be the inspection object exists, and displays the surveillance video 60 on the display device 30 (step S106). This allows the security guard 200 to refer to the surveillance video 60 and identify a person 90 suspected of carrying an inspection object from among the people in the monitored space 100, and guide the person 90 to the detailed inspection area 120 to perform a visual physical inspection, baggage inspection, X-ray inspection, etc.

以上、具体的な例を挙げながら詳細に説明したように、本実施形態のセキュリティシステムにおいては、複数の人が通行可能な空間を監視対象空間100とし、この監視対象空間100を仕切る壁面パネル101や天井パネル102などの構造物の裏側に複数のミリ波センサ10を、間隔を隔てて配置している。そして、これら複数のミリ波センサ10の出力データを合成して合成データを生成し、この合成データに基づいて、監視対象空間100内に存在する検査対象物の位置を検出する。また、監視カメラ20により監視対象空間100を撮影し、監視対象空間100内に存在する検査対象物の位置が検出された場合には、監視カメラ20により撮影された監視対象空間100の映像上で、検査対象物の位置に対応する、映像上の位置に、所定のマーキングを施して監視映像60を生成する。そして、この監視映像60を表示装置30に表示することにより、監視映像60を参照した警備員200などが検査対象物を所持していると疑われる人物を特定できるようにしている。As described above in detail with specific examples, in the security system of this embodiment, a space through which multiple people can pass is set as the monitored space 100, and multiple millimeter wave sensors 10 are arranged at intervals behind structures such as wall panels 101 and ceiling panels 102 that divide the monitored space 100. Then, the output data of these multiple millimeter wave sensors 10 are synthesized to generate synthetic data, and the position of the object to be inspected present in the monitored space 100 is detected based on this synthetic data. In addition, when the monitored space 100 is photographed by the surveillance camera 20 and the position of the object to be inspected present in the monitored space 100 is detected, a predetermined marking is applied to the image of the monitored space 100 photographed by the surveillance camera 20 at a position on the image corresponding to the position of the object to be inspected, thereby generating a surveillance image 60. Then, by displaying this surveillance image 60 on the display device 30, the security guard 200 or the like who refers to the surveillance image 60 can identify a person suspected of possessing the object to be inspected.

このように、本実施形態のセキュリティシステムは、従来のウォークスルータイプの危険物検知装置のように一人ひとり順番に検査するのではなく、複数の人が通行可能な監視対象空間100を仕切る構造物の裏側に間隔を隔てて配置された複数のミリ波センサ10を用いて、監視対象空間100内に存在する複数の人の中から検査対象物を所持していると疑われる人物を特定できるようにしている。したがって、本実施形態のセキュリティシステムによれば、検査が行われていることを意識させずに同時に多くの人を対象とした検査を行うことができ、人に圧迫感を与えず、検査に伴う混雑を緩和することができる。In this way, the security system of this embodiment does not inspect each person in turn as in conventional walk-through type hazardous material detection devices, but uses multiple millimeter wave sensors 10 arranged at intervals on the back side of a structure that divides the monitored space 100 through which multiple people can pass, to identify a person suspected of possessing an object to be inspected from among multiple people present in the monitored space 100. Therefore, the security system of this embodiment can inspect many people at the same time without making them aware that an inspection is taking place, does not make people feel oppressed, and can alleviate congestion associated with inspections.

以上、本発明の具体的な実施形態について説明したが、上述した実施形態は本発明の一適用例を示したものである。本発明は、上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で、種々の省略、置き換え、変更を加えて具体化することができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。 Specific embodiments of the present invention have been described above, but the above-mentioned embodiments show one application example of the present invention. The present invention is not limited to the above-mentioned embodiments as they are, and can be embodied in various ways in the implementation stage without departing from the gist of the invention. These embodiments and their variations are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents as set forth in the claims.

10 ミリ波センサ
20 カメラ
30 表示装置
40 センサデータ処理部
41 データ合成部
42 検出器
50 映像データ処理部
51 座標変換部
52 マーカ生成部
53(53’) 監視映像生成部
54 人物検出追跡部
60 監視映像
70 マーカ
80 ハイライト加工
REFERENCE SIGNS LIST 10 millimeter wave sensor 20 camera 30 display device 40 sensor data processing unit 41 data synthesis unit 42 detector 50 video data processing unit 51 coordinate conversion unit 52 marker generation unit 53 (53') surveillance video generation unit 54 person detection and tracking unit 60 surveillance video 70 marker 80 highlight processing

Claims (6)

複数の人が通行可能な監視対象空間を仕切る構造物の裏側に間隔を隔てて離散的に配置され、各々の検知範囲を統合した範囲が前記監視対象空間の全体を網羅する、複数のミリ波センサと、
前記複数のミリ波センサの出力データを合成した合成データに基づいて、前記監視対象空間内に存在する検査対象物の位置を検出するセンサデータ処理部と、
所定位置から前記監視対象空間を撮影するカメラと、
前記センサデータ処理部により検出される前記検査対象物の位置に対応する、前記カメラが撮影する映像上の位置にマーキングを施した映像を生成する映像データ処理部と、
前記映像データ処理部が生成した映像を表示する表示装置と、を備えることを特徴とするセキュリティシステム。
a plurality of millimeter wave sensors that are discretely arranged at intervals on a rear side of a structure that separates a monitored space through which a plurality of people can pass , the combined detection ranges of the respective millimeter wave sensors covering the entire monitored space;
a sensor data processing unit that detects a position of an inspection target present in the monitored space based on composite data obtained by combining output data of the plurality of millimeter wave sensors;
A camera that captures an image of the monitored space from a predetermined position;
an image data processing unit that generates an image in which a mark is applied to a position on the image captured by the camera, the position corresponding to the position of the inspection object detected by the sensor data processing unit;
a display device that displays the image generated by the image data processing unit.
前記映像データ処理部は、前記センサデータ処理部により検出される前記検査対象物の前記位置が前記カメラの設置位置に近いほどサイズが大きくなるマーカを前記カメラが撮影する映像に重畳して前記映像を生成することを特徴とする請求項1に記載のセキュリティシステム。 The security system according to claim 1, characterized in that the video data processing unit generates the video by superimposing a marker, the size of which increases as the position of the object to be inspected detected by the sensor data processing unit approaches the installation position of the camera, on the video captured by the camera. 前記映像データ処理部は、前記カメラが撮影する映像上で、前記センサデータ処理部により検出される前記検査対象物の前記位置に対応する前記映像上の位置に映る人物を特定し、該人物が強調される前記映像を生成することを特徴とする請求項1に記載のセキュリティシステム。 The security system according to claim 1, characterized in that the video data processing unit identifies a person appearing in a position on the video captured by the camera that corresponds to the position of the object to be inspected detected by the sensor data processing unit, and generates the video in which the person is emphasized. 前記センサデータ処理部は、前記合成データを入力とし、前記監視対象空間内に存在する物体の各々について前記検査対象物である確からしさを示す尤度を求め、該尤度が基準値を超える物体の位置を出力するように学習された検出器を用いて、前記監視対象空間内に存在する前記検査対象物の位置を検出することを特徴とする請求項1に記載のセキュリティシステム。 The security system described in claim 1, characterized in that the sensor data processing unit receives the composite data as input, calculates a likelihood indicating the likelihood that each object present in the monitored space is the object to be inspected, and detects the position of the object to be inspected present in the monitored space using a detector trained to output the position of an object whose likelihood exceeds a reference value. 前記センサデータ処理部は、前記複数のミリ波センサの各々の前記出力データを光無線通信により受信し、
前記映像データ処理部は、前記カメラによって撮影された前記映像の映像データを光無線通信により受信する、
ことを特徴とする請求項1に記載のセキュリティシステム。
the sensor data processing unit receives the output data of each of the millimeter wave sensors via optical wireless communication;
The video data processing unit receives video data of the video captured by the camera via optical wireless communication.
2. The security system of claim 1.
前記センサデータ処理部および前記映像データ処理部は、The sensor data processing unit and the video data processing unit
前記カメラのフレーム周期に一致する周期、フレーム周期の1/2、またはフレーム周期の1/3を基準とした所定周期で、前記検査対象物の位置の検出および前記映像の生成を含む処理を繰り返し実行する、repeating a process including detection of the position of the inspection object and generation of the image at a predetermined period based on a period that is equal to a frame period of the camera, 1/2 the frame period, or 1/3 the frame period;
ことを特徴とする請求項1に記載のセキュリティシステム。2. The security system according to claim 1.
JP2021519428A 2019-05-14 2020-05-11 Security Systems Active JP7467434B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019091697 2019-05-14
JP2019091697 2019-05-14
PCT/JP2020/018874 WO2020230766A1 (en) 2019-05-14 2020-05-11 Security system

Publications (2)

Publication Number Publication Date
JPWO2020230766A1 JPWO2020230766A1 (en) 2020-11-19
JP7467434B2 true JP7467434B2 (en) 2024-04-15

Family

ID=73289924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021519428A Active JP7467434B2 (en) 2019-05-14 2020-05-11 Security Systems

Country Status (2)

Country Link
JP (1) JP7467434B2 (en)
WO (1) WO2020230766A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7411539B2 (en) 2020-12-24 2024-01-11 株式会社日立エルジーデータストレージ Ranging system and its coordinate calibration method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007517275A (en) 2003-10-30 2007-06-28 バッテル メモリアル インスティチュート Hidden object detection
JP2010156697A (en) 2008-12-30 2010-07-15 Sony Deutsche Gmbh Camera assisted sensor imaging system and multi aspect imaging system
JP2011503597A (en) 2007-11-13 2011-01-27 シェクロン、クロード Device for detecting objects, especially dangerous materials
CN102565794A (en) 2011-12-30 2012-07-11 北京华航无线电测量研究所 Microwave security inspection system for automatically detecting dangerous object hidden in human body
US20160291148A1 (en) 2015-04-03 2016-10-06 Evolv Technologies, Inc. Modular Imaging System
US20170270366A1 (en) 2012-06-20 2017-09-21 Apstec Systems Usa Llc Methods and systems for non-cooperative automatic security screening in crowded areas
JP2018013448A (en) 2016-07-22 2018-01-25 日本信号株式会社 Portable object detection device
JP2018146257A (en) 2017-03-01 2018-09-20 株式会社東芝 Dangerous object detector
JP2018156586A (en) 2017-03-21 2018-10-04 株式会社東芝 Monitoring system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10282247A (en) * 1997-04-10 1998-10-23 Mitsubishi Electric Corp Metal detecting device
JPH1183996A (en) * 1997-09-03 1999-03-26 Omron Corp Millimetric wave detector
JPH11203569A (en) * 1998-01-12 1999-07-30 Hitachi Zosen Corp Passerby detecting method and detection system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007517275A (en) 2003-10-30 2007-06-28 バッテル メモリアル インスティチュート Hidden object detection
JP2011503597A (en) 2007-11-13 2011-01-27 シェクロン、クロード Device for detecting objects, especially dangerous materials
JP2010156697A (en) 2008-12-30 2010-07-15 Sony Deutsche Gmbh Camera assisted sensor imaging system and multi aspect imaging system
CN102565794A (en) 2011-12-30 2012-07-11 北京华航无线电测量研究所 Microwave security inspection system for automatically detecting dangerous object hidden in human body
US20170270366A1 (en) 2012-06-20 2017-09-21 Apstec Systems Usa Llc Methods and systems for non-cooperative automatic security screening in crowded areas
US20160291148A1 (en) 2015-04-03 2016-10-06 Evolv Technologies, Inc. Modular Imaging System
JP2018013448A (en) 2016-07-22 2018-01-25 日本信号株式会社 Portable object detection device
JP2018146257A (en) 2017-03-01 2018-09-20 株式会社東芝 Dangerous object detector
JP2018156586A (en) 2017-03-21 2018-10-04 株式会社東芝 Monitoring system

Also Published As

Publication number Publication date
JPWO2020230766A1 (en) 2020-11-19
WO2020230766A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
RU2510036C2 (en) Adaptive detection system
US10347062B2 (en) Personal identification for multi-stage inspections of persons
US6297844B1 (en) Video safety curtain
US6829371B1 (en) Auto-setup of a video safety curtain system
US10740906B2 (en) Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
JP6178511B2 (en) Active microwave device and detection method
RU2671237C2 (en) Method for generating image and handheld screening device
US9282258B2 (en) Active microwave device and detection method
JP2007536506A (en) Monitoring portal with multiple sources
CN103885088A (en) Method For Operating A Handheld Screening Device And Handheld Screening Device
EP2546807B1 (en) Traffic monitoring device
JP7467434B2 (en) Security Systems
KR102282459B1 (en) Method and Apparatus for counting the number of person
US20160133023A1 (en) Method for image processing, presence detector and illumination system
JP2020153975A (en) Processing system
US10553093B2 (en) Security system and method to detect motions and features associated with a traveler
JP7388532B2 (en) Processing system, processing method and program
US10867492B1 (en) Systems and methods for discreet imaging of a scene
CN103984036A (en) Screening method for operating a plurality of screening sensors, and screening system
US20220334243A1 (en) Systems and methods for detection of concealed threats
US11454735B2 (en) Method and a system for detecting a potential threat in a shoe worn by an individual
WO2023194826A1 (en) Thermal imaging with ai image identification
Gogulamudi et al. Social distance monitoring framework for Covid-19 using deep learning
US20210149047A1 (en) Standoff detection system
JP2012202883A (en) Object recognition system, watching system and monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150