JP2020053840A - Surveillance system and camera - Google Patents

Surveillance system and camera Download PDF

Info

Publication number
JP2020053840A
JP2020053840A JP2018181306A JP2018181306A JP2020053840A JP 2020053840 A JP2020053840 A JP 2020053840A JP 2018181306 A JP2018181306 A JP 2018181306A JP 2018181306 A JP2018181306 A JP 2018181306A JP 2020053840 A JP2020053840 A JP 2020053840A
Authority
JP
Japan
Prior art keywords
person
captured image
captured
unit
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018181306A
Other languages
Japanese (ja)
Other versions
JP7180243B2 (en
Inventor
将磨 松川
Shoma Matsukawa
将磨 松川
直丈 松田
Naotake Matsuda
直丈 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2018181306A priority Critical patent/JP7180243B2/en
Publication of JP2020053840A publication Critical patent/JP2020053840A/en
Application granted granted Critical
Publication of JP7180243B2 publication Critical patent/JP7180243B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To sufficiently obtain feature information of a person by creating a 3D model of the person using information obtained from a captured image looking down a space.SOLUTION: The surveillance system includes: an imaging unit, installed on a ceiling, for acquiring a captured image looking down a space below the ceiling in a direction of gravity from the ceiling; a determination unit for determining whether a person is captured in the captured image; a creating unit for creating a 3D model of the person captured in the captured image using information obtained from the captured image when the determination unit determines that the person is captured in the captured image; and a display unit for displaying the 3D model.SELECTED DRAWING: Figure 1

Description

本発明は、監視システムおよびカメラに関する。   The present invention relates to a surveillance system and a camera.

オフィスやマンション等への侵入監視において、監視カメラが用いられている。このような監視カメラには、監視する空間に対して、斜め上方向から監視するものがある(例えば、特許文献1)。   Surveillance cameras are used for monitoring intrusion into offices and condominiums. Among such surveillance cameras, there is one that monitors a space to be monitored from an obliquely upward direction (for example, Patent Document 1).

特開2013−229044号公報JP 2013-229044 A

特許文献1のような監視カメラが斜め上方向から空間を監視している場合には、撮影されている人物のうち監視カメラが配置されている側とは反対側の側面が写らないことから、その人物の特徴情報が十分に得られない可能性がある。このため、監視する空間を通過する人物の特徴情報を十分に得ることができる技術が望まれている。   In the case where the surveillance camera as described in Patent Document 1 monitors the space obliquely from above, the side of the person being photographed that is opposite to the side on which the surveillance camera is arranged is not shown. There is a possibility that the feature information of the person cannot be obtained sufficiently. For this reason, a technique capable of sufficiently obtaining characteristic information of a person passing through a monitored space is desired.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following embodiments.

(1)本発明の一形態によれば、監視システムが提供される。この監視システムは、天井に設置されて前記天井から重力方向下側の空間を俯瞰した撮像画像を取得する撮像部と、前記撮像画像に人物が写っているか否かを判定する判定部と、前記撮像画像に人物が写っていると前記判定部が判定した場合に、前記撮像画像から得られる情報を用いて前記撮像画像に写っていた人物の3Dモデルを作成する作成部と、を備える。この形態の監視システムによれば、撮像部が設置された天井から重力方向下側の空間を俯瞰した撮像画像が取得される。撮像画像からは写っていた人物の身体を多視点より撮像した情報が得られる。空間を俯瞰した撮像画像から得られるこのような情報を用いて人物の3Dモデルが作成されることから、その人物の特徴情報を十分に得ることができる。   (1) According to one aspect of the present invention, a monitoring system is provided. The monitoring system is installed on a ceiling, an imaging unit that obtains a captured image of the space below the gravitational direction from the ceiling, and a determination unit that determines whether a person is included in the captured image, A creating unit that creates a 3D model of the person appearing in the captured image using information obtained from the captured image when the determining unit determines that the person is present in the captured image. According to the monitoring system of this aspect, a captured image of the space below the gravitational direction from the ceiling where the imaging unit is installed is obtained. From the captured image, information obtained by capturing the body of the person who has been captured from multiple viewpoints can be obtained. Since a 3D model of a person is created using such information obtained from a captured image of the space, feature information of the person can be sufficiently obtained.

(2)上記形態における監視システムにおいて、前記作成部は、異なる時間に取得された前記撮像画像から得られる情報を用いて前記3Dモデルを作成してもよい。このような形態とすれば、3Dモデルを精度良く作成することができる。   (2) In the monitoring system according to the aspect, the creation unit may create the 3D model using information obtained from the captured images acquired at different times. With such an embodiment, a 3D model can be created with high accuracy.

(3)本発明の他の形態によれば、カメラが提供される。このカメラは、天井に設置されるカメラであって、前記天井から重力方向下側の空間を俯瞰した撮像画像を取得する撮像部と、前記撮像画像に人物が写っているか否かを判定する判定部と、前記撮像画像に人物が写っていると前記判定部が判定した場合に、前記撮像画像から得られる情報を用いて前記撮像画像に写っていた人物の3Dモデルを作成する作成部と、前記3Dモデルを表示する表示部に対して前記3Dモデルの情報を送る通信部と、を備える。この形態のカメラによれば、カメラが設置された天井から重力方向下側の空間を俯瞰した撮像画像が取得される。撮像画像からは写っていた人物の身体を多視点より撮像した情報が得られる。空間を俯瞰した撮像画像から得られるこのような情報を用いて人物の3Dモデルが作成されることから、その人物の特徴情報を十分に得ることができる。   (3) According to another aspect of the present invention, there is provided a camera. The camera is a camera installed on a ceiling, and an imaging unit that acquires a captured image of the space below the ceiling in the direction of gravity from the ceiling, and a determination that determines whether a person is included in the captured image. And a creating unit that creates a 3D model of the person captured in the captured image using information obtained from the captured image, when the determination unit determines that a person is captured in the captured image, A communication unit that sends information of the 3D model to a display unit that displays the 3D model. According to the camera of this embodiment, a captured image is obtained from the ceiling where the camera is installed, while looking down at the space below the camera in the direction of gravity. From the captured image, information obtained by capturing the body of the person who has been captured from multiple viewpoints can be obtained. Since a 3D model of a person is created using such information obtained from a captured image of the space, feature information of the person can be sufficiently obtained.

本発明の形態は、本発明の形態は、カメラや監視システムの形態に限るものではなく、例えば、カメラや監視システムを管理する管理装置の他、監視システムや管理装置の機能をコンピュータに実現させるためのプログラムなどの種々の形態に適用することも可能である。また、本発明は、前述の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。   The embodiment of the present invention is not limited to the form of a camera or a monitoring system, and for example, causes a computer to realize functions of the monitoring system and the management apparatus in addition to a management apparatus that manages the camera and the monitoring system. It is also possible to apply to various forms such as a program for the purpose. Further, the present invention is not limited to the above-described embodiments at all, and it goes without saying that the present invention can be implemented in various embodiments without departing from the spirit of the present invention.

監視システムについて示した説明図である。It is an explanatory view showing a monitoring system. 人物を撮像部が撮像している状態を説明する説明図である。FIG. 3 is an explanatory diagram illustrating a state in which a person is imaged by an imaging unit. 人物の正面側の上半身が撮像部に撮像された状態を示す説明図である。FIG. 4 is an explanatory diagram illustrating a state in which an upper body of a person on the front side is imaged by an imaging unit; 人物の頭頂部が撮像部に撮像された状態を示す説明図である。FIG. 4 is an explanatory diagram illustrating a state in which the top of a person is imaged by an imaging unit. 人物の背面側の上半身が撮像部に撮像された状態を示す説明図である。FIG. 8 is an explanatory diagram illustrating a state in which the upper body of the back side of the person is imaged by the imaging unit; 3Dモデルを表示した表示画像の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of a display image displaying a 3D model. カメラについて示した説明図である。FIG. 3 is an explanatory diagram showing a camera. 監視システムについて示した説明図である。It is an explanatory view showing a monitoring system.

A.第1実施形態:
図1は、本実施形態における監視システム10について示した説明図である。監視システム10は、セキュリティエリアSCに入るための扉DRの周辺のエリアARを監視する。監視システム10は、撮像部110と、判定部120と、作成部130と、表示部140とを備える。
A. First embodiment:
FIG. 1 is an explanatory diagram showing a monitoring system 10 according to the present embodiment. The monitoring system 10 monitors an area AR around the door DR for entering the security area SC. The monitoring system 10 includes an imaging unit 110, a determination unit 120, a creation unit 130, and a display unit 140.

撮像部110は、エリアARの天井に設置されて天井から重力方向下側の空間を俯瞰した撮像画像を取得する。ここでいう天井とは、密閉された部屋のうち重力方向上側の面の部分という意味だけでなく、エリアARの重力方向上側という意味も含む概念である。本実施形態では、撮像部110は、カラーフィルタを搭載した距離画像カメラ(デプスカメラ)である。他の実施形態では、撮像部110は、3Dモデルを作成するために必要な情報を得られる装置である限り、グレースケール画像のみのデプスカメラやステレオ測距方式を用いたステレオカメラであってもよい。また、撮像部110として、距離測定に赤外線が用いられる場合には、暗い場所においても安定して距離を測定することができる。本実施形態では、撮像部110は、エリアARを常時撮像している。他の実施形態では、撮像部110は、エリアAR内に動く物体が進入したときのみ撮像を行ってもよい。   The imaging unit 110 is installed on the ceiling of the area AR and acquires a captured image of the space below the ceiling in the direction of gravity. Here, the ceiling is a concept including not only a portion of a surface on the upper side in the gravitational direction in a closed room, but also an upper side in the gravitational direction of the area AR. In the present embodiment, the imaging unit 110 is a range image camera (depth camera) equipped with a color filter. In another embodiment, the imaging unit 110 may be a depth camera of only a grayscale image or a stereo camera using a stereo ranging method, as long as the imaging unit 110 can obtain information necessary for creating a 3D model. Good. Further, when infrared rays are used for the distance measurement as the imaging unit 110, the distance can be stably measured even in a dark place. In the present embodiment, the imaging unit 110 constantly captures an image of the area AR. In another embodiment, the imaging unit 110 may perform imaging only when a moving object enters the area AR.

判定部120は、撮像画像に人物が写っているか否か判定する。判定部120は、予め設定された時間間隔毎に、その間隔の間において蓄積された撮像画像を用いて判定を行う。撮像画像は、監視システム10が有するメモリに蓄積されている。   The determination unit 120 determines whether a person is included in the captured image. The determination unit 120 makes a determination at each preset time interval using the captured images accumulated during the interval. The captured images are stored in a memory included in the monitoring system 10.

作成部130は、撮像画像に人物が写っていると判定部120が判定した場合に、撮像画像から得られる情報を用いて撮像画像に写っていた人物の3Dモデルを作成する。ここでいう撮像画像から得られる情報には、対象とする人物の表面における凹凸情報、撮像部110を原点とした絶対値としての人物までの距離情報、輝度値やRGB値などが含まれる。   When the determination unit 120 determines that a person is present in the captured image, the creating unit 130 creates a 3D model of the person who was captured in the captured image using information obtained from the captured image. The information obtained from the captured image includes irregularity information on the surface of the target person, distance information to the person as an absolute value with the imaging unit 110 as the origin, a luminance value, an RGB value, and the like.

表示部140は、作成部130が作成した3Dモデルを表示する。本実施形態では、表示部140は、監視システム10を構成するパソコンの液晶ディスプレイである。他の実施形態では、表示部140は、スマートフォンもしくはエリアARが存在する建物内の壁面に備えられた液晶ディスプレイであってもよい。また、表示部140は、AR(Augmented Reality)、VR(Virtual Reality)およびMR(Mixed Reality)を利用して表示する構成であってもよい。   The display unit 140 displays the 3D model created by the creating unit 130. In the present embodiment, the display unit 140 is a liquid crystal display of a personal computer included in the monitoring system 10. In another embodiment, the display unit 140 may be a smartphone or a liquid crystal display provided on a wall surface in a building where the area AR exists. Further, the display unit 140 may be configured to perform display using AR (Augmented Reality), VR (Virtual Reality), and MR (Mixed Reality).

図2は、エリアARに進入した人物FGを撮像部110が撮像している状態を説明する説明図である。図2において、人物FGは、エリアARに紙面右側から進入して紙面左側に配置された扉DR(図示しない)に向かっている。人物FG1〜FG5は、紙面右側から紙面左側に移動する人物FGの位置を表している。エリアARの天井に配置されている撮像部110は、撮像部110が撮像できる範囲を通過する人物FGの一連の動作を撮像する。撮像部110は、図2の矢印で示されているように、人物FG1〜FG5の位置に応じて人物FGの身体を撮像することから、各位置における人物FGの特徴を撮像することができる。   FIG. 2 is an explanatory diagram illustrating a state in which the image capturing unit 110 captures an image of a person FG that has entered the area AR. In FIG. 2, the person FG enters the area AR from the right side of the drawing and is heading toward a door DR (not shown) arranged on the left side of the drawing. The persons FG1 to FG5 represent the positions of the persons FG that move from the right side of the drawing to the left side of the drawing. The imaging unit 110 arranged on the ceiling of the area AR captures a series of motions of the person FG passing through a range that the imaging unit 110 can image. The imaging unit 110 captures the body of the person FG in accordance with the positions of the people FG1 to FG5 as indicated by the arrows in FIG. 2, and thus can capture the characteristics of the person FG at each position.

図3は、人物FG2の位置において、人物FGの正面側の上半身が撮像部110に撮像された状態を示す説明図である。図4は、人物FG3の位置において、人物FGの頭頂部が撮像部110に撮像された状態を示す説明図である。図5は、人物FG4の位置において、人物FGの背面側の上半身が撮像部110に撮像された状態を示す説明図である。また、人物FG1の位置では、人物FGの正面側の下半身が撮像部110に撮像される。人物FG5の位置では、人物FGの背面側の下半身が撮像部110に撮像される。人物FG1〜5の位置において撮像した撮像画像から得られた情報を用いて、作成部130は、人物FGの3Dモデルを作成する。このため、人物FGの3Dモデルを精度良く作成することができる。   FIG. 3 is an explanatory diagram illustrating a state in which the upper body on the front side of the person FG is imaged by the imaging unit 110 at the position of the person FG2. FIG. 4 is an explanatory diagram illustrating a state in which the top of the person FG is imaged by the imaging unit 110 at the position of the person FG3. FIG. 5 is an explanatory diagram illustrating a state in which the upper body on the back side of the person FG is imaged by the imaging unit 110 at the position of the person FG4. Further, at the position of the person FG1, the lower body of the front side of the person FG is imaged by the imaging unit 110. At the position of the person FG5, the lower body on the back side of the person FG is imaged by the imaging unit 110. The creating unit 130 creates a 3D model of the person FG by using information obtained from the images captured at the positions of the people FG1 to FG5. Therefore, a 3D model of the person FG can be created with high accuracy.

図6は、3Dモデルを表示した表示画像の一例を示す説明図である。図6に示された表示画像Viは、人物FGの3Dモデルを示した画像である。表示画像Viは、表示部140に表示される。表示画像Viでは、5つの側面から見た人物FGが表示されている。表示画像は、このような表示形式に限られず、例えば、表示部140がタッチパネルである場合には、表示画像に表示された1体の人物FGの3Dモデルがタッチパネルに対する操作によって回転可能に表示されていてもよい。   FIG. 6 is an explanatory diagram illustrating an example of a display image displaying a 3D model. The display image Vi shown in FIG. 6 is an image showing a 3D model of the person FG. The display image Vi is displayed on the display unit 140. In the display image Vi, a person FG viewed from five sides is displayed. The display image is not limited to such a display format. For example, when the display unit 140 is a touch panel, the 3D model of one person FG displayed on the display image is rotatably displayed by operating the touch panel. May be.

以上説明した第1実施形態によれば、撮像部110が設置された天井から重力方向下側の空間であるエリアARを俯瞰した撮像画像が取得される。撮像画像からは写っていた人物FGの身体を多視点より撮像した情報が得られる。エリアARを俯瞰した撮像画像から得られるこのような情報を用いて人物FGの3Dモデルが作成されることから、人物FGの特徴情報を十分に得ることができる。監視システム10では、人物FGを3Dモデル化することによって、エリアARを斜め上方向から撮像する場合には得られなかった視点で、人物FGを眺めた時の様子を再現することができる。換言すれば、一視点から見た人物FGだけでなく、様々な視点から見た人物FGを識別することができる情報が得られる。このため、表示部140に表示された人物FGの3Dモデルを見たユーザーが実際に人物FGに遭遇した際に、その人物が人物FGであると認識する可能性を高くすることができる。   According to the first embodiment described above, a captured image of the area AR, which is a space below the gravitational direction, is obtained from the ceiling where the imaging unit 110 is installed. From the captured image, information obtained by capturing the body of the person FG from multiple viewpoints can be obtained. Since the 3D model of the person FG is created using such information obtained from the captured image of the area AR, the feature information of the person FG can be sufficiently obtained. In the monitoring system 10, by modeling the person FG as a 3D model, it is possible to reproduce a state when the person FG is viewed from a viewpoint that was not obtained when the area AR was imaged obliquely from above. In other words, information that can identify not only the person FG viewed from one viewpoint but also the person FG viewed from various viewpoints is obtained. For this reason, when the user who sees the 3D model of the person FG displayed on the display unit 140 actually encounters the person FG, it is possible to increase the possibility that the person is recognized as the person FG.

エリアARを斜め上方向から撮像する形態の場合、撮影されている人物FGのうち撮像部が配置されている側とは反対側の側面が写らないことによって、該側面の情報が欠けている3Dモデルが作成される可能性が高い。そのような形態と比べて、第1実施形態では、天井から重力方向下側に向けてエリアARを撮像するため、人物FGのうち撮像部110から見えない側面を減らしやすいことから、より情報量の多い3Dモデルを形成する可能性を高くすることができる。したがって、死角になりやすい人物FGの背面および側面の情報が含まれた3Dモデルを形成する可能性を高くすることができる。   In the case where the area AR is imaged from an obliquely upward direction, the side of the person FG being photographed that is opposite to the side where the imaging unit is arranged is not shown, and thus information on the side is missing. Model is likely to be created. In the first embodiment, since the area AR is imaged downward from the ceiling in the direction of gravity, the side of the person FG that is not visible from the imaging unit 110 can be easily reduced. The possibility of forming a 3D model with many objects can be increased. Therefore, it is possible to increase the possibility of forming a 3D model including information on the back and side surfaces of the person FG that is likely to be blind spot.

情報量の多い3Dモデルを作成しようとした場合、エリアARを斜め上方向から撮像する撮像部では、人物FGにおいて写らない部分を減らすために、複数の位置に撮像部を配置してエリアARを撮像する必要がある。一方、第1実施形態では、エリアARを俯瞰する位置から撮像部110がエリアARを撮像するため、斜め上方向から撮像する撮像部と比べて、1つの撮像部から得られる人物FGの情報量が多いことから、より少ない数の撮像部110で人物FGの情報を十分に取得することができる。したがって、監視システム10のデバイスコストを低く抑えることができる。   When an attempt is made to create a 3D model with a large amount of information, the imaging unit that captures the area AR from an obliquely upward direction has image capturing units arranged at a plurality of positions to reduce the area AR in order to reduce portions that are not captured in the person FG. It is necessary to take an image. On the other hand, in the first embodiment, since the imaging unit 110 captures the area AR from a position where the area AR is overlooked, the information amount of the person FG obtained from one imaging unit is lower than that of the imaging unit that captures an image from an obliquely upward direction. Therefore, the information on the person FG can be sufficiently acquired by the smaller number of imaging units 110. Therefore, the device cost of the monitoring system 10 can be reduced.

また、エリアARを斜め上方向から撮像する撮像部と比べて、エリアARを俯瞰する位置から撮像する撮像部110では、人物FGの正面側および背面側を撮像しやすい。このため、監視システム10では、人物FGの正面側および背面側における情報量が不足しにくいため、正面側および背面側の情報量が多い3Dモデルを作成することができる。   Further, as compared with the imaging unit that images the area AR from an obliquely upward direction, the imaging unit 110 that images the area AR from a bird's-eye view position can easily image the front side and the back side of the person FG. For this reason, in the monitoring system 10, since the amount of information on the front side and the back side of the person FG is unlikely to be insufficient, a 3D model with a large amount of information on the front side and the back side can be created.

また、撮像部110は、人物FG1〜FG5の位置に移動する人物FGを撮像していることから、人物FGの歩行動作などの動作の特徴を取得することができる。このような特徴情報を3Dモデルに適用することによって、人物FGの動作を3Dモデルに再現させることができる。   In addition, since the imaging unit 110 captures an image of the person FG that moves to the positions of the people FG1 to FG5, the imaging unit 110 can acquire characteristics of an operation such as a walking operation of the person FG. By applying such feature information to the 3D model, the motion of the person FG can be reproduced in the 3D model.

また、第1実施形態では、撮像画像から得られる情報に輝度値やRGB値などが含まれることから、作成部130は、色情報が付いた3Dモデルを作成できる。このため、作成された3Dモデルから人物FGの身長や体格を視覚的に分かりやすく捉えることができる。また、色情報が付いた3Dモデルから、人物FGの服装や装飾品の情報も詳しく知ることができる。   Further, in the first embodiment, since the information obtained from the captured image includes a luminance value, an RGB value, and the like, the creating unit 130 can create a 3D model with color information. For this reason, the height and the physique of the person FG can be grasped visually easily from the created 3D model. Further, from the 3D model with the color information, it is possible to know in detail the information on the clothes and decorations of the person FG.

また、第1実施形態では、撮像部110は、天井に設置されていることから、部屋の側面の壁などに設置される形態と比べて、配線がしやすい。具体的には、天井に設置された撮像部110に対して配線する場合には、天井裏の空間に配線を行えばよいが、部屋の側面の壁に設置された撮像部に対して配線する場合には、壁内に配線を埋め込む等の煩雑な作業が発生しやすいということである。このため、第1実施形態では、撮像部110の設置を簡易にすることができる。   Further, in the first embodiment, since the imaging unit 110 is installed on the ceiling, wiring is easier than in a mode in which the imaging unit 110 is installed on a side wall of a room. Specifically, when wiring to the imaging unit 110 installed on the ceiling, wiring may be performed in the space behind the ceiling, but wiring to the imaging unit installed on the side wall of the room. In such a case, complicated work such as embedding wiring in the wall is likely to occur. For this reason, in the first embodiment, the installation of the imaging unit 110 can be simplified.

B.他の実施形態:
図7は、他の実施形態におけるカメラ10aについて示した説明図である。カメラ10aは、撮像部110と、判定部120と、作成部130と、通信部150と、を備える。撮像部110、判定部120および作成部130の機能は、第1実施形態の監視システム10と同じである。換言すれば、カメラ10aは、監視システム10が備えていた撮像部110、判定部120および作成部130の機能を、カメラ10a内で実行するものである。
B. Other embodiments:
FIG. 7 is an explanatory diagram showing a camera 10a according to another embodiment. The camera 10a includes an imaging unit 110, a determination unit 120, a creation unit 130, and a communication unit 150. The functions of the imaging unit 110, the determination unit 120, and the creation unit 130 are the same as those of the monitoring system 10 according to the first embodiment. In other words, the camera 10a executes the functions of the imaging unit 110, the determination unit 120, and the creation unit 130 included in the monitoring system 10 in the camera 10a.

通信部150は、作成部130が作成した3Dモデルの情報を、カメラ10aの外部に設けられた表示部に対して送る。ここでいう表示部は、デジタルサイネージ、スマートフォンもしくはパソコンの画面である。このような形態によっても、第1実施形態と同様の効果を奏することができる。   The communication unit 150 sends the information of the 3D model created by the creating unit 130 to a display unit provided outside the camera 10a. The display unit here is a screen of a digital signage, a smartphone, or a personal computer. According to such an embodiment, the same effect as in the first embodiment can be obtained.

上述した第1実施形態では、判定部120は、予め設定された時間間隔毎に、その間隔の間において蓄積された撮像画像を用いて判定を行っていたが、本発明はこれに限られない。例えば、判定部120は、予め設定された条件が満たされた場合にのみ判定を行ってもよい。   In the first embodiment described above, the determination unit 120 performs the determination at each preset time interval using the captured images accumulated during the interval, but the present invention is not limited to this. . For example, the determination unit 120 may make the determination only when a preset condition is satisfied.

予め設定された条件の例について、図8を用いて説明する。扉DRは、認証操作により開錠される扉であるとする。認証操作を行い扉DRを開錠してセキュリティエリアSCに進入する認証人物ATがいる場合、認証人物ATが開けた扉DRが閉じる前に、認証操作を行っていない不審者PRが認証人物ATに続いてセキュリティエリアSCに進入する状況を、共連れと呼ぶ。判定部120は、共連れが発生したことを、予め設定された条件として設定されていた場合、共連れが発生する前の一定の時間に取得された撮像画像に不審者PRが人物として写っているか否かを判定してもよい。   An example of a preset condition will be described with reference to FIG. The door DR is a door that is unlocked by an authentication operation. When there is an authenticated person AT who performs the authentication operation and unlocks the door DR to enter the security area SC, the suspicious individual PR who has not performed the authentication operation is required to perform authentication before the door DR opened by the authenticated person AT is closed. After that, a situation of entering the security area SC is referred to as tailgating. When the occurrence of the tailgating is set as a preset condition, the determination unit 120 includes the suspicious individual PR as a person in a captured image acquired at a certain time before the tailgating occurs. It may be determined whether or not there is.

本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments, examples, and modified examples, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the Summary of the Invention section are for solving some or all of the above-described problems, or In order to achieve some or all of the above-described effects, replacement and combination can be appropriately performed. Unless the technical features are described as essential in the present specification, they can be deleted as appropriate.

10…監視システム、10a…カメラ、110…撮像部、120…判定部、130…作成部、140…表示部、150…通信部、AR…エリア、AT…認証人物、DR…扉、FG…人物、PR…不審者、SC…セキュリティエリア、Vi…表示画像     DESCRIPTION OF SYMBOLS 10 ... Monitoring system, 10a ... Camera, 110 ... Imaging part, 120 ... Judgment part, 130 ... Creation part, 140 ... Display part, 150 ... Communication part, AR ... Area, AT ... Authentication person, DR ... Door, FG ... Person , PR: suspicious person, SC: security area, Vi: display image

Claims (3)

監視システムであって、
天井に設置されて前記天井から重力方向下側の空間を俯瞰した撮像画像を取得する撮像部と、
前記撮像画像に人物が写っているか否かを判定する判定部と、
前記撮像画像に人物が写っていると前記判定部が判定した場合に、前記撮像画像から得られる情報を用いて前記撮像画像に写っていた人物の3Dモデルを作成する作成部と、
前記3Dモデルを表示する表示部と、を備える、監視システム。
A monitoring system,
An imaging unit that is installed on the ceiling and acquires a captured image that overlooks the space below the gravitational direction from the ceiling,
A determining unit that determines whether a person is captured in the captured image,
A creating unit that creates a 3D model of a person that is captured in the captured image using information obtained from the captured image, when the determination unit determines that a person is captured in the captured image;
A display unit for displaying the 3D model.
請求項1に記載の監視システムであって、
前記作成部は、異なる時間に取得された前記撮像画像から得られる情報を用いて前記3Dモデルを作成する、監視システム。
The monitoring system according to claim 1, wherein
The monitoring system, wherein the creating unit creates the 3D model using information obtained from the captured images acquired at different times.
天井に設置されるカメラであって、
前記天井から重力方向下側の空間を俯瞰した撮像画像を取得する撮像部と、
前記撮像画像に人物が写っているか否かを判定する判定部と、
前記撮像画像に人物が写っていると前記判定部が判定した場合に、前記撮像画像から得られる情報を用いて前記撮像画像に写っていた人物の3Dモデルを作成する作成部と、
前記3Dモデルを表示する表示部に対して前記3Dモデルの情報を送る通信部と、を備える、カメラ。
A camera installed on the ceiling,
An imaging unit that acquires a captured image of the space below the gravitational direction from the ceiling,
A determining unit that determines whether a person is captured in the captured image,
A creating unit that creates a 3D model of a person that is captured in the captured image using information obtained from the captured image, when the determination unit determines that a person is captured in the captured image;
A communication unit that sends information of the 3D model to a display unit that displays the 3D model.
JP2018181306A 2018-09-27 2018-09-27 surveillance systems and cameras Active JP7180243B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018181306A JP7180243B2 (en) 2018-09-27 2018-09-27 surveillance systems and cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018181306A JP7180243B2 (en) 2018-09-27 2018-09-27 surveillance systems and cameras

Publications (2)

Publication Number Publication Date
JP2020053840A true JP2020053840A (en) 2020-04-02
JP7180243B2 JP7180243B2 (en) 2022-11-30

Family

ID=69994114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018181306A Active JP7180243B2 (en) 2018-09-27 2018-09-27 surveillance systems and cameras

Country Status (1)

Country Link
JP (1) JP7180243B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034785A (en) * 1999-07-16 2001-02-09 Atr Media Integration & Communications Res Lab Virtual transformation device
JP2001165638A (en) * 1999-02-19 2001-06-22 Sanyo Electric Co Ltd Device and method for providing three-dimensional model
JP2002032742A (en) * 2000-07-13 2002-01-31 Sony Corp System and method for three-dimensional image generation and program providing medium
US20050093697A1 (en) * 2003-11-05 2005-05-05 Sanjay Nichani Method and system for enhanced portal security through stereoscopy
JP2006165729A (en) * 2004-12-03 2006-06-22 Canon Inc Photographing program, photographing method and photographing system
JP2008199549A (en) * 2007-02-15 2008-08-28 Hitachi Ltd Monitor image processing method, monitoring system, and monitor image processing program
JP2010109783A (en) * 2008-10-31 2010-05-13 Casio Computer Co Ltd Electronic camera
JP2012079348A (en) * 2012-01-23 2012-04-19 Mitsubishi Electric Information Systems Corp Person specification device, person specification method, and person specification program
US20130195316A1 (en) * 2012-01-30 2013-08-01 Accenture Global Services Limited System and method for face capture and matching
JP2018106282A (en) * 2016-12-22 2018-07-05 セコム株式会社 Object detection device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001165638A (en) * 1999-02-19 2001-06-22 Sanyo Electric Co Ltd Device and method for providing three-dimensional model
JP2001034785A (en) * 1999-07-16 2001-02-09 Atr Media Integration & Communications Res Lab Virtual transformation device
JP2002032742A (en) * 2000-07-13 2002-01-31 Sony Corp System and method for three-dimensional image generation and program providing medium
US20050093697A1 (en) * 2003-11-05 2005-05-05 Sanjay Nichani Method and system for enhanced portal security through stereoscopy
JP2006165729A (en) * 2004-12-03 2006-06-22 Canon Inc Photographing program, photographing method and photographing system
JP2008199549A (en) * 2007-02-15 2008-08-28 Hitachi Ltd Monitor image processing method, monitoring system, and monitor image processing program
JP2010109783A (en) * 2008-10-31 2010-05-13 Casio Computer Co Ltd Electronic camera
JP2012079348A (en) * 2012-01-23 2012-04-19 Mitsubishi Electric Information Systems Corp Person specification device, person specification method, and person specification program
US20130195316A1 (en) * 2012-01-30 2013-08-01 Accenture Global Services Limited System and method for face capture and matching
JP2018106282A (en) * 2016-12-22 2018-07-05 セコム株式会社 Object detection device

Also Published As

Publication number Publication date
JP7180243B2 (en) 2022-11-30

Similar Documents

Publication Publication Date Title
JP6504364B2 (en) Monitoring device, monitoring system and monitoring method
TWI667918B (en) Monitoring method and camera
US10937290B2 (en) Protection of privacy in video monitoring systems
KR102152318B1 (en) Tracking system that can trace object's movement path
EP2813970A1 (en) Monitoring method and camera
KR102161210B1 (en) Method and Apparatus for providing multi-video summaries
EP2934004A1 (en) System and method of virtual zone based camera parameter updates in video surveillance systems
TW201541958A (en) Blocking detection method for camera and electronic apparatus with cameras
JP2017046196A (en) Image information generating apparatus, image information generating method, image processing system, and program
JP6481400B2 (en) Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device
JP6702506B2 (en) Monitoring terminal device and display processing method
TW201429239A (en) Field display system, field display method, and computer-readable recording medium in which field display program is recorded
JP2007243509A (en) Image processing device
JP4617286B2 (en) Unauthorized passing person detection device and unauthorized passing person recording system using the same
TW201801520A (en) Image device and method for detecting a chief
JPWO2014208337A1 (en) Position detection device
JP7180243B2 (en) surveillance systems and cameras
EP2831839B1 (en) Method for automatically operating a monitoring system
KR20160003996A (en) Apparatus and method for video analytics
WO2022022809A1 (en) Masking device
Pollok A new multi-camera dataset with surveillance, mobile and stereo cameras for tracking, situation analysis and crime scene investigation applications
KR101036107B1 (en) Emergency notification system using rfid
JP2012235482A (en) Passage monitoring system
JP3216687U (en) Security equipment
RU46118U1 (en) VOLUME IMAGE FORMING SYSTEM ON THE COMPUTER MONITOR SCREEN

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7180243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150