JP5960471B2 - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP5960471B2
JP5960471B2 JP2012081424A JP2012081424A JP5960471B2 JP 5960471 B2 JP5960471 B2 JP 5960471B2 JP 2012081424 A JP2012081424 A JP 2012081424A JP 2012081424 A JP2012081424 A JP 2012081424A JP 5960471 B2 JP5960471 B2 JP 5960471B2
Authority
JP
Japan
Prior art keywords
change area
attribute
image
virtual space
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012081424A
Other languages
Japanese (ja)
Other versions
JP2013211740A (en
Inventor
利彦 櫻井
利彦 櫻井
貴幸 守澤
貴幸 守澤
雅子 井上
雅子 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012081424A priority Critical patent/JP5960471B2/en
Publication of JP2013211740A publication Critical patent/JP2013211740A/en
Application granted granted Critical
Publication of JP5960471B2 publication Critical patent/JP5960471B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、複数の監視カメラによって撮像した監視場所の撮像画像を画像処理して監視場所における異常状態を監視する画像監視装置に関する。   The present invention relates to an image monitoring apparatus that monitors an abnormal state at a monitoring place by performing image processing on images taken at the monitoring place taken by a plurality of monitoring cameras.

近年、複数の監視カメラによって撮像した撮像画像を順次受信して、監視者の利用する監視端末に表示させることによって、監視場所の複数エリアにおける異常状態を集中的に監視する画像監視装置が利用されている。従来、このような複数の監視カメラを用いた画像監視装置では、監視場所に設置されたセンサと監視カメラとを対応付けて記憶し、センサからの異常信号を受けたときには、当該センサに対応する監視カメラの撮像画像を監視端末に表示することにより、監視場所の複数エリアにおける異常状態を集中的に監視する技術が用いられていた(例えば、特許文献1)。   In recent years, image monitoring apparatuses that centrally monitor abnormal states in a plurality of areas at a monitoring location by sequentially receiving captured images captured by a plurality of monitoring cameras and displaying them on a monitoring terminal used by a supervisor are used. ing. Conventionally, in such an image monitoring apparatus using a plurality of monitoring cameras, a sensor installed at a monitoring location and the monitoring camera are stored in association with each other, and when an abnormal signal is received from the sensor, the sensor corresponds to the sensor. A technique for centrally monitoring abnormal states in a plurality of areas at a monitoring location by displaying a captured image of the monitoring camera on a monitoring terminal has been used (for example, Patent Document 1).

特開平10−188183号公報JP-A-10-188183

しかし、近年のような監視カメラの設置台数の急激な増加に伴い、従来技術のような監視方法では、監視者が適切に異常状態を監視することが困難となっていた。すなわち、上記従来技術では、発生頻度の低い異常状態を監視する場合には有効であるものの、発生頻度の高い異常状態を監視する場合、撮像画像の表示切替が頻発してしまうため、監視者は適切に異常状態を監視することが困難となるといった問題があった。そのため、監視場所にある物体に対して重点的に監視すべき物体とそうでない物体とを判別できる属性情報を付与し、当該属性情報を監視場所における状況に応じて動的に変更できるようにすることにより、監視対象を限定して異常状態を監視したいといったニーズがあった。特に、監視場所にいる被監視者が必要に応じて物体の属性情報を動的に変更できるようにしたいといったニーズがあった。   However, with the rapid increase in the number of installed surveillance cameras as in recent years, it has been difficult for the supervisor to properly monitor the abnormal state with the monitoring method as in the prior art. That is, the above-described conventional technique is effective when monitoring an abnormal state with a low occurrence frequency, but when monitoring an abnormal state with a high occurrence frequency, display switching of captured images frequently occurs. There is a problem that it is difficult to appropriately monitor the abnormal state. Therefore, attribute information that can distinguish between an object that should be monitored with priority and an object that is not so with respect to an object at a monitoring location is added, and the attribute information can be dynamically changed according to the situation at the monitoring location. Therefore, there is a need to limit the monitoring target and monitor the abnormal state. In particular, there is a need to allow a monitored person at a monitoring location to dynamically change object attribute information as necessary.

そこで、本発明は、被監視者による属性情報の変更操作を監視カメラによって検知し、当該変更操作がなされた位置と物体との空間的位置関係に応じて監視対象物体の属性情報を変更可能とすることにより、簡単な仕組みで上記ニーズを満たし、多数のカメラが設置された環境下であっても、監視負荷を増大させずに監視できるようにすることを目的とする。   Therefore, the present invention can detect the change operation of the attribute information by the monitored person by the monitoring camera, and change the attribute information of the monitoring target object according to the spatial positional relationship between the position where the change operation is performed and the object. Thus, an object is to satisfy the above-described needs with a simple mechanism, and to perform monitoring without increasing the monitoring load even in an environment where a large number of cameras are installed.

上記した目的を達成するために、本願請求項1に係る画像監視装置は、
監視場所の撮像画像を順次取得する撮像部と、
前記監視場所を3次元の仮想空間として表現した場所モデルと、該場所モデルの構成要素であって該監視場所に存在する物体の3次元形状と該仮想空間における位置である仮想空間位置とにより表現した物体モデルと該物体モデルの属性情報とを対応付けた物体テーブルと、前記撮像部の設置位置、光軸及び画角を前記仮想空間に対応付けた撮像条件情報と、を記憶した記憶部と、
前記撮像画像から変化領域を抽出し、該変化領域が所定の画像特徴を有していたとき、該変化領域を注目変化領域として検出する注目変化領域検出手段と、
前記場所モデルと前記撮像条件情報と前記注目変化領域の撮像画像上の位置とを用いて該注目変化領域の仮想空間位置を求める仮想空間位置算出手段と、
前記注目変化領域の仮想空間位置と前記物体モデルの仮想空間位置とを用いて、前記仮想空間において該注目変化領域と所定の空間的位置関係にある物体モデルの前記属性情報を変更する属性変更手段と、
前記物体テーブルを用いて前記撮像画像から前記物体の状態を判定し判定結果を出力する判定手段と、を有することを特徴としている。
In order to achieve the above-described object, an image monitoring apparatus according to claim 1 of the present application includes:
An imaging unit that sequentially acquires captured images of the monitoring location;
Expressed by a location model that represents the monitoring location as a three-dimensional virtual space, a three-dimensional shape of an object that is a component of the location model and exists at the monitoring location, and a virtual space position that is a position in the virtual space A storage unit that stores an object table that associates the acquired object model with attribute information of the object model, and imaging condition information that associates the installation position, optical axis, and angle of view of the imaging unit with the virtual space; ,
Attention change area detection means for extracting a change area from the captured image and detecting the change area as an attention change area when the change area has a predetermined image feature;
Virtual space position calculation means for obtaining a virtual space position of the target change area using the location model, the imaging condition information, and a position of the target change area on the captured image;
Attribute changing means for changing the attribute information of the object model having a predetermined spatial positional relationship with the attention change area in the virtual space, using the virtual space position of the attention change area and the virtual space position of the object model When,
And determining means for determining a state of the object from the captured image using the object table and outputting a determination result.

かかる構成により、本発明の注目変化領域検出手段は、監視場所に設置された複数の撮像部から取得した撮像画像から背景差分等の従来技術を用いて変化領域を抽出する。そして、注目変化領域検出手段は、抽出した各変化領域の中から予め設定した画像特徴との比較に基づいて監視者が注目すべき変化領域(注目変化領域)を検出する。そして、本発明の仮想空間位置算出手段は、検出された注目変化領域の仮想空間内における位置(仮想空間位置)を求める。そして、本発明の属性変更手段は、注目変化領域の仮想空間位置と、場所モデルの構成要素として記憶部に記憶された物体モデルの仮想空間位置とから、注目変化領域と物体モデルとが所定の空間的位置関係にあるとき、当該物体モデルの属性情報を、例えば重点的に監視すべき物体とする属性情報である重点監視属性に変更する。そして、本発明の判定手段は、例えば、物体テーブルの属性情報が重点監視属性となっている物体の周囲に侵入者の変化領域が存在していた場合、異常状態と判定し、当該判定結果を例えば監視者の監視端末に表示出力する。かかる構成により、本発明の注目変化領域検出手段は、監視場所に設置された複数の撮像部から取得した撮像画像から背景差分等の従来技術を用いて変化領域を抽出する。   With this configuration, the attention changing area detection unit of the present invention extracts a changing area from a captured image acquired from a plurality of imaging units installed at a monitoring location using a conventional technique such as background difference. Then, the attention change area detection means detects a change area (attention change area) that should be noted by the supervisor based on comparison with the preset image feature from the extracted change areas. And the virtual space position calculation means of this invention calculates | requires the position (virtual space position) in the virtual space of the detected attention change area. Then, the attribute changing means of the present invention determines whether the attention changing area and the object model are predetermined from the virtual space position of the attention changing area and the virtual space position of the object model stored in the storage unit as a component of the place model. When there is a spatial positional relationship, the attribute information of the object model is changed to, for example, a priority monitoring attribute that is attribute information regarding an object to be monitored mainly. Then, the determination means of the present invention determines, for example, that the intruder has changed area around the object whose attribute information in the object table is the priority monitoring attribute, and determines the determination result. For example, it is displayed on the monitoring terminal of the supervisor. With this configuration, the attention changing area detection unit of the present invention extracts a changing area from a captured image acquired from a plurality of imaging units installed at a monitoring location using a conventional technique such as background difference.

これにより、本発明の画像監視装置は、例えば、監視場所にいる被監視者等によって設置された目印(以下、「マーカー」という)を撮像部によって撮像し、当該撮像画像からマーカーの画像特徴を有する変化領域を注目変化領域として検出し、当該注目変化領域が物体の上部に存在しているとき、当該物体の属性情報を重点監視属性に変更できる。いわば、被監視者は、重点監視属性に変更したい物体の上にマーカーを設置するだけで、当該物体の属性情報を容易に変更することができる。したがって、監視者は、このような簡単な仕組みにより、重点的に監視すべき物体に監視対象を限定して監視運用することができ、多数のカメラが設置された環境下であっても、監視者の監視負荷を増大させずに監視することが可能となる。   Thereby, the image monitoring apparatus of the present invention images, for example, a mark (hereinafter, referred to as “marker”) set by a monitored person or the like at a monitoring place by the imaging unit, and the image characteristics of the marker from the captured image. When the change area of interest is detected as the attention change area, and the attention change area exists above the object, the attribute information of the object can be changed to the priority monitoring attribute. In other words, the person to be monitored can easily change the attribute information of the object simply by placing a marker on the object to be changed to the priority monitoring attribute. Therefore, the monitor can perform the monitoring operation by limiting the monitoring target to the object to be monitored with such a simple mechanism, even in an environment where a large number of cameras are installed. It is possible to monitor without increasing the monitoring load on the person.

本願請求項2に係る画像監視装置は、請求項1の画像監視装置において、
前記記憶部は、前記注目変化領域の画像特徴と前記属性情報の属性種別とを対応付けた属性テーブルを更に記憶し、前記属性変更手段は、前記属性テーブルの画像特徴と前記注目変化領域の画像特徴との比較により該注目変化領域の前記属性種別を判定し、該属性種別に応じて前記物体テーブルの前記属性情報を変更することを特徴としている。
The image monitoring apparatus according to claim 2 of the present application is the image monitoring apparatus of claim 1,
The storage unit further stores an attribute table in which an image feature of the attention changing area is associated with an attribute type of the attribute information, and the attribute changing unit is configured to store the image feature of the attribute table and the image of the attention changing area. The attribute type of the attention change area is determined by comparison with a feature, and the attribute information of the object table is changed according to the attribute type.

かかる構成により、本発明の記憶部には、属性情報の属性種別(例えば、重点監視属性、移動禁止属性など)毎に異なる画像特徴が対応付けられた属性テーブルが予め記憶されている。そして、本発明の注目変化領域検出手段は、抽出した変化領域が、属性テーブルのいずれかの画像特徴を有するとき、当該変化領域を注目変化領域として抽出する。そして、本発明の属性変更手段は、注目変化領域検出手段にて検出した注目変化領域の画像特徴と属性テーブルの画像特徴とを比較して、当該注目変化領域の属性種別を判定し、当該注目変化領域と所定の空間的位置関係にある物体モデルの物体テーブルにおける属性情報を判定した属性種別に応じて変更する。例えば、被監視者が移動禁止属性を表すマーカーを物体の上に設置したとき、当該物体に対応する物体モデルの属性情報を移動禁止属性に変更する。このように、被監視者は、設置するマーカーの種別に応じて、物体の属性情報を複数通りに変更することが可能となる。   With this configuration, the storage unit of the present invention stores in advance an attribute table in which different image features are associated with each attribute type of attribute information (for example, priority monitoring attribute, movement prohibition attribute, etc.). Then, when the extracted change area has any image feature of the attribute table, the attention change area detection unit of the present invention extracts the change area as the attention change area. Then, the attribute change means of the present invention compares the image feature of the attention change area detected by the attention change area detection means with the image feature of the attribute table, determines the attribute type of the attention change area, and The attribute information in the object table of the object model having a predetermined spatial positional relationship with the change area is changed according to the determined attribute type. For example, when the monitored person installs a marker representing the movement prohibition attribute on the object, the attribute information of the object model corresponding to the object is changed to the movement prohibition attribute. In this way, the monitored person can change the attribute information of the object in a plurality of ways according to the type of marker to be installed.

本願請求項3に係る画像監視装置は、請求項1又は請求項2の画像監視装置において、
前記仮想空間位置算出手段は、前記場所モデルと前記撮像条件情報と前記変化領域の撮像画像上の位置とを用いて該変化領域の前記仮想空間位置を求め、前記判定手段は、前記物体モデルの前記属性情報及び前記仮想空間位置と前記変化領域の前記仮想空間位置との位置関係に応じて該物体モデルに対応する前記物体の状態を判定し前記判定結果を出力することを特徴としている。
The image monitoring apparatus according to claim 3 of the present application is the image monitoring apparatus according to claim 1 or 2,
The virtual space position calculation means obtains the virtual space position of the change area using the location model, the imaging condition information, and the position of the change area on the picked-up image, and the determination means determines the object model. The state of the object corresponding to the object model is determined according to the attribute information and the positional relationship between the virtual space position and the virtual space position of the change area, and the determination result is output.

かかる構成により、本発明の仮想空間位置算出手段は、注目変化領域の仮想空間位置だけでなく、全ての変化領域の仮想空間位置を求める。そして、本発明の判定手段は、例えば、重点監視属性として設定された物体の仮想空間位置から所定範囲内に他の変化領域(例えば、人物の変化領域)が存在しているとき、当該物体の状態を異常状態と判定する。このように、本発明の画像監視装置は、被監視者によって変更された物体の属性情報と、当該物体の周囲に存在する移動物体(侵入者)との位置関係を考慮することにより、当該物体の異常状態を判定することができる。   With such a configuration, the virtual space position calculation means of the present invention obtains not only the virtual space position of the target change area but also the virtual space positions of all the change areas. The determination means of the present invention, for example, when another change region (for example, a person change region) exists within a predetermined range from the virtual space position of the object set as the priority monitoring attribute, The state is determined as an abnormal state. As described above, the image monitoring apparatus of the present invention takes into account the positional relationship between the attribute information of the object changed by the monitored person and the moving object (intruder) existing around the object. The abnormal state can be determined.

本願請求項4に係る画像監視装置は、請求項1〜請求項3の何れか一項に記載の画像監視装置において、
前記判定手段は、前記物体モデルが配置された場所モデルを、前記撮像条件情報を用いて前記撮像部の視野に相当するレンダリング画像を生成し、該レンダリング画像における該物体モデルに対応する画像領域の画像特徴と前記変化領域の画像特徴との比較により、該物体モデルに対応する物体の移動を判定し、移動したと判定された該物体に対応する物体モデルの前記属性情報が物体移動を禁止する移動禁止属性であるとき、該物体を異常状態とする前記判定結果を出力することを特徴としている。
The image monitoring apparatus according to claim 4 of the present application is the image monitoring apparatus according to any one of claims 1 to 3,
The determination unit generates a rendering image corresponding to the field of view of the imaging unit, using the imaging condition information, for a place model where the object model is arranged, and an image region corresponding to the object model in the rendering image The movement of the object corresponding to the object model is determined by comparing the image feature with the image feature of the change area, and the attribute information of the object model corresponding to the object determined to have moved is prohibited from moving. In the case of the movement prohibition attribute, the determination result that makes the object in an abnormal state is output.

かかる構成により、本発明の判定手段は、属性変更手段によって物体移動を禁止する属性(移動禁止属性)に変更された物体の移動を判定する。この際、判定手段は、当該物体モデルが配置された場所モデルを、撮像部の撮像条件情報に設定された仮想的なカメラ(以下、「仮想カメラ」という)を用いて、3次元コンピュータグラフィックスのレンダリング処理を行うことにより、当該撮像部から見た撮像画像に相当する仮想的な画像であるレンダリング画像を生成する。そして、生成したレンダリング画像における当該物体モデルに対応する画像領域(以下、「物体画像領域」という)の画像特徴と、当該撮像部の撮像画像から抽出した変化領域の画像特徴とを比較することにより、当該物体の移動を判定する。例えば、物体画像領域の位置・大きさ・形が、変化領域の位置・大きさ・形と略一致しているとき、当該物体は移動していると判定することができる。このように、本発明の画像監視装置は、被監視者によって変更された物体の属性情報と、変化領域の画像特徴とを考慮することにより、当該物体の異常状態を判定することができる。   With this configuration, the determination unit of the present invention determines the movement of the object that has been changed to the attribute (movement prohibition attribute) that prohibits the object movement by the attribute change unit. At this time, the determination unit uses the virtual camera (hereinafter referred to as “virtual camera”) set in the imaging condition information of the imaging unit to convert the place model in which the object model is arranged into 3D computer graphics. By performing the rendering process, a rendering image that is a virtual image corresponding to the captured image viewed from the imaging unit is generated. Then, by comparing the image feature of the image region corresponding to the object model (hereinafter referred to as “object image region”) in the generated rendered image with the image feature of the change region extracted from the captured image of the imaging unit. The movement of the object is determined. For example, when the position / size / shape of the object image area substantially matches the position / size / shape of the change area, it can be determined that the object is moving. As described above, the image monitoring apparatus of the present invention can determine the abnormal state of the object by considering the attribute information of the object changed by the monitored person and the image feature of the change area.

本発明に係る画像監視装置によれば、撮像画像から抽出した注目変化領域と物体との空間的位置関係に応じて、当該物体の属性情報を動的に変更できるため、監視者は、監視場所内における異常状態を効率的に監視することができる。   According to the image monitoring apparatus according to the present invention, since the attribute information of the object can be dynamically changed according to the spatial positional relationship between the attention change region extracted from the captured image and the object, the monitor can It is possible to efficiently monitor abnormal conditions in the inside.

画像監視装置の全体構成を示すブロック構成図Block configuration diagram showing the overall configuration of the image monitoring device 物体テーブルを表す図Diagram showing object table 属性テーブルを表す図Diagram showing attribute table 撮像画像と基準画像の例を表す図A diagram showing an example of a captured image and a reference image 仮想空間位置算出処理を説明する図The figure explaining virtual space position calculation processing 画像監視装置による全体動作の処理手順を示すフローチャートFlow chart showing processing procedure of overall operation by image monitoring apparatus 場所モデルを表す図A diagram representing a location model 属性変更処理の具体的処理手順を示すフローチャートThe flowchart which shows the specific process sequence of an attribute change process 判定処理の具体的処理手順を示すフローチャートFlow chart showing specific processing procedure of determination processing レンダリング画像と差分画像の例を表す図Diagram showing examples of rendered image and difference image

以下、建物内を監視場所とし、当該監視場所を監視カメラにより撮像した撮像画像を画像処理して、監視場所内における異常状態を監視する実施形態について、添付した図面を参照しながら詳細に説明する。本実施形態は、複数の監視カメラから取得した撮像画像から変化領域を抽出し、当該変化領域と監視場所に接地された物体との空間的位置関係に応じて、当該物体が重点的に監視すべき監視状態にあるかどうかといった情報である属性情報を変更し、当該属性情報に基づいて当該物体の異常状態を判定する機能を含む画像監視装置を提供するものである。   Hereinafter, an embodiment in which the inside of a building is used as a monitoring place, the captured image obtained by picking up the monitoring place with a monitoring camera is subjected to image processing, and an abnormal state in the monitoring place is monitored will be described in detail with reference to the accompanying drawings. . In the present embodiment, a change area is extracted from captured images acquired from a plurality of monitoring cameras, and the object is preferentially monitored according to a spatial positional relationship between the change area and an object grounded at a monitoring place. It is an object of the present invention to provide an image monitoring apparatus including a function for changing attribute information, which is information such as whether or not a power should be monitored, and determining an abnormal state of the object based on the attribute information.

(画像監視装置の全体構成について)
図1に示すように、本実施形態の画像監視装置1は、監視端末2、撮像装置3によって構成される。
(About the overall configuration of the image monitoring device)
As shown in FIG. 1, the image monitoring apparatus 1 according to the present embodiment includes a monitoring terminal 2 and an imaging apparatus 3.

撮像装置3は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成される所謂監視カメラであり、本発明における撮像部として機能する。撮像装置3は、室内の壁の上部又は天井部に設置され、監視場所を俯瞰して撮像するよう設置される。撮像装置3は、監視場所を所定時間おきに撮像して撮像画像を監視端末2に順次送信する。撮像画像が撮像される時間間隔は、例えば1/5秒である。本実施形態では、監視場所内に複数台の撮像装置3が設置されていることとする。   The imaging device 3 is a so-called surveillance camera including an imaging element such as a CCD element or a C-MOS element, an optical system component, and the like, and functions as an imaging unit in the present invention. The imaging device 3 is installed on the upper part or ceiling of the indoor wall, and is installed so as to take an image while looking down at the monitoring place. The imaging device 3 captures the monitoring location at predetermined time intervals and sequentially transmits the captured images to the monitoring terminal 2. The time interval at which the captured image is captured is, for example, 1/5 second. In the present embodiment, it is assumed that a plurality of imaging devices 3 are installed in the monitoring place.

監視端末2は、記憶部21、制御部22、通信部23、出力部24及び入力部25を含んで概略構成される。通信部23は、LANやUSB等の通信インタフェースであり、撮像装置3と通信を行う。本実施形態では、複数の撮像装置3から送信された撮像画像を通信部23を介して受信する。入力部25は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。監視者等は、入力部25を用いて、例えば、それぞれの撮像装置3の設置位置等の様々な撮像条件に関する情報を設定したりすることができる。   The monitoring terminal 2 is schematically configured to include a storage unit 21, a control unit 22, a communication unit 23, an output unit 24, and an input unit 25. The communication unit 23 is a communication interface such as a LAN or USB, and communicates with the imaging device 3. In the present embodiment, captured images transmitted from a plurality of imaging devices 3 are received via the communication unit 23. The input unit 25 is an information input device such as a keyboard, a mouse, a touch panel, or a portable storage medium reading device. The monitor or the like can use the input unit 25 to set information regarding various imaging conditions such as the installation position of each imaging device 3, for example.

記憶部21は、ROM、RAM、HDD等の情報記憶装置である。記憶部21は、各種プログラムや各種データを記憶し、画像処理部22との間でこれらの情報を入出力する。各種データには、場所モデル211、撮像条件情報212、物体テーブル213、属性テーブル214、その他、画像処理部22の処理に使用される各種情報(例えば、撮像装置3で取得するフレーム毎の撮像画像、撮像画像から変化領域を抽出するために用いる基準画像や抽出閾値など)を記憶している。   The storage unit 21 is an information storage device such as a ROM, RAM, or HDD. The storage unit 21 stores various programs and various data, and inputs and outputs such information to and from the image processing unit 22. The various data includes the location model 211, the imaging condition information 212, the object table 213, the attribute table 214, and other various information used for the processing of the image processing unit 22 (for example, the captured image for each frame acquired by the imaging device 3). , A reference image used for extracting a change area from the captured image, an extraction threshold value, and the like) are stored.

場所モデル211は、監視場所に存在する現実世界の壁・床・柱、什器等の物体をモデル化することにより作成された3次元形状データを含む3次元の仮想空間を表した座標情報である。すなわち、場所モデル211は、監視場所に存在する物体の仮想空間における3次元形状データと、当該仮想空間における位置データ(仮想空間位置)とからなるモデル情報(物体モデル)を、個々の構成要素として構成される座標情報である。場所モデル211における3次元形状データは、監視場所の形状情報に基づいて3次元CADで作成されたものでも良いし、3次元レーザースキャナー等により監視場所の3次元形状を取り込んだデータを利用しても良い。このようにして作成された場所モデル211は、監視者等により入力部25から設定登録されることにより記憶部21に記憶される。   The place model 211 is coordinate information representing a three-dimensional virtual space including three-dimensional shape data created by modeling an object such as a real world wall, floor, pillar, or fixture existing at the monitoring place. . That is, the place model 211 uses model information (object model) composed of three-dimensional shape data in a virtual space of an object existing at a monitoring place and position data (virtual space position) in the virtual space as individual components. Coordinate information that is configured. The three-dimensional shape data in the place model 211 may be created by three-dimensional CAD based on the shape information of the monitoring place, or the data obtained by capturing the three-dimensional shape of the monitoring place using a three-dimensional laser scanner or the like. Also good. The location model 211 created in this way is stored in the storage unit 21 by being set and registered from the input unit 25 by a supervisor or the like.

撮像条件情報212は、現在時刻における撮像装置3の設置位置や光軸(姿勢)に関する設置条件情報と、焦点距離、画素数、画素サイズ、レンズ歪みに関する画角条件情報とからなり、撮像装置3毎に個別設定される。また、撮像条件情報212は、場所モデルの仮想空間における座標情報に対応付けられた値で設定されている。ここで、設置位置に関する設置条件情報とは、監視場所内(実空間)を3次元直交座標系として表し、実空間の直交座標系で座標が既知である基準点の座標値に基準点からの相対距離、方向を測定して補正する等の公知の技術を使用して算出した座標データとして表した情報である。また、光軸に関する設置条件情報とは、上記座標軸に対する撮像装置3の光軸の回転角度に関する情報であり、撮像装置3のいわゆるパン角度、チルト角度から求めることができる。撮像条件情報212は、初期設定時に監視者等によって入力部25から設定登録されることにより記憶部21に記憶される。   The imaging condition information 212 includes installation condition information related to the installation position and optical axis (attitude) of the imaging device 3 at the current time, and field angle condition information related to the focal length, the number of pixels, the pixel size, and the lens distortion. Individually set for each. The imaging condition information 212 is set as a value associated with coordinate information in the virtual space of the place model. Here, the installation condition information regarding the installation position represents the inside of the monitoring place (real space) as a three-dimensional orthogonal coordinate system, and the coordinate value of the reference point whose coordinates are known in the orthogonal coordinate system of the real space is changed from the reference point to This is information expressed as coordinate data calculated using a known technique such as measuring and correcting the relative distance and direction. The installation condition information regarding the optical axis is information regarding the rotation angle of the optical axis of the imaging device 3 with respect to the coordinate axis, and can be obtained from the so-called pan angle and tilt angle of the imaging device 3. The imaging condition information 212 is stored in the storage unit 21 by being set and registered from the input unit 25 by a monitor or the like at the time of initial setting.

物体テーブル213は、図2に示されるように、場所モデル211の構成要素となる物体モデルの識別情報と、当該物体が重点的に監視すべき監視状態にあるかどうかといった情報を示す属性情報とを対応づけるテーブルである。本実施形態では、属性情報の属性種別として、人物が物体へ接近したときに重点的に監視するための要注視属性と、物体が移動したときに重点的に監視するための移動禁止属性とがあることとして説明する。なお、図2では、属性情報として何も登録されていないとき、すなわち重点的に監視すべき状態にない物体については“−”として表している。物体テーブル213は、監視者等によって予め設定登録され、後述する制御部22の属性変更手段223によって更新される。   As shown in FIG. 2, the object table 213 includes identification information of an object model that is a constituent element of the location model 211, and attribute information indicating information such as whether the object is in a monitoring state to be monitored with priority. Is a table that associates. In the present embodiment, as the attribute type of the attribute information, there are a watch-at-watch attribute for intensive monitoring when a person approaches the object, and a movement prohibition attribute for intensive monitoring when the object moves. It will be explained as being. In FIG. 2, when nothing is registered as attribute information, that is, an object that is not in a state to be monitored mainly is represented as “−”. The object table 213 is set and registered in advance by a supervisor or the like, and is updated by the attribute changing unit 223 of the control unit 22 described later.

属性テーブル214は、後述する注目変化領域検出手段221にて用いる情報であり、図3に示されるように、注目変化領域の画像特徴(注目特徴量)と属性種別とを対応付けるテーブルである。属性テーブル214は、監視者等によって予め設定登録される。   The attribute table 214 is information used by the attention changing area detecting unit 221 described later, and is a table that associates the image feature (attention feature amount) of the attention changing area with the attribute type, as shown in FIG. The attribute table 214 is set and registered in advance by a monitor or the like.

制御部22は、CPU等を備えたコンピュータで構成され、撮像装置3からデジタル化された画像の入力を受け、後述する図6、図8、図9に示す一連の処理として、撮像画像読出処理、抽出処理、注目変化領域検出処理、仮想空間位置算出処理、属性変更処理、判定処理、出力処理を実行するべく、注目変化領域検出手段221、仮想空間位置算出手段222、属性変更手段223、判定手段224を含んでいる。   The control unit 22 is configured by a computer including a CPU and the like, receives an input of a digitized image from the imaging device 3, and performs a captured image reading process as a series of processes shown in FIGS. 6, 8, and 9 to be described later. In order to execute extraction processing, attention change area detection processing, virtual space position calculation processing, attribute change processing, determination processing, and output processing, attention change area detection means 221, virtual space position calculation means 222, attribute change means 223, determination Means 224 are included.

注目変化領域検出手段221は、撮像画像の中から輝度変化のある領域を変化領域として抽出する抽出処理と、抽出した変化領域が所定の画像特徴を有していたとき当該変化領域を注目変化領域として検出する注目変化領域検出処理とを行っている。抽出処理では、撮像装置3ごとに移動物体の存在しない過去の撮像画像を基準画像として予め記憶部21に保存しておき、最新に取得した撮像画像と基準画像との輝度値の差分値が記憶部21に記憶された所定の抽出閾値以上である領域を変化領域として抽出する。この際、基準画像として監視場所の背景の撮像画像や、過去に取得した撮像画像などを適宜選択して採用することができる。また、抽出処理では、抽出処理として、抽出した変化領域にラベル付けする処理を行う。この際、変化領域のある抽出画素に注目したときに、注目抽出画素に隣接している抽出画素を一塊の抽出画素領域とみなし、各一塊の抽出画素領域に対して、全ての監視画像内でユニークなラベルを割り当てる。注目変化領域検出処理では、抽出処理にて抽出した変化領域の中から、記憶部21の属性テーブル214に予め設定された所定の画像特徴を有する変化領域を注目変化領域として検出する処理を行う。以下、抽出処理と注目変化領域検出処理について、図4の例を用いて説明する。図4aはある撮像装置3による撮像画像40であり、図4bは当該撮像装置3の基準画像41である。すなわち、抽出処理では、図4aにおける符号30a、30bに示す画像領域が、変化領域30として抽出されることとなる。また、表示変化領域設定処理では、変化領域30a、30bのうち、属性テーブル214に設定された画像特徴と略一致している変化領域30aが注目変化領域として検出されることとなる。   The attention change area detection unit 221 extracts an area having a luminance change from the captured image as a change area, and when the extracted change area has a predetermined image feature, the change area is the attention change area. Attention change area detection processing is detected. In the extraction process, a past captured image in which no moving object exists for each imaging device 3 is stored in the storage unit 21 in advance as a reference image, and a difference value between luminance values of the latest acquired captured image and the reference image is stored. An area that is equal to or greater than a predetermined extraction threshold stored in the unit 21 is extracted as a change area. At this time, a captured image of the background of the monitoring place, a captured image acquired in the past, or the like can be appropriately selected and used as the reference image. In the extraction process, as the extraction process, a process of labeling the extracted change area is performed. At this time, when attention is paid to an extraction pixel having a change area, the extraction pixels adjacent to the extraction pixel of interest are regarded as a group of extraction pixel areas. Assign a unique label. In the attention change area detection process, a process of detecting a change area having a predetermined image feature preset in the attribute table 214 of the storage unit 21 as the attention change area from the change areas extracted by the extraction process. Hereinafter, extraction processing and attention change area detection processing will be described with reference to the example of FIG. FIG. 4 a is a captured image 40 by an imaging device 3, and FIG. 4 b is a reference image 41 of the imaging device 3. That is, in the extraction process, the image areas indicated by reference numerals 30a and 30b in FIG. In the display change area setting process, the change area 30a that substantially matches the image feature set in the attribute table 214 is detected as the attention change area among the change areas 30a and 30b.

仮想空間位置算出手段222は、記憶部21に記憶された撮像条件情報212と、注目変化領域検出手段221にて抽出した変化領域の撮像画像上の位置から当該変化領域の仮想空間位置を算出する仮想空間位置算出処理を行っている。本実施形態では、仮想空間位置を、撮像画像上における変化領域の下端中央の座標情報について、当該座標情報に対応するよう算出した仮想空間における座標情報であり、変化領域が場所モデルに接地していたと仮定して求めた値として算出する。以下、仮想空間位置算出処理の詳細について図5を用いて説明する。   The virtual space position calculation means 222 calculates the virtual space position of the change area from the imaging condition information 212 stored in the storage unit 21 and the position of the change area extracted by the attention change area detection means 221 on the captured image. Virtual space position calculation processing is performed. In the present embodiment, the virtual space position is coordinate information in the virtual space calculated so as to correspond to the coordinate information at the lower end center of the change area on the captured image, and the change area is grounded to the place model. Calculated as a value obtained assuming that Hereinafter, details of the virtual space position calculation processing will be described with reference to FIG.

図5は、監視場所の上方から地面方向を撮像している撮像装置3の撮像画像に基づいて変化領域の仮想空間位置を算出する一例を表したものである。図5において、符号211a、211b、211cは、場所モデル211の一部を表したものであり、そのうち211aが監視場所である建物の床面を表し、211bが壁面を表し、211cが監視場所に置かれた金庫を表したものとする。仮想空間位置算出手段222は、仮想空間位置を算出するにあたり、まず、記憶部21の撮像条件情報212から撮像装置3の設置位置(X、Y、Z)を読み出して、その位置に対応する場所モデル211(仮想空間)上における光学中心Oを求める。また、仮想空間位置算出手段222は、当該光学中心Oと、記憶部21の撮像条件情報212から読み出した光軸(姿勢)に関する設置条件情報とから、撮像装置3の場所場所モデル211上における光軸を求める。また、仮想空間位置算出手段222は、記憶部11から焦点距離fとCCDの画素の実サイズ、画像の縦横のピクセル数とレンズの歪みに関する諸元等の撮像条件情報212を読み出し、撮像装置3の場所モデル211上において光軸と垂直な投影面abcdを求める。光学中心Oから投影面abcdの四つの頂点を通る四角錐Oa’b’c’d’は、撮像装置3の視野を形成する立体となる。図5において、投影面abcdに投影された撮像画像上における符号30の画像領域は、注目変化領域検出手段221にて抽出された変化領域であるとする。   FIG. 5 illustrates an example of calculating the virtual space position of the change area based on the captured image of the imaging device 3 that captures the ground direction from above the monitoring location. In FIG. 5, reference numerals 211 a, 211 b, and 211 c represent a part of the location model 211, of which 211 a represents the floor surface of the building that is the monitoring location, 211 b represents the wall surface, and 211 c represents the monitoring location. It shall represent the safe placed. In calculating the virtual space position, the virtual space position calculation unit 222 first reads the installation position (X, Y, Z) of the imaging device 3 from the imaging condition information 212 of the storage unit 21, and a location corresponding to the position The optical center O on the model 211 (virtual space) is obtained. Further, the virtual space position calculation unit 222 calculates the light on the location / location model 211 of the imaging device 3 from the optical center O and the installation condition information regarding the optical axis (posture) read from the imaging condition information 212 of the storage unit 21. Find the axis. Further, the virtual space position calculation unit 222 reads out the imaging condition information 212 such as the focal length f, the actual size of the CCD pixel, the number of vertical and horizontal pixels of the image, and specifications relating to the lens distortion, from the storage unit 11. A projection plane abcd perpendicular to the optical axis is obtained on the location model 211. A quadrangular pyramid Oa′b′c′d ′ passing through the four vertices of the projection surface abcd from the optical center O is a solid that forms the field of view of the imaging device 3. In FIG. 5, it is assumed that an image area denoted by reference numeral 30 on the captured image projected on the projection surface abcd is a change area extracted by the attention change area detection unit 221.

次に、仮想空間位置算出手段222は、変化領域30の撮像画像上における位置に基づいて、変化領域オブジェクトの場所モデル211(仮想空間)上における足元位置を求める。変化領域30の下端位置30aと光学中心Oとを結ぶ直線を求め、当該直線の延長線上において場所モデル211との交点31aを求める。なお、本実施形態では、変化領域の下端に位置する画素が複数あるとき、当該変化領域の中央位置の画素を下端位置30aとしているが、これに限らず、予め定めた右端(又は左端)の画素を下端位置30aとしてもよい。交点31aは、変化領域30の撮像画像上の位置30aに対応する場所モデル211(仮想空間)上における位置に相当するため、当該位置の仮想空間における座標を仮想空間位置として算出する。図5の例では、変化領域30に対応する変化領域オブジェクトは金庫211cの場所モデルの上に接していることが分かる。   Next, the virtual space position calculation unit 222 obtains the foot position on the place model 211 (virtual space) of the change area object based on the position of the change area 30 on the captured image. A straight line connecting the lower end position 30a of the change area 30 and the optical center O is obtained, and an intersection point 31a with the place model 211 is obtained on an extension line of the straight line. In this embodiment, when there are a plurality of pixels located at the lower end of the change area, the pixel at the center position of the change area is set as the lower end position 30a. However, the present invention is not limited to this, and a predetermined right end (or left end) is used. The pixel may be the lower end position 30a. Since the intersection 31a corresponds to a position on the place model 211 (virtual space) corresponding to the position 30a on the captured image of the change area 30, the coordinates of the position in the virtual space are calculated as the virtual space position. In the example of FIG. 5, it can be seen that the change area object corresponding to the change area 30 is in contact with the place model of the safe 211c.

属性変更手段223は、仮想空間位置算出手段222にて求めた仮想空間位置と、記憶部21の場所モデル211にある物体モデルの仮想空間位置とを用いて、注目変化領域検出手段221にて検出した注目変化領域と仮想空間において所定の空間的位置関係にある物体モデルの属性情報を変更する属性変更処理を行う。例えば、予め記憶部21に当該空間的位置関係を位置関係情報として記憶されており、位置関係情報に「注目変化領域の仮想空間位置が物体モデルの仮想空間位置の上方1m以内」と設定されているとき、注目変化領域と、このような空間的位置関係にある物体モデルの属性情報を変更する。属性情報を変更する際、属性変更手段223は、注目変化領域の画像特徴(注目特徴量)と属性テーブル214の画像特徴とを比較して、当該注目変化領域の属性種別を判定し、当該属性種別を用いて属性情報を変更する。属性変更処理の詳細については後述する。   The attribute changing unit 223 uses the virtual space position obtained by the virtual space position calculating unit 222 and the virtual space position of the object model in the place model 211 of the storage unit 21 to detect by the attention change region detecting unit 221. An attribute change process is performed to change the attribute information of the object model having a predetermined spatial positional relationship in the virtual space with the noted change area. For example, the spatial positional relationship is stored in advance in the storage unit 21 as positional relationship information, and “the virtual space position of the attention change region is within 1 m above the virtual space position of the object model” is set in the positional relationship information. The attribute information of the object model having such a spatial positional relationship with the attention changing area is changed. When changing the attribute information, the attribute changing unit 223 compares the image feature (attention feature amount) of the attention change area with the image feature of the attribute table 214, determines the attribute type of the attention change area, and determines the attribute Change attribute information using type. Details of the attribute change processing will be described later.

判定手段224は、記憶部21に記憶された物体テーブル213の属性情報を参照し、当該属性情報と撮像画像とから物体の状態を判定する判定処理を行い、判定結果を出力部24に出力する処理を行う。判定処理の詳細については後述する。
出力部24は、制御部22による処理結果を様々な外部装置に出力するためのインタフェースである。出力部24は、例えばディスプレイ等の表示出力装置と接続され、監視場所の物体が異常状態であると判定したとき、当該表示出力装置に対して警告メッセージや対応する撮像装置3の撮像画像を表示出力させる。また、出力部24は、例えばスピーカやブザー等の音響出力装置と接続され、制御部22からの指示により、当該音響出力装置に対して警告音の鳴動を実行させる異常信号を出力する。監視者等は、警告出力として出力部24からの表示出力や音声出力を確認することにより、監視領域内における異常状態を検知することができる。また、出力部24は、外部の図示しない警備装置に対して異常信号を送信する通信インタフェースを含んでもよい。これにより、制御部22の処理によって異常状態が検知された場合に、監視端末2は、異常状態を知らせる信号を外部の監視センタなどに通知することができる。なお、この場合、出力部24は、通信部23と共通のインタフェース装置であってもよい。
The determination unit 224 refers to the attribute information of the object table 213 stored in the storage unit 21, performs determination processing for determining the state of the object from the attribute information and the captured image, and outputs the determination result to the output unit 24. Process. Details of the determination process will be described later.
The output unit 24 is an interface for outputting processing results from the control unit 22 to various external devices. For example, when the output unit 24 is connected to a display output device such as a display and determines that the object at the monitoring place is in an abnormal state, the output unit 24 displays a warning message and a corresponding captured image of the imaging device 3 on the display output device. Output. The output unit 24 is connected to a sound output device such as a speaker or a buzzer, and outputs an abnormal signal that causes the sound output device to sound a warning sound in response to an instruction from the control unit 22. The monitor or the like can detect an abnormal state in the monitoring area by confirming the display output or the sound output from the output unit 24 as the warning output. The output unit 24 may include a communication interface that transmits an abnormal signal to an external security device (not shown). Thereby, when an abnormal state is detected by the processing of the control unit 22, the monitoring terminal 2 can notify a signal indicating the abnormal state to an external monitoring center or the like. In this case, the output unit 24 may be an interface device common to the communication unit 23.

このように、本実施形態の画像監視装置は、被監視者等によって設置されたマーカーを注目変化領域として検出し、当該注目変化領域と物体モデルとの空間的位置関係に応じて、物体の属性情報を変更することができる。したがって、被監視者は、例えば、属性情報を変更したい物体の上にマーカーを設置するだけで、当該物体の属性情報を容易に変更することができ、また、監視者は、重点的に監視すべき物体に監視対象を限定して監視運用することができる。結果として、多数のカメラが設置された環境下であっても、監視者の監視負荷を増大させずに監視することが可能となる。   As described above, the image monitoring apparatus according to the present embodiment detects the marker set by the monitored person as the attention change area, and determines the attribute of the object according to the spatial positional relationship between the attention change area and the object model. Information can be changed. Therefore, for example, the person to be monitored can easily change the attribute information of the object simply by placing a marker on the object whose attribute information is to be changed. It is possible to perform the monitoring operation by limiting the monitoring target to the object to be operated. As a result, even in an environment where a large number of cameras are installed, monitoring can be performed without increasing the monitoring load on the observer.

(監視端末2の制御部22が実行する処理について)
以下、本実施形態の画像監視装置1に係る監視端末2の制御部22が実行する処理の流れの一例について、図6を参照しながら説明する。なお、本実施形態では、監視場所である建物内に4台の撮像装置が設置されているものとして説明する。
(About processing executed by the control unit 22 of the monitoring terminal 2)
Hereinafter, an example of a flow of processing executed by the control unit 22 of the monitoring terminal 2 according to the image monitoring apparatus 1 of the present embodiment will be described with reference to FIG. In the present embodiment, description will be made assuming that four imaging devices are installed in a building that is a monitoring place.

動作に先立ち、監視者等により監視端末2の入力部25を用いて撮像条件情報212の設定、物体テーブル213の設定、属性テーブル214の設定、及び場所モデル211の登録等の各種初期設定が行なわれる(ST1)。本実施例では、監視場所である建物内に4台の撮像装置3が設置されている場合を想定しているため、撮像装置3ごとに撮像条件情報212が初期設定にて登録される。また、場所モデル211として図7の3次元形状データが、初期設定にて登録されたとして以下の処理を説明する。なお、図7において、符号34w、34x、34y、34zは撮像装置3を表す物体モデルであり、符号32はロッカーを表す物体モデルであり、符号33は金庫を表す物体モデルである。この他にも、場所モデル211は、床面、壁、ドアなどの各種物体モデルによって構成されている。   Prior to the operation, various initial settings such as setting of the imaging condition information 212, setting of the object table 213, setting of the attribute table 214, and registration of the location model 211 are performed by the monitor or the like using the input unit 25 of the monitoring terminal 2. (ST1). In this embodiment, since it is assumed that four imaging devices 3 are installed in a building that is a monitoring place, the imaging condition information 212 is registered by default for each imaging device 3. Further, the following processing will be described assuming that the three-dimensional shape data of FIG. In FIG. 7, reference numerals 34w, 34x, 34y, and 34z are object models that represent the imaging device 3, reference numeral 32 is an object model that represents a locker, and reference numeral 33 is an object model that represents a safe. In addition, the place model 211 is configured by various object models such as a floor surface, a wall, and a door.

次に、制御部22は、撮像装置3から受信して記憶部21に記憶された撮像画像を、撮像装置3ごとに読み出す撮像画像読出処理を実行する(ST2)。撮像画像読出処理では、最新(現在時刻に最も近い)の撮像画像を撮像装置3ごとに読み出す。   Next, the control unit 22 executes a captured image reading process for reading the captured image received from the imaging device 3 and stored in the storage unit 21 for each imaging device 3 (ST2). In the captured image reading process, the latest captured image (closest to the current time) is read for each imaging device 3.

次に、制御部22の注目変化領域検出手段221により抽出処理を実行する(ST3)。抽出処理では、撮像画像読出処理で取得された撮像装置3ごとの撮像画像から、それぞれ変化領域を抽出する。本実施形態では、今回取得した撮像画像と基準画像との差分をとることにより変化領域を抽出する。また、抽出処理では、抽出された変化領域に対してラベル付けするラベリング処理も実施している。   Next, an extraction process is executed by the attention changing area detecting means 221 of the control unit 22 (ST3). In the extraction process, each change area is extracted from the captured image of each imaging device 3 acquired in the captured image reading process. In this embodiment, the change area is extracted by taking the difference between the captured image acquired this time and the reference image. In the extraction process, a labeling process for labeling the extracted change area is also performed.

次に、制御部22の注目変化領域検出手段221により、注目変化領域検出処理を実行する(ST4)。注目変化領域検出処理では、抽出処理にて抽出した変化領域の中から、記憶部21の属性テーブル214に予め設定された所定の画像特徴を有する変化領域を注目変化領域として検出し、当該変化領域のラベルを記憶部21に記憶する処理を行う。この例では、図4に示したように、図7の物体モデル31zに対応する撮像装置3からの撮像画像40に、注目変化領域30aが検出されていることとする。   Next, the attention change area detection unit 221 of the control unit 22 executes attention change area detection processing (ST4). In the attention change area detection process, a change area having a predetermined image feature preset in the attribute table 214 of the storage unit 21 is detected as the attention change area from the change areas extracted by the extraction process, and the change area Is stored in the storage unit 21. In this example, as illustrated in FIG. 4, it is assumed that the attention changing region 30 a is detected in the captured image 40 from the imaging device 3 corresponding to the object model 31 z in FIG. 7.

次に、制御部22の仮想空間位置算出手段222により、仮想空間位置算出処理を実行する(ST5)。仮想空間位置算出処理では、注目変化領域検出手段221にて抽出した変化領域の撮像画像上の位置から当該変化領域の仮想空間位置を算出し、当該仮想空間位置の座標を注目変化領域のラベルと対応付けて記憶部21に記憶する処理を行う。仮想空間位置算出処理の詳細については、前述したためここでは説明を省略する。   Next, a virtual space position calculation process is executed by the virtual space position calculation means 222 of the control unit 22 (ST5). In the virtual space position calculation processing, the virtual space position of the change area is calculated from the position on the captured image of the change area extracted by the attention change area detection unit 221 and the coordinates of the virtual space position are used as the label of the attention change area. The process which matches and memorize | stores in the memory | storage part 21 is performed. Since the details of the virtual space position calculation process have been described above, the description thereof is omitted here.

次に、制御部22の属性変更手段223により、属性変更処理を実行する(ST6)。属性変更処理では、注目変化領域検出処理(ST4)にて検出された注目変化領域30aの仮想空間位置算出処理(ST5)にて算出された仮想空間位置と、物体モデルの仮想空間位置と、を用いて物体モデルの属性情報を変更する。なお、属性変更処理の詳細については追って説明する。   Next, the attribute changing unit 223 of the control unit 22 executes attribute changing processing (ST6). In the attribute change process, the virtual space position calculated in the virtual space position calculation process (ST5) of the attention change area 30a detected in the attention change area detection process (ST4) and the virtual space position of the object model are obtained. To change the attribute information of the object model. Details of the attribute change process will be described later.

次に、制御部22の判定手段224により、判定処理を実行する(ST7)。判定処理では、記憶部21に記憶された物体テーブル213と属性テーブル214とを参照し、当該属性情報と撮像画像から抽出された変化領域との関係に基づいて物体の状態を判定する。なお、判定処理の詳細については追って説明する。   Next, determination processing is executed by the determination means 224 of the control unit 22 (ST7). In the determination process, the object state is determined based on the relationship between the attribute information and the change area extracted from the captured image with reference to the object table 213 and the attribute table 214 stored in the storage unit 21. Details of the determination process will be described later.

次に、制御部22の判定手段224は、ST7の判定処理による判定結果を出力部24に出力する処理を行う(ST8)。そして、画像処理部22は、監視者等によって入力部25から終了操作が行われるまで、ST2〜ST8の処理を繰り返し実行する。   Next, the determination unit 224 of the control unit 22 performs a process of outputting the determination result by the determination process of ST7 to the output unit 24 (ST8). Then, the image processing unit 22 repeatedly executes the processes of ST2 to ST8 until a termination operation is performed from the input unit 25 by a supervisor or the like.

(属性変更処理の詳細について)
次に、図6のフローチャートのST6における、制御部22の属性変更手段223が実行する属性変更処理の詳細について図8を参照しながら説明する。なお、図8のループ1は、ST20〜ST22の各処理を場所モデル211を構成する物体モデルの数分だけ実行することを意味する。なお、本処理の説明において、選択物体モデルとは、ループ1にて処理対象となっている物体モデルをいう。
(Details of attribute change processing)
Next, details of the attribute changing process executed by the attribute changing unit 223 of the control unit 22 in ST6 of the flowchart of FIG. 6 will be described with reference to FIG. Note that loop 1 in FIG. 8 means that each process of ST20 to ST22 is executed by the number of object models constituting the location model 211. In the description of this process, the selected object model refers to an object model that is a processing target in loop 1.

属性変更処理では、まず、選択物体モデルが、ST4にて検出した注目変化領域と所定の空間的位置関係にあるか否かを判定する(ST20)。この際、ST5にて算出した注目変化領域の仮想空間位置と、選択物体モデルの仮想空間位置とを用いて、予め記憶部21に記憶された位置関係情報に合致しているか否かにより判定する。なお、位置関係情報は、例えば、「注目変化領域の仮想空間位置が物体モデルの仮想空間位置の上方1m以内」といったように物体モデルの種類に関わらず一定に規定した空間的位置関係であっても、「注目変化領域の仮想空間位置が金庫を表す物体モデルの仮想空間位置の上方1m以内」といったように物体モデルの種類毎に規定する空間的位置関係であってもよい。ST20にて、選択物体モデルが注目変化領域と所定の空間的位置関係にないと判定したとき(ST20−No)、ループ1にてまだ処理対象となっていない他の物体モデルを選択物体モデルに変更して、ST20からの処理を行う。   In the attribute change process, first, it is determined whether or not the selected object model has a predetermined spatial positional relationship with the attention change area detected in ST4 (ST20). At this time, using the virtual space position of the attention change region calculated in ST5 and the virtual space position of the selected object model, determination is made based on whether or not the positional relationship information stored in advance in the storage unit 21 is met. . Note that the positional relationship information is a spatial positional relationship that is fixedly defined regardless of the type of the object model, for example, “the virtual space position of the target change region is within 1 m above the virtual space position of the object model”. Alternatively, it may be a spatial positional relationship defined for each type of object model such as “the virtual space position of the noticeable change region is within 1 m above the virtual space position of the object model representing the safe”. When it is determined in ST20 that the selected object model does not have a predetermined spatial positional relationship with the target change area (ST20-No), another object model that has not yet been processed in loop 1 is selected as the selected object model. Change the process from ST20.

ST20にて、選択物体モデルが注目変化領域と所定の空間的位置関係にあると判定したとき(ST20−Yes)、属性変更手段223は属性種別判定処理を行う(ST21)。属性種別判定処理では、属性変更手段223は、選択物体モデルと所定の空間的位置関係にある注目変化領域の画像特徴(注目特徴量)を調べ、属性テーブル214を参照して、属性種別を判定する。例えば、図4の例では、注目変化領域30aの画像特徴が属性テーブル214の重点監視属性に対応することから、当該注目変化領域30aと所定の空間的位置関係にある金庫の物体モデル33の属性情報は、重点監視属性であると判定されることになる。   When it is determined in ST20 that the selected object model has a predetermined spatial positional relationship with the attention change region (ST20-Yes), the attribute changing unit 223 performs an attribute type determination process (ST21). In the attribute type determination process, the attribute changing unit 223 examines the image feature (attention feature amount) of the attention changing area having a predetermined spatial positional relationship with the selected object model, and refers to the attribute table 214 to determine the attribute type. To do. For example, in the example of FIG. 4, since the image feature of the attention changing area 30a corresponds to the priority monitoring attribute of the attribute table 214, the attribute of the safe object model 33 having a predetermined spatial positional relationship with the attention changing area 30a. The information is determined to be a priority monitoring attribute.

次に、属性種別判定処理にて判定された属性種別を用いて、物体テーブル213における選択物体モデルの属性情報を変更する処理を行う(ST22)。例えば、図4の例では、当該注目変化領域30aと所定の空間的位置関係にある金庫の物体モデル33の属性情報を、ST21にて判定された属性種別(重点監視属性)を用いて変更する。ST22の処理を終了すると、ループ1にてまだ処理対象となっていない他の物体モデルを選択物体モデルに変更して、ST20からの処理を行う。ループ1にて全ての物体モデルに対する処理を終了すると、属性変更手段223は、属性変更処理を終了し、処理を図6のST7に進める。   Next, using the attribute type determined in the attribute type determination process, a process for changing the attribute information of the selected object model in the object table 213 is performed (ST22). For example, in the example of FIG. 4, the attribute information of the object model 33 of the safe having a predetermined spatial positional relationship with the attention changing area 30a is changed using the attribute type (priority monitoring attribute) determined in ST21. . When the process of ST22 is completed, another object model not yet processed in loop 1 is changed to the selected object model, and the process from ST20 is performed. When the processing for all the object models is completed in loop 1, the attribute changing unit 223 ends the attribute changing processing and advances the processing to ST7 in FIG.

(判定処理の詳細について)
次に、図6のフローチャートのST7における、制御部22の判定手段224が実行する判定処理の詳細について図9を参照しながら説明する。なお、図9のループ2は、ST40〜ST45の各処理を場所モデル211を構成する物体モデルの数分だけ実行することを意味する。なお、本処理の説明において、選択物体モデルとは、ループ2にて処理対象となっている物体モデルをいう。
(Details of judgment processing)
Next, details of the determination process executed by the determination unit 224 of the control unit 22 in ST7 of the flowchart of FIG. 6 will be described with reference to FIG. Note that the loop 2 in FIG. 9 means that each process of ST40 to ST45 is executed by the number of object models constituting the location model 211. In the description of this process, the selected object model refers to an object model that is a processing target in loop 2.

判定処理では、まず、物体テーブル213を参照し、選択物体モデルが重点監視属性であるか否かを判定する(ST40)。ST40にて、選択物体モデルが重点監視属性であると判定したとき(ST40−Yes)、当該選択物体モデルの所定範囲内に他の変化領域が存在するか否かを判定する(ST41)。この際、判定手段224は、選択物体モデルの仮想空間位置と、記憶部21に予め設定された範囲情報(例えば半径5m以内の範囲といった情報)とを用いて、選択物体モデルから所定範囲の検知エリアを場所モデル211上に設定する。そして、判定手段は、仮想空間位置算出手段222にて算出した各変化領域の仮想空間位置を用いて、設定した検知エリア内に変化領域30が存在しているか否かを判定する。ST41にて、選択物体モデルの所定範囲内に他の変化領域が存在しないと判定したとき(ST41−No)、ループ2にてまだ処理対象となっていない他の物体モデルを選択物体モデルに変更して、ST40からの処理を行う。   In the determination process, first, the object table 213 is referred to and it is determined whether or not the selected object model is a priority monitoring attribute (ST40). When it is determined in ST40 that the selected object model is the priority monitoring attribute (ST40-Yes), it is determined whether or not another change area exists within a predetermined range of the selected object model (ST41). At this time, the determination unit 224 detects a predetermined range from the selected object model using the virtual space position of the selected object model and the range information preset in the storage unit 21 (for example, information such as a range within a radius of 5 m). An area is set on the location model 211. Then, the determination unit determines whether or not the change region 30 exists in the set detection area using the virtual space position of each change region calculated by the virtual space position calculation unit 222. When it is determined in ST41 that there is no other change region within the predetermined range of the selected object model (ST41-No), another object model not yet processed in loop 2 is changed to the selected object model. Then, the process from ST40 is performed.

ST41にて、選択物体モデルの所定範囲内に他の変化領域が存在していると判定したとき(ST42−Yes)、判定手段224は選択物体モデルが異常状態であると判定し、選択物体モデルの識別情報と異常状態を表す情報とを対応付けて記憶部21に記憶する処理を行う(ST42)。   When it is determined in ST41 that another change region exists within the predetermined range of the selected object model (ST42-Yes), the determination unit 224 determines that the selected object model is in an abnormal state, and the selected object model The identification information and the information indicating the abnormal state are associated with each other and stored in the storage unit 21 (ST42).

ST40にて、選択物体モデルが重点監視属性でないと判定したとき(ST40−No)、当該選択物体モデルが移動禁止属性であるか否かを判定する(ST43)。ST43にて、選択物体モデルが移動禁止属性でないと判定したとき(ST43−No)、ループ2にてまだ処理対象となっていない他の物体モデルを選択物体モデルに変更して、ST40からの処理を行う。   When it is determined in ST40 that the selected object model is not the priority monitoring attribute (ST40-No), it is determined whether or not the selected object model is a movement prohibition attribute (ST43). When it is determined in ST43 that the selected object model is not a movement prohibition attribute (ST43-No), another object model not yet processed in loop 2 is changed to the selected object model, and the process from ST40 is performed. I do.

ST43にて、選択物体モデルが移動禁止属性であると判定したとき(ST43−Yes)、選択物体モデルに対応する物体が移動したか否かを判定するための移動判定処理を行う(ST44)。以下、移動判定処理の詳細について説明する。   When it is determined in ST43 that the selected object model has a movement prohibition attribute (ST43-Yes), a movement determination process is performed to determine whether or not the object corresponding to the selected object model has moved (ST44). Details of the movement determination process will be described below.

移動判定処理では、まず、選択物体モデルを撮像する撮像装置3の撮像条件情報212を記憶部21から読出し、場所モデル211を当該撮像条件情報212を用いて、3次元コンピュータグラフィックスのレンダリング処理を行うことにより、当該撮像装置3から見た撮像画像40に相当する仮想的な画像であるレンダリング画像を生成する。図10aは、選択物体モデルが金庫を表す物体モデル33であるとき、当該選択物体モデル33を撮像する撮像装置3(図7における物体モデル31zに相当)の撮像条件情報212を用いて生成したレンダリング画像42の例を表したものである。図10aにおいて、符号42aは、選択物体モデルである金庫の物体モデル33に相当する画像領域(物体画像領域)である。図10bは、当該撮像装置3の撮像画像から抽出処理にて変化領域を抽出するために用いた、撮像画像と基準画像との差分画像43を表したものである。すなわち、差分画像43における画像領域30cは、変化領域として検出されることを意味する。図10bのように、物体画像領域42aと変化領域30cとを比較して、位置・大きさ・形が、変化領域の位置・大きさ・形と略一致しているとき、選択物体モデルに対応する物体は移動していると判定することができる。   In the movement determination process, first, the imaging condition information 212 of the imaging device 3 that captures the selected object model is read from the storage unit 21, and the 3D computer graphics rendering process is performed using the location model 211 using the imaging condition information 212. By doing so, a rendering image that is a virtual image corresponding to the captured image 40 viewed from the imaging device 3 is generated. FIG. 10A shows a rendering generated using the imaging condition information 212 of the imaging device 3 (corresponding to the object model 31z in FIG. 7) that images the selected object model 33 when the selected object model is an object model 33 representing a safe. An example of the image 42 is shown. In FIG. 10a, reference numeral 42a denotes an image area (object image area) corresponding to the safe object model 33 which is the selected object model. FIG. 10 b shows a difference image 43 between the captured image and the reference image, which is used for extracting the change area from the captured image of the imaging apparatus 3 by the extraction process. That is, it means that the image area 30c in the difference image 43 is detected as a change area. As shown in FIG. 10b, when the object image area 42a and the change area 30c are compared, and the position / size / shape substantially matches the position / size / shape of the change area, it corresponds to the selected object model. It can be determined that the moving object is moving.

なお、本実施形態では、物体画像領域42aと変化領域30cとを比較して、位置・大きさ・形が、変化領域の位置・大きさ・形と略一致しているときに、物体が移動したと判定しているが、これに限らず、物体画像領域の形状と変化領域の形状とを、例えばエッジマッチングなどの従来技術を用いて比較することにより、移動を判定してもよい。   In the present embodiment, the object image area 42a and the change area 30c are compared, and the object moves when the position / size / shape substantially matches the position / size / shape of the change area. However, the present invention is not limited to this, and the movement may be determined by comparing the shape of the object image region and the shape of the change region using a conventional technique such as edge matching.

ST44にて移動判定処理を終了すると、判定手段224は、選択物体モデルに対応する物体が移動したか否かに応じて処理を分岐する(ST45)。選択物体モデルに対応する物体が移動しないとき(ST45−No)、ループ2にてまだ処理対象となっていない他の物体モデルを選択物体モデルに変更して、ST40からの処理を行う。一方、選択物体モデルに対応する物体が移動したとき(ST45−Yes)、前述のように異常状態と判定する(ST42)。ループ2にて全ての物体モデルに対する処理を終了すると、判定手段224は、判定処理を終了し、処理を図6のST8に進める。   When the movement determination process ends in ST44, determination means 224 branches the process depending on whether or not the object corresponding to the selected object model has moved (ST45). When the object corresponding to the selected object model does not move (ST45-No), another object model not yet processed in loop 2 is changed to the selected object model, and the processing from ST40 is performed. On the other hand, when the object corresponding to the selected object model moves (ST45-Yes), it is determined as an abnormal state as described above (ST42). When the process for all the object models is completed in loop 2, the determination unit 224 ends the determination process and advances the process to ST8 in FIG.

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。   By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.

上記実施形態では、注目変化領域検出処理において、選択変化領域の画像特徴と記憶部21に記憶した注目変化領域の画像特徴(注目特徴量)とを比較し、選択変化領域の画像特徴が注目特徴量に合致しているか否かを判定することにより、選択変化領域が注目変化領域であるか否かを判定している。しかし、これに限らず、既知の従来技術(例えば、特開2008−26974号公報を参照)である識別器(いわゆるディテクタ)を用いて、選択変化領域内に注目変化領域が含まれるか否かを識別することにより選択変化領域が注目変化領域であるか否かを判定しても良い。これにより、変化領域の内部に含まれる注目変化領域をも検出することができる。   In the above embodiment, in the attention change region detection process, the image feature of the selected change region is compared with the image feature (target feature amount) of the attention change region stored in the storage unit 21, and the image feature of the selection change region is the feature of interest. It is determined whether or not the selected change region is the attention change region by determining whether or not the amount matches. However, the present invention is not limited to this, and whether or not the change area of interest is included in the selected change area using a discriminator (so-called detector) that is a known prior art (see, for example, Japanese Patent Laid-Open No. 2008-26974) It may be determined whether or not the selected change area is the attention change area. Thereby, the attention change area included in the change area can also be detected.

上記実施形態では、図6のST1(初期設定)にて、撮像装置3の撮像条件情報212を固定的に設定している。しかし、これに限らず、撮像装置3から監視端末2の通信部23を介して撮像条件情報212を定期的に受信し、当該受信した撮像条件情報212に基づいてST2以降の処理を実施してもよい。これにより、例えば撮像装置3に対してがパン・チルト・ズーム等により撮像条件情報212が変更されたとしても、監視者は、当該変更された撮像条件情報212に追従しながら、監視場所における状態を監視できる。   In the above embodiment, the imaging condition information 212 of the imaging device 3 is fixedly set in ST1 (initial setting) in FIG. However, the present invention is not limited to this, and the imaging condition information 212 is periodically received from the imaging device 3 via the communication unit 23 of the monitoring terminal 2, and the processes after ST2 are performed based on the received imaging condition information 212. Also good. Thereby, for example, even if the imaging condition information 212 is changed by panning, tilting, zooming, or the like with respect to the imaging apparatus 3, the monitor can follow the changed imaging condition information 212 while monitoring the state at the monitoring location. Can be monitored.

1・・・画像監視装置
2・・・監視端末
3・・・撮像装置
21・・・記憶部
22・・・制御部
23・・・通信部
24・・・出力部
25・・・入力部
211・・・場所モデル
212・・・撮像条件情報
213・・・物体テーブル
214・・・属性テーブル
221・・・注目変化領域検出手段
222・・・仮想空間位置算出手段
223・・・属性変更手段
224・・・判定手段
30・・・変化領域
40・・・撮像画像
41・・・基準画像
42・・・レンダリング画像
43・・・差分画像

DESCRIPTION OF SYMBOLS 1 ... Image monitoring apparatus 2 ... Monitoring terminal 3 ... Imaging device 21 ... Memory | storage part 22 ... Control part 23 ... Communication part 24 ... Output part 25 ... Input part 211 ... Location model 212 ... Imaging condition information 213 ... Object table 214 ... Attribute table 221 ... Attention change area detection means 222 ... Virtual space position calculation means 223 ... Attribute change means 224 ... determining means 30 ... change area 40 ... captured image 41 ... reference image 42 ... rendered image 43 ... difference image

Claims (3)

監視場所の撮像画像を順次取得する撮像部と、
前記監視場所を3次元の仮想空間として表現した場所モデルと、該場所モデルの構成要素であって該監視場所に存在する物体の3次元形状と該仮想空間における位置である仮想空間位置とにより表現した物体モデルと該物体モデルの属性情報とを対応付けた物体テーブルと、注目変化領域の画像特徴と前記属性情報の属性種別とを対応付けた属性テーブルと、前記撮像部の設置位置、光軸及び画角を前記仮想空間に対応付けた撮像条件情報と、を記憶した記憶部と、
前記撮像画像から変化領域を抽出し、該変化領域が前記注目変化領域の画像特徴を有していたとき、該変化領域を注目変化領域として検出する注目変化領域検出手段と、
前記場所モデルと前記撮像条件情報と前記注目変化領域の撮像画像上の位置とを用いて該注目変化領域の仮想空間位置を求める仮想空間位置算出手段と、
前記属性テーブルの画像特徴と前記注目変化領域の画像特徴との比較により該注目変化領域の前記属性種別を判定し、該注目変化領域の仮想空間位置と前記物体モデルの仮想空間位置とを用いて、前記仮想空間において該注目変化領域と所定の空間的位置関係にある物体モデルの前記物体テーブルにおける前記属性情報を前記判定した属性種別に応じて変更する属性変更手段と、
前記物体テーブルを用いて前記撮像画像から前記物体の状態を判定し判定結果を出力する判定手段と、を有することを特徴とする画像監視装置。
An imaging unit that sequentially acquires captured images of the monitoring location;
Expressed by a location model that represents the monitoring location as a three-dimensional virtual space, a three-dimensional shape of an object that is a component of the location model and exists at the monitoring location, and a virtual space position that is a position in the virtual space An object table in which the object model is associated with the attribute information of the object model, an attribute table in which an image feature of the attention change area is associated with an attribute type of the attribute information, an installation position of the imaging unit, an optical axis And a storage unit that stores imaging condition information in which an angle of view is associated with the virtual space,
Attention change area detection means for extracting a change area from the captured image and detecting the change area as an attention change area when the change area has an image feature of the attention change area;
Virtual space position calculation means for obtaining a virtual space position of the target change area using the location model, the imaging condition information, and a position of the target change area on the captured image;
Wherein determining the attribute type of the noted change area image feature attribute table and by comparing the image feature of the target change area, by using the virtual spatial position of the object model and the virtual spatial position of the target change region An attribute changing means for changing the attribute information in the object table of the object model having a predetermined spatial positional relationship with the attention changing region in the virtual space according to the determined attribute type ;
An image monitoring apparatus comprising: a determination unit that determines a state of the object from the captured image using the object table and outputs a determination result.
前記仮想空間位置算出手段は、前記場所モデルと前記撮像条件情報と前記変化領域の撮像画像上の位置とを用いて該変化領域の前記仮想空間位置を求め、
前記判定手段は、前記物体モデルの前記属性情報、及び該物体モデルの仮想空間位置と前記変化領域の仮想空間位置との位置関係に応じて該物体モデルに対応する前記物体の状態を判定し前記判定結果を出力する請求項1に記載の画像監視装置。
The virtual space position calculation means obtains the virtual space position of the change area using the place model, the imaging condition information, and the position of the change area on the captured image,
The determination means, the attribute information of the object model, and determining the positional relationship between the virtual space position of the object model and the virtual spatial position of the change area, the state of the object corresponding to said object model in accordance with the The image monitoring apparatus according to claim 1, wherein the determination result is output.
前記判定手段は、前記物体モデルが配置された場所モデルを、前記撮像条件情報を用いて前記撮像部の視野に相当するレンダリング画像を生成し、該レンダリング画像における該物体モデルに対応する画像領域の画像特徴と前記変化領域の画像特徴との比較により、該物体モデルに対応する物体の移動を判定し、移動したと判定された該物体に対応する物体モデルの前記属性情報が物体移動を禁止する移動禁止属性であるとき、該物体を異常状態とする前記判定結果を出力する請求項1又は請求項2に記載の画像監視装置。 The determination unit generates a rendering image corresponding to the field of view of the imaging unit, using the imaging condition information, for a place model where the object model is arranged, and an image region corresponding to the object model in the rendering image The movement of the object corresponding to the object model is determined by comparing the image feature with the image feature of the change area, and the attribute information of the object model corresponding to the object determined to have moved is prohibited from moving. when a mobile prohibit attribute, the image monitoring apparatus according to claim 1 or claim 2 outputs the determination result to the said object in an abnormal state.
JP2012081424A 2012-03-30 2012-03-30 Image monitoring device Active JP5960471B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012081424A JP5960471B2 (en) 2012-03-30 2012-03-30 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012081424A JP5960471B2 (en) 2012-03-30 2012-03-30 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2013211740A JP2013211740A (en) 2013-10-10
JP5960471B2 true JP5960471B2 (en) 2016-08-02

Family

ID=49529215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012081424A Active JP5960471B2 (en) 2012-03-30 2012-03-30 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5960471B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6309913B2 (en) * 2015-03-31 2018-04-11 セコム株式会社 Object detection device
CN104796667A (en) * 2015-04-14 2015-07-22 浙江工商职业技术学院 Campus night-vision three-dimensional virtual monitoring system and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7944454B2 (en) * 2005-09-07 2011-05-17 Fuji Xerox Co., Ltd. System and method for user monitoring interface of 3-D video streams from multiple cameras
JP5248236B2 (en) * 2008-08-08 2013-07-31 パナソニック株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2013211740A (en) 2013-10-10

Similar Documents

Publication Publication Date Title
JP6534499B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP5956248B2 (en) Image monitoring device
CN109286755B (en) Information processing apparatus and control method for controlling image capturing apparatus
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
KR101467663B1 (en) Method and system of providing display in display monitoring system
CN107396037B (en) Video monitoring method and device
JP6640294B1 (en) Mixed reality system, program, portable terminal device, and method
JP2007243509A (en) Image processing device
US9031355B2 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
JP5183152B2 (en) Image processing device
US20170109932A1 (en) Content projection apparatus, content projection method, and computer readable storage medium
JP5727207B2 (en) Image monitoring device
JP2016197797A (en) Image processing apparatus, image processing method, and image processing system
JP2017091063A (en) Object detector, information processor, and method of the processor
JP5960471B2 (en) Image monitoring device
JP2016176816A (en) Image processor, image processing method, and program
JP2020088840A (en) Monitoring device, monitoring system, monitoring method, and monitoring program
KR101559739B1 (en) System for merging virtual modeling and image data of cameras
JP5960470B2 (en) Image monitoring device
JP5960472B2 (en) Image monitoring device
JP5132705B2 (en) Image processing device
KR101572800B1 (en) System for controlling camera on the 3d virtual modeling
KR102152319B1 (en) Method of calculating position and size of object in 3d space and video surveillance system using the same
JP7089493B2 (en) Person detectors, methods and programs
JP2017028688A (en) Image managing device, image managing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160623

R150 Certificate of patent or registration of utility model

Ref document number: 5960471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250