JP5956248B2 - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP5956248B2
JP5956248B2 JP2012115938A JP2012115938A JP5956248B2 JP 5956248 B2 JP5956248 B2 JP 5956248B2 JP 2012115938 A JP2012115938 A JP 2012115938A JP 2012115938 A JP2012115938 A JP 2012115938A JP 5956248 B2 JP5956248 B2 JP 5956248B2
Authority
JP
Japan
Prior art keywords
area
imaging
information
imaging area
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012115938A
Other languages
Japanese (ja)
Other versions
JP2013242728A (en
Inventor
利彦 櫻井
利彦 櫻井
貴幸 守澤
貴幸 守澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012115938A priority Critical patent/JP5956248B2/en
Publication of JP2013242728A publication Critical patent/JP2013242728A/en
Application granted granted Critical
Publication of JP5956248B2 publication Critical patent/JP5956248B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、複数の監視カメラによって撮像した監視場所の撮像画像を、監視者が目視にて監視する画像監視装置に関する。   The present invention relates to an image monitoring apparatus in which a monitor visually monitors captured images of a monitoring location captured by a plurality of monitoring cameras.

近年、複数の監視カメラによって撮像した撮像画像を順次受信して、監視者の利用する監視端末に表示させることによって、監視場所の複数エリアにおける異常状態を集中的に監視する画像監視装置が利用されている。このような画像監視装置に関して、特に、特許文献1には、複数の監視カメラからの撮像画像に映る物体についてその特徴量に基づいて前後時間での対応付けを行って複数カメラ間の追跡(トラッキング)をして、監視場所の平面図上に当該物体の移動軌跡を表示することにより、広範囲の監視場所全体における物体の行動状態を監視者が視認し易いようにした画像監視装置が開示されている。   In recent years, image monitoring apparatuses that centrally monitor abnormal states in a plurality of areas at a monitoring location by sequentially receiving captured images captured by a plurality of monitoring cameras and displaying them on a monitoring terminal used by a supervisor are used. ing. With regard to such an image monitoring device, in particular, Patent Document 1 discloses that tracking is performed between a plurality of cameras by associating objects captured in images taken from a plurality of monitoring cameras in the preceding and following times based on their feature values. ), And displaying the movement trajectory of the object on the plan view of the monitoring place, an image monitoring apparatus is disclosed that makes it easy for the observer to visually recognize the action state of the object in the entire monitoring place in a wide range. Yes.

特開平07−049952号公報Japanese Patent Application Laid-Open No. 07-049952

しかしながら、商店街やショッピングモールなどのように監視場所が広範囲になる程、当該監視場所の全てのエリアを隙間なくカバーできるよう監視カメラを設置することは設置コストや運用コスト等の理由から困難であり、一般には監視場所の特に監視したいエリアにのみ監視カメラが設置されることとなる。そのため、前記従来技術では、監視カメラの撮像している範囲(以下、「撮像エリア」という)の外に物体が移動すると、監視者は当該物体を見失うと同時に、画像監視装置は追跡を継続できなくなるといった問題があった。したがって、撮像エリアの外に物体が移動した場合であっても、どのあたりに当該物体が存在しうるのかを予測表示させたいといった監視ニーズがあった。   However, as surveillance locations become more widespread, such as shopping streets and shopping malls, it is difficult to install surveillance cameras to cover all areas of the surveillance location without gaps for reasons such as installation costs and operational costs. In general, a monitoring camera is installed only in an area to be monitored, particularly in a monitoring place. Therefore, in the conventional technique, when an object moves outside the range captured by the surveillance camera (hereinafter referred to as “imaging area”), the monitor loses sight of the object and the image monitoring apparatus can continue tracking. There was a problem of disappearing. Therefore, even when an object moves outside the imaging area, there is a need for monitoring to predict where the object may exist.

そこで、物体が撮像エリア外に移動した場合であっても、建物構造やカメラ設置情報などに基づいて目標移動体の存在確率をエリア毎に算出して活用することにより、監視者は撮像エリアの外に出た目標移動体の大よその位置関係を予測して把握できると同時に、複数の監視カメラ間におけるトラッキングを精度よく継続できるようにすることを目的とする。   Therefore, even if an object moves outside the imaging area, the observer can calculate the probability of existence of the target moving object for each area based on the building structure and camera installation information, etc. It is an object of the present invention to predict and grasp the approximate positional relationship of a target moving object that has gone outside, and at the same time, to continue tracking between a plurality of surveillance cameras with high accuracy.

上記した目的を達成するために、本願請求項1に係る画像監視装置は、
監視場所の撮像画像を順次取得する撮像部と、前記監視場所を構成する物体についての仮想空間における構造及び少なくとも開口部か否かの属性を示した構造情報と、前記仮想空間における前記撮像部の撮像エリア及び該撮像エリア以外の非撮像エリアを示したエリア情報とを記憶した記憶部と、前記撮像画像から抽出した移動体を時間的に追跡する画像処理部と、前記撮像エリアの外に移動した前記移動体の前記非撮像エリアにおける存在確率を算出し、該存在確率に基づいて前記非撮像エリアにおける前記移動体の現在の所在を表示する表示制御部とを備えた画像監視装置であって、
前記表示制御部は、前記移動体が前記撮像エリア外に移動した位置から前記仮想空間における失跡位置を求め、該失跡位置と前記エリア情報及び前記構造情報とから該移動体の移動先の非撮像エリアの外周を構成する開口部を特定し、該移動体の失跡時刻からの経過時間及び該開口部の数が大きくなるほど前記存在確率を小さくなるよう算出することを特徴としている。
In order to achieve the above-described object, an image monitoring apparatus according to claim 1 of the present application includes:
An imaging unit that sequentially acquires captured images of the monitoring location, a structure in the virtual space about the object that configures the monitoring location, and structure information that indicates an attribute of whether or not the opening is at least, and the imaging unit in the virtual space A storage unit that stores an imaging area and area information indicating a non-imaging area other than the imaging area, an image processing unit that temporally tracks a moving object extracted from the captured image, and moves outside the imaging area An image monitoring apparatus comprising: a display control unit that calculates a probability of existence of the mobile body in the non-imaging area and displays a current location of the mobile body in the non-imaging area based on the presence probability. ,
The display control unit obtains a vacant position in the virtual space from a position where the moving body has moved out of the imaging area, and performs non-imaging of a moving destination of the moving body from the vacant position, the area information, and the structure information. The openings constituting the outer periphery of the area are specified, and the existence probability is calculated so as to decrease as the elapsed time from the lost time of the moving body and the number of openings increase.

かかる構成により、本発明の画像処理部は、監視場所に設置された複数の撮像部から取得した撮像画像から背景差分等の従来技術を用いて変化領域を抽出する。そして、抽出された各変化領域の画像上の位置やサイズなどの画像特徴に基づいて、当該変化領域を移動体として撮像画像上で画像追跡する。そして、本発明の表示制御部は、撮像部の撮像エリア外に出て撮像画像内に表示されなくなった移動体(以下、「失跡移動体」という)について、撮像画像にて最後に検出された画像位置に相当する仮想空間における位置(失跡位置)を求める。そして、エリア情報を用いて失跡位置からの移動先(失跡先)における非撮像エリアを特定し、当該非撮像エリアの外周を構成する開口部を構造情報を用いて特定する。そして、特定した開口部の数が多いほど(及び失跡時刻からの経過時間が大きくなるほど)非撮像エリアに失跡移動体が存在する確率(存在確率)が低くなることを考慮して、経過時間及び該開口部の数が大きくなるほど存在確率が小さくなるよう算出する。このようにして算出した存在確率を利用して、例えば、失跡移動体を表すシンボルに対して存在確率に応じて色や透明度等を変化させ、監視場所の平面図(地図)上に重畳表示することにより、複数の撮像部間で移動体を追跡する際に、監視者は撮像エリア外に移動した移動体の所在位置を推測することができる。または、算出した存在確率と移動体の画像特徴(特徴量)とを用いて、ある撮像部における失跡移動体が他の撮像部における移動体と同一であるか否かを判定することにより、複数の撮像部間で当該移動体を精度良く追跡することができる。   With this configuration, the image processing unit of the present invention extracts a change area from a captured image acquired from a plurality of imaging units installed at a monitoring location using a conventional technique such as background difference. Then, based on image features such as the position and size of each extracted change area on the image, image tracking is performed on the captured image using the change area as a moving body. Then, the display control unit of the present invention detects the moving body that has gone out of the imaging area of the imaging unit and is no longer displayed in the captured image (hereinafter referred to as a “lost moving body”) in the captured image. A position (a missing position) in the virtual space corresponding to the image position is obtained. Then, the non-imaging area at the movement destination (rejection destination) from the lost position is specified using the area information, and the opening that forms the outer periphery of the non-imaged area is specified using the structure information. And considering that the probability (existence probability) that the vacant moving body exists in the non-imaging area becomes lower as the number of the specified openings is larger (and the elapsed time from the lapse time becomes larger), the elapsed time and The calculation is performed so that the existence probability decreases as the number of openings increases. Using the existence probability calculated in this way, for example, the symbol representing the lost moving object is changed in color, transparency, or the like according to the existence probability, and is superimposed and displayed on the plan view (map) of the monitoring place. Thus, when tracking a moving body between a plurality of imaging units, the monitor can estimate the location of the moving body that has moved outside the imaging area. Alternatively, by using the calculated existence probability and the image feature (feature amount) of the moving object, it is determined whether or not the unnoticed moving object in one imaging unit is the same as the moving object in the other imaging unit. The moving body can be accurately tracked between the imaging units.

本願請求項2に係る画像監視装置は、請求項1の画像監視装置において、
前記表示制御部は、前記失跡位置と前記構造情報及び前記エリア情報とを用いて前記移動体が前記失跡位置から前記開口部を経由して前記撮像エリアを通らずに移動可能な非撮像エリアにおける予測経路を算出する予測経路算出手段と、
前記移動体の失跡前の移動速度及び前記経過時間に基づいて確率分布を求め、該確率分布と前記構造情報とを用いて前記予測経路ごとに経路別エリア存在確率を算出し、該経路別エリア存在確率から前記存在確率を算出する存在確率算出手段と、を有することを特徴としている。
The image monitoring apparatus according to claim 2 of the present application is the image monitoring apparatus of claim 1,
In the non-imaging area, the display control unit can move the movable body from the missing position through the opening without passing through the imaging area by using the lost position, the structure information, and the area information. A predicted route calculating means for calculating a predicted route;
A probability distribution is obtained based on the moving speed before the relapse of the moving object and the elapsed time, and a path-specific area existence probability is calculated for each predicted path using the probability distribution and the structure information, and the path-specific area Presence probability calculating means for calculating the existence probability from the existence probability.

かかる構成により、本発明の予測経路算出手段は、失跡位置と構造情報とエリア情報とを用いて、失跡移動体が失跡位置から開口部を経由して移動可能な一又は複数の経路である予測経路を算出する。この際、当該失跡移動体が撮像エリアを通ったときは、当該撮像エリアに存在することが判明することを考慮して、撮像エリアを通らずに移動可能な非撮像エリアにおける経路に限定し、当該経路を予測経路として算出する。そして、本発明の存在確率算出手段は、失跡移動体の失跡前の移動速度及び失跡時刻からの経過時間に基づいて予測経路上における確率分布を求め、当該確率分布と構造情報とに基づいて各非撮像エリアにおける存在確率を算出する。このように、開口部の数や位置によって変化する予測経路を構造情報やエリア情報に基づいて求め、当該予測経路毎に確率分布を求めて存在確率を算出することにより、各エリアの広さや開口部の位置を考慮してより正確に存在確率を算出することができる。また、確率分布を失跡移動体の失跡前の移動速度を考慮して求めることにより、失跡移動体の失跡前の移動態様を反映したより正確な存在確率を算出することができる。   With such a configuration, the predicted route calculation unit of the present invention uses the lost position, the structure information, and the area information to predict that the lost moving body is one or a plurality of routes that can move from the lost position via the opening. Calculate the route. At this time, in consideration of the fact that when the lost moving body passes through the imaging area, it is determined that the moving body does not pass through the imaging area, the route is limited to the non-imaging area that can be moved. The route is calculated as a predicted route. Then, the existence probability calculating means of the present invention obtains a probability distribution on the predicted route based on the movement speed before the remnant of the remnant moving body and the elapsed time from the relapse time, and determines each probability based on the probability distribution and the structure information. The existence probability in the non-imaging area is calculated. Thus, by calculating the predicted path that changes depending on the number and position of openings based on the structure information and area information, and calculating the probability of existence for each predicted path, The existence probability can be calculated more accurately in consideration of the position of the part. In addition, by obtaining the probability distribution in consideration of the moving speed of the lost moving body before the remnant, it is possible to calculate a more accurate existence probability reflecting the movement mode of the remnant moving body before the remnant.

本願請求項3に係る画像監視装置は、請求項1又は請求項2の画像監視装置において、
前記画像処理部は、前記移動体の前記画像特徴と予め前記記憶部に記憶した特徴量情報との類似度を求め、該類似度と前記存在確率とを用いて該移動体が該特徴量情報に対応する移動体と同一であるか否かを判定する判定手段を有することを特徴としている。
The image monitoring apparatus according to claim 3 of the present application is the image monitoring apparatus according to claim 1 or 2,
The image processing unit obtains a similarity between the image feature of the moving body and feature amount information stored in the storage unit in advance, and the moving body uses the similarity and the existence probability to detect the feature amount information. It has the determination means which determines whether it is the same as the mobile body corresponding to.

かかる構成により、例えば、ある撮像部の撮像エリアの外に出た移動体(失跡移動体)についての画像特徴を予め記憶部に特徴量情報として記憶しておき、当該失跡移動体と他の撮像部にて検出/追跡している移動体とが同一であるか否かを、当該移動体の画像特徴と特徴量情報との類似度だけでなく、存在確率算出手段にて算出された存在確率も利用することによって判定する。または、認証したい移動体(例えば、特定人物)の画像特徴を予め記憶部に特徴量情報として記憶しておき、追跡している移動体が当該特定人物であるか否かを、当該移動体の画像特徴と予め記憶部に記憶された特徴量情報との類似度だけでなく、存在確率算出手段にて算出された存在確率も利用することによって判定する。これにより、現在追跡している移動体が失跡移動体であるか否かを精度良く判定することができるため、複数の撮像装置が設置された監視場所における移動体の追跡精度を向上させたり、移動体の認証精度を向上させたりすることができる。   With this configuration, for example, an image feature of a moving object (an unrecognized moving object) that has moved out of an imaging area of a certain image capturing unit is stored in advance in the storage unit as feature amount information, and the image of the unrecognized moving object and another image is captured. The existence probability calculated by the existence probability calculation means as well as the similarity between the image feature of the moving object and the feature amount information as to whether or not the moving object detected / tracked by the unit is the same Also determine by using. Alternatively, an image feature of a mobile object (for example, a specific person) to be authenticated is stored in advance as feature amount information in the storage unit, and whether or not the mobile object being tracked is the specific person is determined. The determination is made by using not only the degree of similarity between the image feature and the feature amount information stored in the storage unit in advance, but also the existence probability calculated by the existence probability calculating means. Thereby, since it is possible to accurately determine whether the mobile body currently being tracked is a remnant mobile body, the tracking accuracy of the mobile body in a monitoring place where a plurality of imaging devices are installed, The authentication accuracy of the mobile object can be improved.

本願請求項4に係る画像監視装置は、請求項1〜請求項3の何れか一項の画像監視装置において、
前記表示制御部は、前記記憶部に予め記憶された前記監視場所の地図上に前記移動体の存在位置を表す画像表示を前記存在確率に基づいて表示出力する表示制御手段を有することを特徴としている。
The image monitoring apparatus according to claim 4 of the present application is the image monitoring apparatus according to any one of claims 1 to 3,
The display control unit includes display control means for displaying and outputting an image display representing the location of the moving object on the map of the monitoring location stored in advance in the storage unit based on the existence probability. Yes.

かかる構成により、本発明の表示制御手段は、追跡している移動体の仮想空間位置を用いて、監視場所の地図(平面図又は三次元地図)上に移動体の存在位置を表すシンボルを配置する。この際、当該移動体が撮像エリアの外(非撮像エリア)に存在する失跡移動体である場合、存在確率算出手段にて算出した存在確率に基づいて、例えば、当該シンボルを最も存在確率が高い非撮像エリアの所定位置に配置して、当該存在確率の大きさに応じて当該シンボルの色や透明度、形状等を変更して表示出力する。これにより、監視者は、撮像エリアの外に移動した移動体の現時点の存在位置とその存在確率を容易に視認することができる。   With this configuration, the display control means of the present invention arranges a symbol representing the position of the moving object on the monitoring place map (plan view or three-dimensional map) using the virtual space position of the moving moving object. To do. At this time, if the moving body is a remnant moving body that exists outside the imaging area (non-imaging area), for example, the symbol has the highest existence probability based on the existence probability calculated by the existence probability calculating means. The symbol is arranged at a predetermined position in the non-imaging area, and the color, transparency, shape and the like of the symbol are changed and displayed according to the magnitude of the existence probability. Thereby, the supervisor can easily visually recognize the current location and the existence probability of the moving body that has moved out of the imaging area.

本願請求項5に係る画像監視装置は、請求項1〜請求項4の何れか一項の画像監視装置において、
前記構造情報における前記物体の構造は3次元形状データであり、
前記記憶部は、前記撮像部の設置位置、光軸及び画角を前記構造情報に対応付けた撮像条件情報を更に記憶し、
前記構造情報及び前記撮像条件情報を用いて前記撮像エリア及び前記非撮像エリアを求め前記エリア情報として前記記憶部に記憶するエリア設定部を更に有することを特徴としている。
The image monitoring device according to claim 5 of the present application is the image monitoring device according to any one of claims 1 to 4,
The structure of the object in the structure information is three-dimensional shape data,
The storage unit further stores imaging condition information in which an installation position, an optical axis, and an angle of view of the imaging unit are associated with the structure information,
The image processing apparatus further includes an area setting unit that obtains the imaging area and the non-imaging area using the structure information and the imaging condition information and stores the area in the storage unit as the area information.

かかる構成により、本発明のエリア設定部は、例えば、撮像部に対してパン・チルト・ズーム等のカメラ制御を行って撮像条件情報が変更された場合であっても、当該変更された撮像条件と3次元形状データを仮想空間で表現した構造情報(3次元モデル)とに基づいて、動的に撮像エリアと非撮像エリアとを算出できる。したがって、撮像部に対してカメラ制御等が行われた場合であっても、変更された最新の撮像条件に基づいて失跡移動体の予測経路や存在確率を算出することができる。   With such a configuration, the area setting unit of the present invention, for example, even when the imaging condition information is changed by performing camera control such as pan, tilt, and zoom on the imaging unit, the changed imaging condition The imaging area and the non-imaging area can be dynamically calculated based on the structure information (three-dimensional model) expressing the three-dimensional shape data in the virtual space. Therefore, even when camera control or the like is performed on the imaging unit, it is possible to calculate the predicted path and the existence probability of the remnant moving body based on the changed latest imaging condition.

本願請求項6に係る画像監視装置は、請求項2〜請求項5の何れか一項の画像監視装置において、
前記確率分布は、前記移動速度及び前記経過時間から求められる平均値と該経過時間から求められる標準偏差とをパラメータとした正規分布によって表現されることを特徴としている。
The image monitoring apparatus according to claim 6 of the present application is the image monitoring apparatus according to any one of claims 2 to 5,
The probability distribution is characterized by being expressed by a normal distribution using as parameters the average value obtained from the moving speed and the elapsed time and the standard deviation obtained from the elapsed time.

かかる構成により、移動体の移動速度と時間経過とから、移動体の確率分布(確率密度関数)の平均値(ピーク値)を好適に求めることができる。また、移動体は必ずしも終端の非撮像エリアまで移動するとは限らないことを考慮して、時間経過に伴い正規分布の標準偏差を大きくすることにより、いずれの非撮像エリアに所在している可能性が高いのかを、より確からしい値として監視者に明示することができる。   With this configuration, the average value (peak value) of the probability distribution (probability density function) of the moving object can be suitably obtained from the moving speed of the moving object and the passage of time. Also, considering that the moving body does not necessarily move to the non-imaging area at the end, the standard deviation of the normal distribution may be increased with the passage of time, so that it may be located in any non-imaging area. Can be shown to the monitor as a more probable value.

本発明に係る画像監視装置によれば、撮像画像と建物構造(構造情報)とから失跡移動体の存在確率を算出し、当該存在確率を活用することにより、監視者は当該失跡移動体の撮像エリア外(非撮像エリア)における行動態様を想定でき、また、複数の監視カメラ間における追跡を精度よく行うことができる。   According to the image monitoring apparatus according to the present invention, by calculating the existence probability of the remnant moving body from the captured image and the building structure (structure information) and using the existence probability, the supervisor can image the remnant moving body. An action mode outside the area (non-imaging area) can be assumed, and tracking between a plurality of surveillance cameras can be performed with high accuracy.

画像監視装置の全体構成を示すブロック構成図Block configuration diagram showing the overall configuration of the image monitoring device 構造情報を示すテーブルTable showing structure information エリア情報を示すテーブルTable showing area information 移動体情報を示すテーブルTable showing moving body information 撮像エリアの生成を説明する図Diagram explaining generation of imaging area 撮像エリアの生成を説明する図Diagram explaining generation of imaging area 非撮像エリアの生成を説明する図The figure explaining generation of a non-imaging area 画像監視装置による全体動作の処理手順を示すフローチャートFlow chart showing processing procedure of overall operation by image monitoring apparatus 監視場所の構造モデルを表す図A diagram representing the structural model of the monitoring location 仮想空間位置の算出を説明する図The figure explaining calculation of virtual space position 予測経路算出処理の具体的処理手順を示すフローチャートThe flowchart which shows the specific process sequence of a prediction path | route calculation process 予測経路算出処理を説明する図The figure explaining prediction route calculation processing グラフ生成処理の具体的処理手順を示すフローチャートFlow chart showing specific processing procedure of graph generation processing グラフを表す図A diagram representing a graph 確率分布を表す図Diagram showing probability distribution 表示制御処理を説明する図The figure explaining display control processing

以下、本発明に係る画像監視装置を図9に示す建物に適用した実施形態について、添付した図面を参照しながら詳細に説明する。図9は、画像監視装置の監視対象である建物(監視場所)の構造を三次元モデルとして表したものであり、後述する構造情報211aに相当するものである。図9に表すように、本実施形態における監視場所は複数の部屋から構成され、各部屋は人物が移動できない壁面51と人物が移動可能な扉等の開口部52とによって区画されている。また、本実施形態における監視場所には、4台の撮像装置3a〜3dが設置され、各撮像装置3は床面53上を移動する人物を撮像できるよう設置されている。   Hereinafter, an embodiment in which the image monitoring apparatus according to the present invention is applied to the building shown in FIG. 9 will be described in detail with reference to the accompanying drawings. FIG. 9 shows the structure of a building (monitoring place) as a monitoring target of the image monitoring apparatus as a three-dimensional model, and corresponds to structure information 211a described later. As shown in FIG. 9, the monitoring place in this embodiment is composed of a plurality of rooms, and each room is partitioned by a wall surface 51 on which a person cannot move and an opening 52 such as a door on which the person can move. In addition, four imaging devices 3 a to 3 d are installed in the monitoring place in the present embodiment, and each imaging device 3 is installed so as to capture a person moving on the floor surface 53.

(画像監視装置の全体構成について)
図1に示すように、本実施形態の画像監視装置1は、監視端末2、撮像装置3によって構成される。なお、画像監視装置1における監視端末2は、監視場所から離れた警備室等に設置されていることとし、図9には図示されていない。
(About the overall configuration of the image monitoring device)
As shown in FIG. 1, the image monitoring apparatus 1 according to the present embodiment includes a monitoring terminal 2 and an imaging apparatus 3. Note that the monitoring terminal 2 in the image monitoring apparatus 1 is installed in a security room or the like away from the monitoring place, and is not shown in FIG.

撮像装置3は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成される所謂監視カメラであり、本発明における撮像部として機能する。撮像装置3は、室内の壁の上部又は天井部に設置され、監視場所を俯瞰して撮像するよう設置される。撮像装置3は、監視場所を所定時間おきに撮像して撮像画像を監視端末2に順次送信する。撮像画像が撮像される時間間隔は、例えば1/5秒である。本実施形態では、図9に示すように、監視場所内に4台の撮像装置3が設置されていることとする。   The imaging device 3 is a so-called surveillance camera including an imaging element such as a CCD element or a C-MOS element, an optical system component, and the like, and functions as an imaging unit in the present invention. The imaging device 3 is installed on the upper part or ceiling of the indoor wall, and is installed so as to take an image while looking down at the monitoring place. The imaging device 3 captures the monitoring location at predetermined time intervals and sequentially transmits the captured images to the monitoring terminal 2. The time interval at which the captured image is captured is, for example, 1/5 second. In the present embodiment, as shown in FIG. 9, it is assumed that four imaging devices 3 are installed in the monitoring place.

監視端末2は、記憶部21、制御部22、通信部23、表示部24及び入力部25を含んで概略構成される。通信部23は、LANやUSB等の通信インタフェースであり、撮像装置3と通信を行う。本実施形態では、4台の撮像装置3から送信された撮像画像を通信部23を介して受信する。入力部25は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。監視者等は、入力部25を用いて、例えば、それぞれの撮像装置3の設置位置等の様々な撮像条件に関する情報を設定したり、画面表示したい撮像装置3を選択したりすることができる。   The monitoring terminal 2 is schematically configured to include a storage unit 21, a control unit 22, a communication unit 23, a display unit 24, and an input unit 25. The communication unit 23 is a communication interface such as a LAN or USB, and communicates with the imaging device 3. In the present embodiment, the captured images transmitted from the four imaging devices 3 are received via the communication unit 23. The input unit 25 is an information input device such as a keyboard, a mouse, a touch panel, or a portable storage medium reading device. The monitor or the like can use the input unit 25 to set information regarding various imaging conditions such as the installation position of each imaging device 3 or to select the imaging device 3 that is desired to be displayed on the screen.

記憶部21は、ROM、RAM、HDD等の情報記憶装置である。記憶部21は、各種プログラムや各種データを記憶し、制御部22との間でこれらの情報を入出力する。各種データは、構造情報211、撮像条件情報212、エリア情報213、移動体情報214によって構成される。また、上記の他、各種データとして、制御部22の処理に使用される各種情報(例えば、撮像装置3で取得するフレーム毎の撮像画像、抽出手段221で撮像画像から変化領域を抽出するために用いる基準画像や抽出閾値など)を記憶している。   The storage unit 21 is an information storage device such as a ROM, RAM, or HDD. The storage unit 21 stores various programs and various data, and inputs / outputs such information to / from the control unit 22. The various data includes structure information 211, imaging condition information 212, area information 213, and moving body information 214. In addition to the above, as various data, various information used for the processing of the control unit 22 (for example, a captured image for each frame acquired by the imaging device 3, in order to extract a change area from the captured image by the extraction unit 221. A reference image to be used and an extraction threshold).

構造情報211は、監視場所の建物構造を表す情報であり、図9に示すような監視場所に存在する現実世界の壁・床・扉、柱、什器等の構成物体の構造を仮想空間における3次元座標(X,Y,Z)で表した3次元形状データと、構成物体ごとに付与された属性情報とからなる情報である。構造情報211の一例として、図2に本実施形態の構造情報211を表す。図2に示すように、構造情報211は、監視場所の構成物体の識別子である物体識別子と、当該構成物体の構造(大きさ、形状、位置)を表す3次元座標と、当該構成物体の属性情報とを対応付けたテーブルとして表現される。属性情報には、構成物体の種別(壁/扉/カメラ等)や、開口部であるか否かや、移動可能であるか否かなどといった各種の属性情報が付与される。後述するように、本実施形態では、少なくとも構成物体が開口部であるか否かを示す属性が付与されている必要がある。構造情報211における3次元形状データは、監視場所の形状情報に基づいて3次元CADで作成されたものでも良いし、3次元レーザースキャナー等により監視場所の3次元形状を取り込んだデータを利用しても良い。このようにして作成された構造情報211は、監視者等により入力部25から設定登録されることにより記憶部21に記憶される。なお、図9の符号50は、構造情報211を3次元形状のモデルとして図で表現したものであり、以下では構造情報211の3次元モデルのことを「構造モデル」という。   The structure information 211 is information representing the building structure of the monitoring place. The structure information of the structural objects such as walls, floors / doors, pillars, and fixtures in the real world existing in the monitoring place as shown in FIG. This is information composed of three-dimensional shape data represented by dimensional coordinates (X, Y, Z) and attribute information given to each constituent object. As an example of the structure information 211, FIG. 2 shows the structure information 211 of this embodiment. As shown in FIG. 2, the structure information 211 includes an object identifier that is an identifier of a constituent object at a monitoring location, three-dimensional coordinates that represent the structure (size, shape, position) of the constituent object, and attributes of the constituent object. It is expressed as a table that associates information. Various types of attribute information, such as the type of component (wall / door / camera, etc.), whether it is an opening, whether it is movable, and the like are assigned to the attribute information. As will be described later, in the present embodiment, at least an attribute indicating whether or not the constituent object is an opening needs to be given. The three-dimensional shape data in the structure information 211 may be created by three-dimensional CAD based on the shape information of the monitoring place, or the data obtained by capturing the three-dimensional shape of the monitoring place by a three-dimensional laser scanner or the like is used. Also good. The structure information 211 created in this way is stored in the storage unit 21 by being set and registered from the input unit 25 by a supervisor or the like. Note that reference numeral 50 in FIG. 9 represents the structure information 211 as a three-dimensional shape model, and hereinafter, the three-dimensional model of the structure information 211 is referred to as a “structure model”.

撮像条件情報212は、現在時刻における撮像装置3の設置位置や光軸(姿勢)に関する設置条件情報と、焦点距離、画素数、画素サイズ、レンズ歪みに関する画角条件情報とからなり、撮像装置3毎に個別設定される。なお、撮像条件情報212は、仮想空間の座標系における値に変換された値で設定され、構造情報211と撮像条件情報212とは互いに同じ座標系の値として対応付けられている。ここで、設置位置に関する設置条件情報とは、監視場所内(実空間)を3次元直交座標系として表し、実空間の直交座標系で座標が既知である基準点の座標値に基準点からの相対距離、方向を測定して補正する等の公知の技術を使用して算出した仮想空間における座標値として表した情報である。また、光軸に関する設置条件情報とは、上記座標軸に対する撮像装置3の光軸の回転角度に関する情報であり、撮像装置3のいわゆるパン角度、チルト角度から求めることができる。撮像条件情報212は、初期設定時に監視者等によって入力部25から設定登録されることにより記憶部21に記憶される。   The imaging condition information 212 includes installation condition information related to the installation position and optical axis (attitude) of the imaging device 3 at the current time, and field angle condition information related to the focal length, the number of pixels, the pixel size, and the lens distortion. Individually set for each. The imaging condition information 212 is set as a value converted into a value in the coordinate system of the virtual space, and the structure information 211 and the imaging condition information 212 are associated with each other as values in the same coordinate system. Here, the installation condition information regarding the installation position represents the inside of the monitoring place (real space) as a three-dimensional orthogonal coordinate system, and the coordinate value of the reference point whose coordinates are known in the orthogonal coordinate system of the real space is changed from the reference point to the coordinate value. This is information expressed as coordinate values in the virtual space calculated using a known technique such as measuring and correcting the relative distance and direction. The installation condition information regarding the optical axis is information regarding the rotation angle of the optical axis of the imaging device 3 with respect to the coordinate axis, and can be obtained from the so-called pan angle and tilt angle of the imaging device 3. The imaging condition information 212 is stored in the storage unit 21 by being set and registered from the input unit 25 by a monitor or the like at the time of initial setting.

エリア情報213は、撮像装置3の撮像している範囲を表す撮像エリアと、監視場所における撮像エリア以外のエリアである非撮像エリアとの仮想空間における範囲を表す座標情報であって、仮想空間における座標系の値に変換されて記憶されたものである。なお、本実施形態では、後述するエリア設定部22Bにて構造情報211と撮像条件情報212とからエリア情報213が算出され、記憶部21に記憶される。本実施形態においてエリア情報213は、図3に示すように後述するエリア設定部22Bにて算出された仮想空間における範囲を示す座標(床面をZ=0としたときの床面上の二次元座標)と、撮像エリア/非撮像エリアの別を示したエリア属性とが、各エリアの識別子であるエリア識別子に対応付けられたテーブルとして記憶部21に記憶されていることとする。   The area information 213 is coordinate information that represents a range in a virtual space between an imaging area that represents a range captured by the imaging device 3 and a non-imaging area that is an area other than the imaging area at the monitoring location. It is converted into a coordinate system value and stored. In the present embodiment, area information 213 is calculated from the structure information 211 and the imaging condition information 212 by the area setting unit 22B described later, and stored in the storage unit 21. In the present embodiment, the area information 213 includes coordinates indicating the range in the virtual space calculated by the area setting unit 22B described later as shown in FIG. 3 (two-dimensional on the floor surface when the floor surface is Z = 0). (Coordinates) and area attributes indicating whether the imaging area / non-imaging area is different are stored in the storage unit 21 as a table associated with an area identifier that is an identifier of each area.

移動体情報214は、後述する追跡手段222にて追跡している移動体(変化領域)に関する情報であり、後述する追跡手段222及び仮想空間位置算出手段224にて記憶部21に登録される情報である。移動体情報214は、図4に示すように、追跡手段222による追跡処理にて追跡移動体ごとに付与されたユニークなラベルである追跡ラベルと、当該移動体の画像特徴である特徴量情報と、当該移動体の仮想空間における位置(座標)である仮想空間位置と、当該移動体が検出された時刻である検出時刻と、を対応付けたテーブルとして記憶部21に記憶される。ここで、移動体の特徴量情報とは、移動体固有の画像特徴を定量的に表したベクトル量であり、色やテクスチャの特徴、形状の特徴、大きさや縦横比の特徴、動き(移動速度)の特徴、撮像画像内における位置の特徴など様々なものが有る。例えば、移動体の色の特徴として、下半身と上半身の最頻輝度値を用いることができ、この場合、特徴量は二次元のベクトルとなる。なお、移動体情報214は、後述するように追跡手段222における追跡処理や、判定手段223における判定処理にて利用される。   The moving body information 214 is information on a moving body (change area) tracked by the tracking unit 222 described later, and is registered in the storage unit 21 by the tracking unit 222 and the virtual space position calculation unit 224 described later. It is. As shown in FIG. 4, the moving body information 214 includes a tracking label that is a unique label given to each tracking moving body in the tracking process by the tracking unit 222, and feature amount information that is an image feature of the moving body. The virtual space position, which is the position (coordinates) in the virtual space of the moving body, and the detection time, which is the time when the moving body is detected, are stored in the storage unit 21 as a table in which they are associated with each other. Here, the feature amount information of the moving object is a vector quantity that quantitatively represents the image feature unique to the moving object, and includes color and texture features, shape features, size and aspect ratio features, and movement (moving speed). ) And a feature of a position in the captured image. For example, the mode luminance values of the lower body and the upper body can be used as the color feature of the moving object, and in this case, the feature amount is a two-dimensional vector. The moving body information 214 is used in tracking processing in the tracking unit 222 and determination processing in the determination unit 223 as described later.

制御部22は、CPU等を備えたコンピュータで構成され、撮像装置3からデジタル化された画像の入力を受け、後述する図8に示す一連の処理として、エリア生成処理、撮像画像読出処理、抽出処理、追跡処理、予測経路算出処理、存在確率算出処理、判定処理、表示制御処理を実行するべく、抽出手段221、追跡手段222及び判定手段223から構成される画像処理部22Aと、エリア設定部22Bと、仮想空間位置算出手段224、予測経路算出手段225、存在確率算出手段226及び表示制御手段227から構成される表示制御部22Cとを含んで構成される。   The control unit 22 is configured by a computer having a CPU and the like, receives an input of a digitized image from the imaging device 3, and performs an area generation process, a captured image reading process, and an extraction as a series of processes shown in FIG. An image processing unit 22A including an extraction unit 221, a tracking unit 222, and a determination unit 223, and an area setting unit to execute processing, tracking processing, predicted route calculation processing, existence probability calculation processing, determination processing, and display control processing 22B and a display control unit 22C including a virtual space position calculation unit 224, a predicted route calculation unit 225, an existence probability calculation unit 226, and a display control unit 227.

画像処理部22Aの抽出手段221は、撮像装置3で取得された撮像画像の中から輝度変化のある領域を変化領域として抽出する抽出処理を行っている。本実施形態では、撮像装置3ごとに移動体の存在しない過去の撮像画像を基準画像として予め記憶部21に保存しておき、最新に取得した撮像画像と基準画像との輝度値の差分値が記憶部21に記憶された所定の抽出閾値以上である領域を変化領域として抽出する。この際、基準画像として監視場所の背景の撮像画像や、過去に取得した撮像画像などを適宜選択して採用することができる。また、抽出手段221は、抽出処理として、抽出した変化領域にラベル付けする処理を行う。この際、変化領域のある抽出画素に注目したときに、注目抽出画素に隣接している抽出画素を一塊の抽出画素領域とみなし、各一塊の抽出画素領域に対して、全ての監視画像内でユニークなラベルを割り当てる。以下、ラベルが割り当てられた一塊の抽出画素領域のことをラベル領域と呼ぶ。   The extraction unit 221 of the image processing unit 22A performs an extraction process of extracting an area having a luminance change from the captured image acquired by the imaging apparatus 3 as a change area. In the present embodiment, a past captured image in which no moving object exists for each imaging device 3 is stored in the storage unit 21 in advance as a reference image, and a difference value between luminance values of the latest acquired captured image and the reference image is determined. An area that is equal to or greater than a predetermined extraction threshold stored in the storage unit 21 is extracted as a change area. At this time, a captured image of the background of the monitoring place, a captured image acquired in the past, or the like can be appropriately selected and used as the reference image. Further, the extraction unit 221 performs a process of labeling the extracted change area as the extraction process. At this time, when attention is paid to an extraction pixel having a change area, the extraction pixels adjacent to the extraction pixel of interest are regarded as a group of extraction pixel areas. Assign a unique label. Hereinafter, a group of extracted pixel areas to which a label is assigned is referred to as a label area.

追跡手段222は、抽出手段221が抽出した変化領域を時間的に画像追跡するもので、抽出手段221によって求まったラベル領域に対し、前回取得した同じ撮像装置3の撮像画像の追跡ラベル領域(追跡ラベルが付与されたラベル領域)との対応付けを行う追跡処理を行っている。追跡処理をより詳細に説明すると、まず、前回取得した撮像画像の追跡ラベル領域の特徴量と、現在処理中の撮像画像のラベル領域の特徴量とを比較して、同一の移動体によるものか否かを判別する。そして、同一の追跡物体によるものと判定された場合には、前回取得した画像の追跡ラベル領域と同じ追跡ラベルを付与し直す処理を行う。前回存在した追跡ラベル領域で、現在処理中の画像に出現したラベル領域のいずれとも対応付けられない追跡ラベル領域については、対応する移動体が撮像エリアの外に出たとみなされ、当該移動体が失跡移動体として認識される。なお、追跡処理に利用した移動体の特徴量情報は、後の撮像画像フレームにおける追跡処理や、後述する判定手段223における判定処理にて利用できるよう、追跡ラベルと検出時刻に対応付けた上で記憶部21に移動体情報214として記憶しておくこととする。   The tracking unit 222 temporally traces the change area extracted by the extraction unit 221, and the tracking label region (tracking) of the captured image of the same imaging device 3 acquired last time with respect to the label region obtained by the extraction unit 221. A tracking process for associating with a label area (labeled area) is performed. The tracking process will be described in more detail. First, the feature quantity of the tracking label area of the captured image acquired last time is compared with the feature quantity of the label area of the captured image currently being processed. Determine whether or not. If it is determined that the tracking object is the same tracking object, the same tracking label as the tracking label area of the previously acquired image is applied again. For tracking label areas that existed in the previous tracking label area that is not associated with any of the label areas that appear in the currently processed image, the corresponding moving body is considered to have gone out of the imaging area, and the moving body Recognized as a lost mobile. Note that the feature amount information of the moving object used for the tracking process is associated with the tracking label and the detection time so that it can be used in the tracking process in a later captured image frame or the determination process in the determination unit 223 described later. The moving part information 214 is stored in the storage unit 21.

エリア設定部22Bは、構造情報211と撮像条件情報212とを用いてエリア情報213を算出して記憶部21に設定するエリア生成処理を行っている。以下、エリア生成処理の詳細について図5〜図7を用いて説明する。   The area setting unit 22B performs area generation processing for calculating the area information 213 using the structure information 211 and the imaging condition information 212 and setting the area information 213 in the storage unit 21. Details of the area generation process will be described below with reference to FIGS.

図5は、撮像装置3の撮像条件情報212と構造情報211とに基づいてエリア情報213における撮像エリアを算出する一例を表したものである。図5において、符号51a、53aは、本処理を説明するために用いた構造モデル50aにおける一部分を表したものであり、そのうち符号51aが構造モデル50aの壁面を表し、53aが構造モデル50aの床面を表したものである。エリア設定部22Bは、撮像エリアを算出するにあたり、まず、記憶部21の撮像条件情報212から撮像装置3の設置位置(X、Y、Z)を読み出して、その位置に対応する構造情報211(仮想空間)上における光学中心Oを求める。また、エリア設定部22Bは、当該光学中心Oと、記憶部21の撮像条件情報212から読み出した光軸(姿勢)に関する設置条件情報とから、仮想空間における撮像装置3の光軸を求める。また、エリア設定部22Bは、記憶部11から焦点距離fとCCDの画素の実サイズ、画像の縦横のピクセル数とレンズの歪みに関する諸元等の撮像条件情報212を読み出し、撮像装置3の構造情報211上において光軸と垂直な投影面abcdを求める。そして、光学中心Oから投影面abcdの四つの頂点を通る四角錐Oa’b’c’d’を生成する。なお、四角錐の高さは、少なくとも四角錐の底面における四つの頂点(a’,b’,c’,d’)が構造モデル50aを貫く程度の任意の高さとする。そして、エリア設定部22Bは、この四角錐と構造モデル50aの床面53aとの干渉面ABCDを公知の幾何計算により求め、当該干渉面ABCDからなる領域が撮像エリア30aとして算出する。   FIG. 5 shows an example of calculating the imaging area in the area information 213 based on the imaging condition information 212 and the structure information 211 of the imaging device 3. In FIG. 5, reference numerals 51 a and 53 a represent a part of the structural model 50 a used for explaining the present processing. Of these, reference numeral 51 a represents a wall surface of the structural model 50 a, and 53 a represents a floor of the structural model 50 a. It represents the surface. In calculating the imaging area, the area setting unit 22B first reads the installation position (X, Y, Z) of the imaging device 3 from the imaging condition information 212 of the storage unit 21, and the structure information 211 ( The optical center O on the (virtual space) is obtained. The area setting unit 22B obtains the optical axis of the imaging device 3 in the virtual space from the optical center O and the installation condition information regarding the optical axis (posture) read from the imaging condition information 212 of the storage unit 21. Further, the area setting unit 22B reads the imaging condition information 212 such as the focal length f, the actual size of the CCD pixel, the number of pixels in the vertical and horizontal directions of the image, and the lens distortion, from the storage unit 11, and the structure of the imaging device 3 On the information 211, a projection plane abcd perpendicular to the optical axis is obtained. Then, a quadrangular pyramid Oa'b'c'd 'passing through the four vertices of the projection surface abcd from the optical center O is generated. The height of the quadrangular pyramid is an arbitrary height that allows at least four vertices (a ', b', c ', d') on the bottom surface of the quadrangular pyramid to penetrate the structural model 50a. Then, the area setting unit 22B obtains an interference surface ABCD between the quadrangular pyramid and the floor surface 53a of the structural model 50a by a known geometric calculation, and calculates an area composed of the interference surface ABCD as the imaging area 30a.

このように、監視範囲モデル213の形状は、撮像条件情報212の値によって変化する。例えば、撮像装置3がズーム操作を行った場合、焦点距離fが大きくなることに伴って、四角錐の底面a’b’c’d’の辺の長さが小さくなり、干渉面の大きさも小さくなるように変化する。また、撮像装置3に対して、パン・チルト操作を行い、図6のように床面53aと壁面51aとが監視範囲に含まれるよう撮像装置3の光軸を移動させた場合における撮像エリアは、ABEFからなる領域30bとして算出される。   As described above, the shape of the monitoring range model 213 changes depending on the value of the imaging condition information 212. For example, when the imaging device 3 performs a zoom operation, the length of the side of the bottom surface a′b′c′d ′ of the quadrangular pyramid decreases as the focal length f increases, and the size of the interference surface also increases. It changes to be smaller. Further, when the pan / tilt operation is performed on the image pickup device 3 and the optical axis of the image pickup device 3 is moved so that the floor surface 53a and the wall surface 51a are included in the monitoring range as shown in FIG. , Calculated as an area 30b made of ABEF.

次に、エリア設定部22Bは、算出した撮像エリア30と構造情報211とを用いて、非撮像エリアを算出する。本実施形態では、撮像エリア30以外の監視場所におけるエリアであって、壁や扉等の物体によって人物の移動が制限されるエリアを非撮像エリアとして算出する。図7は、非撮像エリアを生成する処理を説明する図である。図7aは、撮像装置3が設置されない場合における構造モデル50bと非撮像エリア31を表している図である。すなわち、同図において壁や扉によって人の移動が制限されるエリアである非撮像エリア31は、符号31aと符号31bの2つのエリアとして求めることができる。図7bは、撮像装置3が設置されている場合における構造モデル50b、撮像エリア30c及び非撮像エリア31を表している図である。すなわち、同図に示すように撮像エリア30cが算出されることによって、非撮像エリア31は、符号31c〜符号31eの3つのエリアとして求めることができる。このように、一般的に撮像エリア30が求まると、構造情報211を用いて、撮像撮像エリア30以外の非撮像エリア31を一意に算出することができる。   Next, the area setting unit 22B calculates a non-imaging area using the calculated imaging area 30 and the structure information 211. In the present embodiment, an area in a monitoring place other than the imaging area 30 and where the movement of a person is restricted by an object such as a wall or a door is calculated as a non-imaging area. FIG. 7 is a diagram illustrating processing for generating a non-imaging area. FIG. 7 a is a diagram illustrating the structural model 50 b and the non-imaging area 31 when the imaging device 3 is not installed. That is, the non-imaging area 31 that is an area where movement of a person is restricted by walls and doors in the figure can be obtained as two areas 31a and 31b. FIG. 7 b is a diagram illustrating the structural model 50 b, the imaging area 30 c, and the non-imaging area 31 when the imaging device 3 is installed. That is, as shown in the figure, by calculating the imaging area 30c, the non-imaging area 31 can be obtained as three areas 31c to 31e. Thus, when the imaging area 30 is generally obtained, the non-imaging area 31 other than the imaging imaging area 30 can be uniquely calculated using the structure information 211.

仮想空間位置算出手段224は、追跡手段222にて追跡している全ての移動体について、その撮像画像上における画像位置から仮想空間における位置である仮想空間位置を求め、当該移動体の追跡ラベルと対応付けて記憶部21の移動体情報214に記憶する仮想空間位置算出処理を行う。以下、仮想空間位置算出処理の詳細について図10を用いて説明する。   The virtual space position calculation means 224 obtains the virtual space position that is the position in the virtual space from the image position on the captured image for all the moving objects tracked by the tracking means 222, and the tracking label of the moving object A virtual space position calculation process to be stored in association with the moving body information 214 of the storage unit 21 is performed. Details of the virtual space position calculation process will be described below with reference to FIG.

図10は、監視場所の上方から地面方向を撮像している撮像装置3の撮像画像に基づいてラベル領域の仮想空間位置を算出する一例を表したものである。仮想空間位置算出処理では、前述のエリア算出処理と同様に、撮像条件情報212に基づいて撮像装置3の構造モデル50c上における光軸と当該光軸に垂直な投影面abcdを求める。図10において、投影面abcdに投影された撮像画像上における符号40の画像領域は、抽出手段221にて抽出され、追跡手段222にて追跡している移動体のラベル領域であるとする。次に、ラベル領域40の下端位置40aと光学中心Oとを結ぶ直線を求め、当該直線の延長線上における構造モデル50cとの交点41aを求める。なお、本実施形態では、ラベル領域40の下端に位置する画素が複数あるとき、当該ラベル領域40の中央位置の画素を下端位置40aとしているが、これに限らず、予め定めた右端(又は左端)の画素を下端位置40aとしてもよい。交点41aは、ラベル領域40の撮像画像上の位置40aに対応する構造モデル50c(仮想空間)上における位置に相当するため、当該位置の仮想空間における座標を仮想空間位置として算出する。   FIG. 10 illustrates an example of calculating the virtual space position of the label area based on the captured image of the imaging device 3 that captures the ground direction from above the monitoring location. In the virtual space position calculation process, similarly to the area calculation process described above, the optical axis on the structural model 50c of the imaging apparatus 3 and the projection plane abcd perpendicular to the optical axis are obtained based on the imaging condition information 212. In FIG. 10, it is assumed that an image area denoted by reference numeral 40 on the captured image projected on the projection plane abcd is a label area of a moving object that is extracted by the extracting unit 221 and tracked by the tracking unit 222. Next, a straight line connecting the lower end position 40a of the label region 40 and the optical center O is obtained, and an intersection 41a with the structural model 50c on the extension line of the straight line is obtained. In the present embodiment, when there are a plurality of pixels located at the lower end of the label area 40, the pixel at the center position of the label area 40 is set as the lower end position 40a. However, the present invention is not limited to this. ) May be the lower end position 40a. Since the intersection 41a corresponds to a position on the structural model 50c (virtual space) corresponding to the position 40a on the captured image of the label area 40, the coordinates of the position in the virtual space are calculated as the virtual space position.

予測経路算出手段225は、追跡している移動体が撮像エリア外に移動して失跡したときに失跡直前における仮想空間位置(失跡位置)とエリア情報213及び構造情報211とを用いて、当該失跡移動体が失跡位置から撮像エリア30を通らずに移動可能な非撮像エリア31における予測経路を算出する予測経路算出処理を行う。なお、予測経路算出処理の詳細については後述することとする。   The predicted path calculation means 225 uses the virtual space position (lost position) immediately before the lapse, the area information 213, and the structure information 211 when the tracked moving body moves out of the imaging area and is lost. A predicted route calculation process is performed to calculate a predicted route in the non-imaging area 31 in which the moving body can move from the lost position without passing through the imaging area 30. Details of the predicted route calculation process will be described later.

存在確率算出手段226は、失跡移動体の失跡前の移動速度及び失跡時刻からの経過時間と、予測経路算出手段225にて求めた予測経路などを用いて非撮像エリア31ごとに失跡移動体の存在確率を算出する存在確率算出処理を行う。なお、存在確率算出処理の詳細については後述することとする。   The existence probability calculating unit 226 uses the movement speed and the elapsed time from the lapse time before the remnant time, the predicted route obtained by the predicted route calculating unit 225, and the like for each non-imaging area 31. Existence probability calculation processing for calculating the existence probability is performed. The details of the existence probability calculation process will be described later.

判定手段223は、ある撮像装置3の撮像画像に出現した移動体が過去に追跡手段222にて追跡した失跡移動体のいずれかと同一であるか否かを判定する判定処理を行う。判定処理をより具体的に説明すると、追跡手段222にて追跡した失跡移動体の失跡前における特徴量情報を記憶部21の移動体情報214から読み出し、当該特徴量情報と現在検出している移動体の画像特徴(特徴量)とを比較して両者の類似度を計算する。前述のように移動体の特徴量は判定に利用する画像特徴の数に応じたn次元のベクトル量として表現される。したがって、失跡移動体の特徴量情報と現在検出している移動体の特徴量とのユークリッド距離を求めることにより、類似度を算出することができる。このようにして求めた類似度が予め記憶部21に記憶された所定の類似判定閾値以下の場合、両者が十分に近い特徴量であるとして、両者を同一の移動体と判定する。なお、本実施形態では、ユークリッド距離を用いて類似度を算出しているが、ユークリッド距離以外にも例えばマハラノビス距離を用いてもよい。   The determination unit 223 performs a determination process for determining whether or not a moving body that has appeared in a captured image of a certain imaging device 3 is the same as any of the remnant moving bodies tracked by the tracking unit 222 in the past. The determination process will be described more specifically. The feature amount information of the unrecognized moving body tracked by the tracking unit 222 is read from the moving body information 214 of the storage unit 21, and the feature amount information and the movement currently detected are read. The image feature (feature amount) of the body is compared and the similarity between the two is calculated. As described above, the feature amount of the moving object is expressed as an n-dimensional vector amount corresponding to the number of image features used for determination. Accordingly, the degree of similarity can be calculated by obtaining the Euclidean distance between the feature amount information of the lost moving body and the feature amount of the currently detected moving body. When the similarity obtained in this way is equal to or smaller than a predetermined similarity determination threshold value stored in advance in the storage unit 21, both are determined to be the same moving object, assuming that they are sufficiently close feature amounts. In the present embodiment, the similarity is calculated using the Euclidean distance, but other than the Euclidean distance, for example, the Mahalanobis distance may be used.

判定処理では、存在確率算出手段226にて算出した失跡移動体の存在確率を活用することにより、失跡移動体と現在検出している移動体との同一性を判定する。具体的には、現在検出している移動体を撮像している撮像装置3の撮像エリア30に隣接している非撮像エリア31(以下、これを「隣接非撮像エリア」という)の存在確率を参照し、当該存在確率に応じて類似判定閾値の大きさを変更する処理を行っている。すなわち、隣接非撮像エリアの存在確率が小さい場合、当該隣接非撮像エリアには失跡移動体が存在する可能性が低く、新たに検出した移動体が失跡移動体である可能性が低いことを意味するため、類似判定閾値を小さめに変更することにより、誤判定が起こりにくいように通常よりもより厳格に類似判定を行う。一方で、隣接非撮像エリアの存在確率が大きい場合、当該隣接非撮像エリアには失跡移動体が存在する可能性が高く、新たに検出した移動体が失跡移動体である可能性が高いことを意味するため、類似判定閾値を大きめに変更することにより、失判定が起こりにくいように類似判定を行う。このように、本実施形態では、失跡移動体と現在追跡している移動体とが同一であるか否かを、当該移動体の画像特徴と記憶部21に記憶した失跡移動体の特徴量情報との類似度だけでなく、存在確率算出手段226にて算出された存在確率も利用して判定することによって、高い精度で判定することができるため、複数の撮像装置が設置された監視場所における移動体の追跡精度を向上させることができる。なお、判定処理では、失跡移動体と撮像エリアに出現した移動体とが同一であると判定した場合、当該失跡移動体の非撮像エリアにおける存在確率を“0”に初期化する処理を行う。したがって、この場合、(同一であると判定された撮像エリアとは異なる)他の撮像エリアの隣接非撮像エリアにおける当該失跡移動体の存在確率も必然的に0となるため、当該他の撮像エリアに新たに移動体が出現したとしても、当該移動体の特徴量と当該失跡移動体の特徴量との類似判定閾値が最小となって、これらが同一であると最も判定されにくくなることを意味する。   In the determination process, by using the existence probability of the sight moving body calculated by the existence probability calculating means 226, the identity between the sight moving body and the currently detected moving body is determined. Specifically, the existence probability of the non-imaging area 31 (hereinafter referred to as “adjacent non-imaging area”) adjacent to the imaging area 30 of the imaging apparatus 3 that is imaging the moving body currently detected is calculated. The process of referring to and changing the magnitude of the similarity determination threshold according to the existence probability is performed. That is, if the existence probability of the adjacent non-imaging area is small, it means that there is a low possibility that there is a remnant moving body in the adjacent non-imaging area, and that the newly detected moving body is unlikely to be a remnant moving body. Therefore, the similarity determination is performed more strictly than usual so that the erroneous determination is less likely to occur by changing the similarity determination threshold value to be smaller. On the other hand, if the existence probability of the adjacent non-imaging area is large, the adjacent non-imaging area is likely to have a retinal moving body, and the newly detected moving body is likely to be a retinal moving body. For this reason, the similarity determination is performed so that the loss determination is less likely to occur by changing the similarity determination threshold to a larger value. As described above, in this embodiment, whether or not the sight moving body is the same as the currently tracked moving body, whether or not the image feature of the moving body and the feature amount information of the sight moving body stored in the storage unit 21 is determined. By using the existence probability calculated by the existence probability calculation unit 226 as well as the degree of similarity, it is possible to make a determination with high accuracy. Therefore, in a monitoring place where a plurality of imaging devices are installed The tracking accuracy of the moving object can be improved. In the determination process, when it is determined that the moving object that appears in the imaging area is the same as the moving object, the process of initializing the existence probability of the moving object in the non-imaging area to “0” is performed. Therefore, in this case, since the probability of existence of the remnant moving body in the non-imaging area adjacent to another imaging area (different from the imaging area determined to be the same) is necessarily 0, the other imaging area This means that even if a new mobile object appears, the similarity determination threshold value between the feature quantity of the mobile object and the feature quantity of the lost mobile object is minimized, and it is most difficult to determine that they are the same. To do.

表示制御手段227は、移動体の仮想空間位置に対応する監視場所の地図上の位置に、当該移動体を表すシンボルを重畳表示させると共に、当該移動体の移動軌跡を表示させるための表示出力をする表示制御処理を行う。この際、失跡移動体のシンボルについては、撮像エリア内に存在する移動体とは異なる色で表示すると共に、存在確率算出手段226にて算出した存在確率に基づいて、透明度を変化させたシンボルを最も存在確率の最も大きい非撮像エリアの重心位置に配置する。これにより、監視者は撮像エリア外に移動した移動体の所在位置を好適に推測することができる。なお、本実施形態では、地図は管理者等により予め記憶部21に設定登録されているものとするが、構造情報211を用いて地図を動的に生成しても良い。表示制御処理の詳細については後述することとする。   The display control means 227 superimposes and displays a symbol representing the moving body at a position on the map of the monitoring location corresponding to the virtual space position of the moving body, and displays a display output for displaying the moving locus of the moving body. Display control processing to be performed. At this time, the symbol of the moving object is displayed in a color different from that of the moving object existing in the imaging area, and the symbol whose transparency is changed based on the existence probability calculated by the existence probability calculating unit 226 is displayed. It is arranged at the center of gravity of the non-imaging area with the highest existence probability. Thereby, the supervisor can presume suitably the location of the moving body which moved out of the imaging area. In the present embodiment, the map is set and registered in advance in the storage unit 21 by an administrator or the like, but the map may be dynamically generated using the structure information 211. Details of the display control process will be described later.

表示部24は、ディスプレイ等の情報表示デバイスであり、撮像装置3で撮像した監視場所の撮像画像や、表示制御手段227にて出力された(移動物体のシンボルが重畳表示された)地図画像を表示する。   The display unit 24 is an information display device such as a display, and displays a captured image of a monitoring location imaged by the imaging device 3 and a map image output by the display control unit 227 (a symbol of a moving object is superimposed and displayed). indicate.

このように、本実施形態の画像監視装置は、失跡移動体の存在確率を構造情報211や撮像条件情報212、追跡している移動体の画像特徴(移動速度)などに基づいて算出し、当該存在確率に応じた表示出力によって監視者に失跡移動体の現在位置を明示することにより、たとえ監視場所の全てのエリアを撮像装置3にてカバーできなかったとしても、監視者は撮像エリアの外に出た移動体(失跡移動体)の大よその位置関係を予測して把握することができる。また、当該存在確率を用いて複数の撮像装置3間における移動体の同一性判定に利用することにより、高い精度で複数の撮像装置3間における追跡を行うことができる。   As described above, the image monitoring apparatus according to the present embodiment calculates the existence probability of the remnant moving body based on the structure information 211, the imaging condition information 212, the image feature (moving speed) of the tracking moving body, and the like. Even if the imaging device 3 cannot cover all areas of the monitoring location by clearly indicating the current position of the sighting moving body to the monitoring person by the display output according to the existence probability, the monitoring person can move outside the imaging area. It is possible to predict and grasp the approximate positional relationship of the moving body (a missing moving body) that appears on the screen. Further, by using the existence probability to determine the identity of the moving body between the plurality of imaging devices 3, tracking between the plurality of imaging devices 3 can be performed with high accuracy.

(監視端末2の制御部22が実行する処理について)
以下、本実施形態の画像監視装置1に係る監視端末2の制御部22が実行する処理の流れの一例について、図8のフローチャートを参照しながら詳細に説明する。
(About processing executed by the control unit 22 of the monitoring terminal 2)
Hereinafter, an example of the flow of processing executed by the control unit 22 of the monitoring terminal 2 according to the image monitoring apparatus 1 of the present embodiment will be described in detail with reference to the flowchart of FIG.

動作に先立ち、監視者等により監視端末2の入力部25を用いて撮像条件情報212の設定、及び構造情報211の登録等の各種初期設定が行なわれる(ST1)。本実施例では、前述のように監視場所である建物内に4台の撮像装置3が設置されている場合を想定しているため、撮像装置3ごとに撮像条件情報212が初期設定にて登録される。なお、初期設定時に登録した撮像条件情報212は、撮像装置3に対してパン・チルト・ズーム等のカメラ制御が行われることによって変更されることがある。そのため、本実施形態では、カメラ制御が行われたとき、撮像装置3から最新の撮像条件情報212を通信部23を介して受信し、記憶部21を更新する処理を行っている。また、図9の構造モデル50に関する構造情報211が、初期設定にて登録されたとして以下の処理を説明する。   Prior to the operation, various initial settings such as setting of the imaging condition information 212 and registration of the structure information 211 are performed by the monitor or the like using the input unit 25 of the monitoring terminal 2 (ST1). In this embodiment, since it is assumed that four imaging devices 3 are installed in the building that is the monitoring place as described above, the imaging condition information 212 is registered by default for each imaging device 3. Is done. The imaging condition information 212 registered at the time of initial setting may be changed by performing camera control such as pan / tilt / zoom on the imaging device 3. For this reason, in the present embodiment, when camera control is performed, the latest imaging condition information 212 is received from the imaging device 3 via the communication unit 23 and the storage unit 21 is updated. In addition, the following processing will be described on the assumption that the structure information 211 related to the structure model 50 in FIG.

次に、制御部22のエリア設定部22Bにより、構造情報211と撮像条件情報212とを用いてエリア情報213を算出するエリア生成処理を実行する(ST2)。なお、エリア生成処理の詳細については、前述したためここでは説明を省略する。このように、記憶部21に記憶された最新の撮像条件情報212を用いてエリア情報213を更新することにより、撮像装置3に対してカメラ制御が行われた場合であっても、変更された最新の撮像条件情報212に基づいて失跡移動体の予測経路及び存在確率を算出することができる。   Next, the area setting unit 22B of the control unit 22 executes area generation processing for calculating the area information 213 using the structure information 211 and the imaging condition information 212 (ST2). Note that the details of the area generation processing have been described above, and a description thereof will be omitted here. As described above, the area information 213 is updated by using the latest imaging condition information 212 stored in the storage unit 21, so that even if the camera control is performed on the imaging device 3, the information is changed. Based on the latest imaging condition information 212, it is possible to calculate the predicted path and the existence probability of the lost moving body.

次に、制御部22は、撮像装置3から受信して記憶部21に記憶された撮像画像を、撮像装置3ごとに読み出す撮像画像読出処理を実行する(ST3)。撮像画像読出処理では、最新(現在時刻に最も近い)の撮像画像を撮像装置3ごとに読み出す。   Next, the control unit 22 performs a captured image reading process for reading the captured image received from the imaging device 3 and stored in the storage unit 21 for each imaging device 3 (ST3). In the captured image reading process, the latest captured image (closest to the current time) is read for each imaging device 3.

次に、制御部22の抽出手段221により抽出処理を実行する(ST4)。抽出処理では、撮像画像読出処理で取得された撮像装置3ごとの撮像画像から、それぞれ変化領域を抽出し、抽出された各変化領域に対してラベル付けを実施する。なお、抽出処理の詳細については、前述したためここでは説明を省略する。   Next, extraction processing is executed by the extraction means 221 of the control unit 22 (ST4). In the extraction process, the change areas are extracted from the captured images of the respective image pickup devices 3 acquired in the captured image reading process, and the extracted change areas are labeled. Since the details of the extraction process have been described above, the description thereof is omitted here.

次に、制御部22の追跡手段222により追跡処理を実行する(ST5)。なお、追跡処理の詳細については、前述したためここでは説明を省略する。   Next, a tracking process is executed by the tracking unit 222 of the control unit 22 (ST5). Since the details of the tracking process have been described above, the description thereof is omitted here.

次に、仮想空間位置算出手段224により、追跡手段222にて追跡している各ラベル領域の仮想空間位置を求めるための仮想空間位置算出処理を実行する(ST6)。なお、仮想空間位置算出処理の詳細については、前述したためここでは説明を省略する。   Next, the virtual space position calculation means 224 executes virtual space position calculation processing for obtaining the virtual space position of each label area tracked by the tracking means 222 (ST6). Note that details of the virtual space position calculation processing have been described above, and a description thereof will be omitted here.

次に、予測経路算出手段225により、失跡移動体がその失跡位置から撮像エリア30を通らずに移動可能な非撮像エリア31における予測経路を算出する予測経路算出処理を実行する(ST6)。以下、予測経路算出処理の詳細について図11のフローチャートを参照しながら説明する。なお、図11のループ1は、ST30〜ST33の各処理を、追跡処理にて認識した失跡移動体の数分だけ実行することを意味する。なお、本処理の説明において、選択移動体とは、ループ1にて処理対象となっている失跡移動体をいう。   Next, the predicted route calculation unit 225 executes a predicted route calculation process for calculating a predicted route in the non-imaging area 31 in which the lost moving body can move from the lost position without passing through the imaging area 30 (ST6). Details of the predicted route calculation process will be described below with reference to the flowchart of FIG. In addition, the loop 1 of FIG. 11 means that each process of ST30 to ST33 is executed by the number of the remnant moving bodies recognized in the tracking process. In the description of this processing, the selected moving body refers to a retinal moving body that is a processing target in the loop 1.

予測経路算出処理では、まず、選択移動体の初期移動先エリアが撮像エリアか否かを判定する(ST30)。すなわち、失跡移動体である選択移動体の失跡位置は、移動体情報214における当該選択移動体の最後に検出された仮想空間位置に相当するため、当該失跡位置に隣接するエリアを初期移動先エリアとみなし、当該初期移動先エリアが撮像エリアであるか又は非撮像エリアであるかについて、エリア情報213におけるエリア属性を参照して判定する。ST30にて、選択移動体の初期移動先エリアが撮像エリアであると判定したとき(ST30−Yes)、ループ1にてまだ処理対象となっていない他の失跡移動体を選択移動体に変更して、ST30からの処理を行う。   In the predicted route calculation process, first, it is determined whether or not the initial movement destination area of the selected moving body is an imaging area (ST30). That is, since the lost position of the selected moving body that is the lost moving body corresponds to the virtual space position detected at the end of the selected moving body in the moving body information 214, the area adjacent to the lost position is set as the initial movement destination area. Therefore, it is determined with reference to the area attribute in the area information 213 whether the initial movement destination area is an imaging area or a non-imaging area. When it is determined in ST30 that the initial moving destination area of the selected moving body is the imaging area (ST30-Yes), the other lost moving body that has not yet been processed in loop 1 is changed to the selected moving body. Then, the process from ST30 is performed.

ST30にて、選択移動体の初期移動先エリアが撮像エリアではないと判定したとき(ST30−No)、当該選択移動体の初期移動先エリアを移動元エリアとして設定する(ST31)。図12は、予測経路算出処理を説明するための図であり、図9の構造モデル50を簡易的に2次元で表した図面上に撮像エリア30及び非撮像エリア31を重畳表示したものである。同図において、斜線で塗られたB、D、J、Oのエリアは撮像エリア30であり、その他のA、C、E、F、G、H、I、K、L、M、Nのエリアは非撮像エリア31である。また、符号33で示す線・矢印は、失跡移動体の失跡前の撮像エリアであるエリアDにおける移動軌跡を表したものであり、符号34は当該失跡移動体の失跡位置を表したものである。同図の例では、失跡移動体の初期移動先エリアは非撮像エリアであるエリアGであるため、ST30にて撮像エリアではないと判定され、ST31にて当該エリアGが移動元エリアとして設定される。   When it is determined in ST30 that the initial moving destination area of the selected moving body is not the imaging area (ST30-No), the initial moving destination area of the selected moving body is set as the moving source area (ST31). FIG. 12 is a diagram for explaining the predicted route calculation process, in which the imaging area 30 and the non-imaging area 31 are superimposed and displayed on a drawing that simply represents the structural model 50 of FIG. 9 in two dimensions. . In the same figure, areas B, D, J, and O painted with diagonal lines are imaging areas 30, and other areas A, C, E, F, G, H, I, K, L, M, and N Is a non-imaging area 31. A line / arrow indicated by reference numeral 33 represents a movement trajectory in area D, which is an imaging area before the remnant moving body, and reference numeral 34 represents a retirement position of the remnant moving body. . In the example of the figure, since the initial destination area of the lost moving body is the area G that is a non-imaging area, it is determined in ST30 that it is not an imaging area, and the area G is set as a source area in ST31. The

ST31にて、移動元エリアが設定されると、予測経路算出手段225はグラフ生成処理を行う(ST32)。グラフ生成処理は、移動元エリアを表すノードに対して、当該移動元エリアから失跡移動体が移動可能な非撮像エリアを表すノードを辺で連結したデータ構造であるグラフを生成する処理である。以下、グラフ生成処理の詳細について図13のフローチャートを参照しながら説明する。   When the movement source area is set in ST31, the predicted route calculation means 225 performs graph generation processing (ST32). The graph generation process is a process of generating a graph having a data structure in which a node representing a non-imaging area to which a lost moving body can move from the movement source area is connected to a node representing the movement source area by an edge. The details of the graph generation processing will be described below with reference to the flowchart of FIG.

グラフ生成処理では、まず、記憶部21の構造情報211を参照し、ST31にて設定された移動元エリア(すなわち、失跡先の非撮像エリア)の外周を構成する「開口部」属性を有する構成物体を特定する(ST40)。図12及び図9の例では、失跡移動体の移動元エリアであるエリアGの外周を構成する開口部属性を有する物体はエリアHに通じる開口部52f(扉)のみであるため、当該開口部52fのみが特定される。図13のループ2は、ST41〜ST43の各処理を、ST40にて特定された開口部の数分だけ実行することを意味する。なお、本処理の説明において、選択開口部とは、ループ2にて処理対象となっている開口部をいう。   In the graph generation process, first, the structure information 211 of the storage unit 21 is referred to, and a configuration having an “opening” attribute that configures the outer periphery of the movement source area (that is, the non-imaging area of the vacant destination) set in ST31. An object is specified (ST40). In the example of FIGS. 12 and 9, the object having the opening attribute that forms the outer periphery of the area G that is the movement source area of the remnant moving body is only the opening 52 f (door) that leads to the area H. Only 52f is identified. Loop 2 in FIG. 13 means that the processes of ST41 to ST43 are executed by the number of openings specified in ST40. In the description of this process, the selected opening refers to an opening that is a processing target in the loop 2.

次に、選択開口部を経由した先のエリアが撮像エリアか否かを判定する(ST41)。ST41にて、選択開口部を経由した先のエリアが撮像エリアと判定したとき(ST41−Yes)、ループ2にてまだ処理対象となっていない他の移動先の開口部を選択開口部に変更して、ST42からの処理を行う。一方、ST41にて、選択開口部を経由した先のエリアが撮像エリアではないと判定したとき(ST41−No)、当該選択開口部を経由した先のエリアのノードを移動元ノードに連結してグラフを更新し、更新したグラフを記憶部21に記憶する処理を行う(ST42)。図12の例では、選択開口部を経由した先のエリアであるエリアHは非撮像エリアであるため、エリアGを示す移動元ノードにエリアHを示すノードを連結してグラフを更新する。   Next, it is determined whether or not the previous area passing through the selected opening is an imaging area (ST41). When it is determined in ST41 that the previous area that has passed through the selected opening is an imaging area (ST41-Yes), another opening that is not yet processed in Loop 2 is changed to the selected opening. Then, the process from ST42 is performed. On the other hand, when it is determined in ST41 that the previous area via the selected opening is not the imaging area (ST41-No), the node of the previous area via the selected opening is connected to the source node. The graph is updated, and the updated graph is stored in the storage unit 21 (ST42). In the example of FIG. 12, since the area H that is the previous area via the selected opening is a non-imaging area, the graph indicating the area H is connected to the source node indicating the area G and the graph is updated.

次に、選択開口部を経由した先のエリアを移動元エリアとして設定し直して、ST40からのグラフ生成処理を再帰的に処理する(ST43)。すなわち、図12の例では、ST43にてエリアHを移動元エリアとして設定する。そして、再帰的に処理したST40にて、移動元エリア(エリアH)に隣接する開口部52h、52i、52jが特定される。そして、これらの開口部52h、52i、52jを経由した先のエリアL、M、Nは、非撮像エリアであるため、再帰的に処理したST42にて、これらのエリアを示すノードを移動元エリア(エリアH)のノードに連結してグラフが更新される。このようにして生成した図12の例におけるグラフを図14に表す。図14は、図12の例における失跡移動体が、失跡位置34から撮像エリア30を通らずに移動可能な非撮像エリア31の移動ルートを表している。すなわち、図12の例における失跡移動体は、G→H→L、G→H→M、G→H→Nのそれぞれのエリアを移動するルートで移動可能であることが分かる。このように、失跡移動体が撮像エリアを通ったときは、当該撮像エリアに必ず存在することが判明することを考慮して、撮像エリアを通らずに移動可能な非撮像エリアにおける経路のみに限定して移動ルートを求めることにより、組み合わせ次第により無数に存在する移動ルートを制限することができ、計算量を削減することができる。   Next, the previous area that has passed through the selected opening is reset as the movement source area, and the graph generation processing from ST40 is recursively processed (ST43). That is, in the example of FIG. 12, area H is set as the movement source area in ST43. And in ST40 processed recursively, the opening parts 52h, 52i, and 52j adjacent to the movement origin area (area H) are specified. Since the previous areas L, M, and N that have passed through these openings 52h, 52i, and 52j are non-imaging areas, the nodes indicating these areas are moved to the movement source area in ST42 that has been recursively processed. The graph is updated by connecting to the nodes in (area H). A graph in the example of FIG. 12 generated in this way is shown in FIG. FIG. 14 shows a moving route of the non-imaging area 31 in which the sight moving body in the example of FIG. 12 can move from the sight position 34 without passing through the imaging area 30. That is, it can be seen that the remnant moving body in the example of FIG. 12 can move on routes that move in the areas of G → H → L, G → H → M, and G → H → N. In this way, when the sight moving body passes through the imaging area, it is limited to only the route in the non-imaging area that can move without passing through the imaging area, considering that it is always found in the imaging area. Thus, by obtaining the travel route, it is possible to limit an unlimited number of travel routes depending on the combination, and to reduce the amount of calculation.

ST32にてグラフ生成処理を終えると、予測経路算出手段225は、図11の予測経路算出処理のST33に処理を進める。ST33では、グラフ生成処理にて生成したグラフと、構造情報211とを用いて、予測経路を算出する処理を行う。ここで予測経路とは、グラフで示される非撮像エリア間の移動において、失跡移動体が具体的にどの位置を通って移動するのかを予測した経路を意味する。本実施形態では、失跡移動体は失跡位置とグラフで示される移動先エリアの開口部とを最短経路で移動すると仮定し、また、グラフの終端ノードに相当するエリアについては当該エリアの重心位置に向かって移動すると仮定して予測経路を算出する。すなわち、図12の例では、図14のグラフにおけるG→H→Lの移動ルートにおいては、失跡移動体は、失跡位置34→開口部52f→開口部52h→エリア重心位置36aの予測経路で移動することとする。同じように、グラフにおけるG→H→Mの移動ルートにおいては失跡位置34→開口部52f→開口部52i→エリア重心位置36bの予測経路で移動し、グラフにおけるG→H→Nの移動ルートにおいては失跡位置34→開口部52f→開口部52j→エリア重心位置36cの予測経路で移動することとする。なお、開口部52の位置は、構造情報211を参照して「開口部」属性を有する構成物体の重心位置から算出することとする。   When the graph generation process is completed in ST32, the predicted path calculation unit 225 advances the process to ST33 of the predicted path calculation process of FIG. In ST33, a process of calculating a predicted route is performed using the graph generated by the graph generation process and the structure information 211. Here, the predicted route means a route in which it is predicted through which position the lost moving body will move in the movement between the non-imaging areas shown in the graph. In this embodiment, it is assumed that the lost moving body moves along the shortest path between the lost position and the opening of the destination area indicated by the graph, and the area corresponding to the terminal node of the graph is set to the center of gravity position of the area. A predicted route is calculated on the assumption that the vehicle moves toward the vehicle. That is, in the example of FIG. 12, in the movement route of G → H → L in the graph of FIG. 14, the lost moving body moves along the predicted route of the lost position 34 → the opening 52f → the opening 52h → the area centroid position 36a. I decided to. Similarly, in the G → H → M movement route in the graph, the movement moves along the predicted route of the remnant position 34 → the opening 52f → the opening 52i → the area centroid position 36b, and in the G → H → N movement route in the graph. Is moved along the predicted path of the lost position 34 → the opening 52f → the opening 52j → the area gravity center position 36c. The position of the opening 52 is calculated from the gravity center position of the constituent object having the “opening” attribute with reference to the structure information 211.

ST33にて予測経路を算出すると、予測経路算出手段225は図8のST7における予測経路算出処理を終え、同図のST8に処理を進める。ST8では、存在確率算出手段226により存在確率算出処理が実行される。以下、存在確率算出処理の詳細について説明する。   When the predicted route is calculated in ST33, the predicted route calculation means 225 finishes the predicted route calculation process in ST7 of FIG. 8, and advances the process to ST8 of FIG. In ST8, the existence probability calculation means 226 executes an existence probability calculation process. Details of the existence probability calculation process will be described below.

存在確率算出処理では、まず、失跡移動体の失跡前の移動速度及び失跡時刻からの経過時間を用いて各予測経路上における確率分布を求める。本実施形態では、当該確率分布を、失跡移動体の失跡前の移動速度v、失跡時刻からの経過時間Tとしたとき、平均値μ=vTとして、P=∫p(x)dx=1/√(2πσ)×∫exp(−(x−μ)/(2σ))dx・・・(1)で得られる正規分布であるとする。ここで、失跡移動体の失跡前の移動速度vは記憶部21の移動体情報214における特徴量情報から読み出した値であり、撮像画像のフレーム間における移動距離から算出するといった従来技術を用いて算出した値である。また、経過時間Tは、記憶部21の移動体情報214における検出時刻と現在時刻との差から算出した値であるとする。本実施形態では、μの最大値を各予測経路の経路長とし、μが当該経路長に達した時点でμはそれ以上、大きくならないこととする。また、標準偏差σは、経過時間Tが大きくなるほど大きくなる関数σ(T)によって算出されるパラメータであることとする。図15は、図11のG→H→Lの移動ルートの予測経路において、式(1)で得られた確率分布を表したものである。同図において、符号37a、37bは、それぞれ経過時間T、T(T<T)のときにおける確率分布を表している。なお、本実施形態では、上記のように標準偏差σを経過時間Tの関数によって求めているが、管理者等によって実験的に予め定めた固定値を用いてもよい。 In the existence probability calculation process, first, a probability distribution on each predicted route is obtained using the movement speed before the remnant moving body and the elapsed time from the relapse time. In the present embodiment, when the probability distribution is defined as the movement speed v before the remnant moving body and the elapsed time T from the relapse time, the average value μ = vT, and P = ∫p (x) dx = 1 / It is assumed that the distribution is a normal distribution obtained by √ (2πσ 2 ) × ∫exp (− (x−μ) 2 / (2σ 2 )) dx (1). Here, the moving speed v before the remnant moving body is a value read from the feature amount information in the moving body information 214 of the storage unit 21 and is calculated from the moving distance between frames of the captured image. It is a calculated value. The elapsed time T is a value calculated from the difference between the detection time in the mobile object information 214 of the storage unit 21 and the current time. In the present embodiment, the maximum value of μ is set as the path length of each predicted path, and μ does not increase any more when μ reaches the path length. The standard deviation σ is a parameter calculated by a function σ (T) that increases as the elapsed time T increases. FIG. 15 shows the probability distribution obtained by Equation (1) in the predicted route of the G → H → L movement route in FIG. In the figure, reference numeral 37a, 37b represents the probability distribution at the time of each elapsed time T 1, T 2 (T 1 <T 2). In the present embodiment, the standard deviation σ is obtained as a function of the elapsed time T as described above, but a fixed value experimentally predetermined by an administrator or the like may be used.

次に、予測経路ごとに各非撮像エリア(エリアA、C、E、F、G、H、I、K、L、M、N)における存在確率(経路別エリア存在確率)を算出する。この際、式(1)の確率分布に対して、予測経路上の各非撮像エリアにおける進入位置及び退出位置から求めた積分区間を用いて、経路別エリア存在確率を算出する。ここで、エリアGにおける侵入位置は失跡位置34に相当し、退出位置は開口部52fの位置に相当する。そのため、失跡位置34から開口部52fの位置間の距離をX1としたとき、式(1)における積分区間は[0,X]として、経路別エリア存在確率Pg1を算出する。また、エリアHにおける侵入位置は開口部52fの位置に相当し、退出位置は開口部52hの位置に相当する。そのため、開口部52fの位置から開口部52hの位置間の距離をXとしたとき、式(1)における積分区間は[X,X+X]として、経路別エリア存在確率Ph1を算出する。また、エリアLにおける侵入位置は開口部52hの位置に相当し、退出位置はエリア重心位置36aに相当する。そのため、開口部52hの位置からエリア重心位置36a間の距離をXとしたとき、式(1)における積分区間は[X+X,X+X+X]として、経路別エリア存在確率Pl1を算出する。このように、式(1)と、上記の積分区間を用いてG→H→Lの移動ルートの予測経路における経路別エリア存在確率Pg1、Ph1、Pl1を算出することができる。同じようにして、G→H→Mの移動ルートの予測経路における経路別エリア存在確率Pg2、Ph2、Pl2、及び、G→H→Nの移動ルートの予測経路における経路別エリア存在確率Pg3、Ph3、Pl3を算出する。 Next, the existence probability (area-specific probability of each route) in each non-imaging area (area A, C, E, F, G, H, I, K, L, M, N) is calculated for each predicted route. At this time, the path-specific area existence probability is calculated using the integration interval obtained from the entry position and the exit position in each non-imaging area on the predicted route with respect to the probability distribution of Expression (1). Here, the intrusion position in the area G corresponds to the lost position 34, and the exit position corresponds to the position of the opening 52f. Therefore, when the distance between the position of the opening 52f from the lost position 34 is X1, the integration interval in the equation (1) is set to [0, X 1 ], and the area-specific probability P g1 for each route is calculated. The entry position in the area H corresponds to the position of the opening 52f, and the exit position corresponds to the position of the opening 52h. Therefore, when the distance between the position of the opening 52h from the position of the opening 52f and the X 2, the integral interval in Equation (1) as [X 1, X 1 + X 2], the path-specific area existence probability P h1 calculate. Further, the entry position in the area L corresponds to the position of the opening 52h, and the exit position corresponds to the area gravity center position 36a. Therefore, when the distance from the position of the opening 52h between areas centroid position 36a was X 3, as the integral interval in Equation (1) is [X 1 + X 2, X 1 + X 2 + X 3], path-specific area existence probability P11 is calculated. In this way, the area-specific area existence probabilities P g1 , P h1 , and P 11 of the predicted route of the G → H → L movement route can be calculated using the equation (1) and the integration interval. In the same way, G → H → presence path-specific area in the prediction path of the moving route of the M probability P g2, P h2, P l2 and,, G → H → N paths by area existence probability in the prediction path of the moving route of P g3 , P h3 and P l3 are calculated.

次に、予測経路ごとに求めた経路別エリア存在確率を正規化して非撮像エリアごとに失跡移動体の存在確率を算出する。この際、全ての非撮像エリアにおける存在確率の和が1となるように正規化する。具体的には、算出した経路別エリア存在確率の総和P’=Pg1+Pg2+Pg3+Ph1+Ph2+Ph3+Pl1+Pl2+Pl3としたとき、非撮像エリアGの存在確率Pは、P=(Pg1+Pg2+Pg3)/P’によって算出する。同じように、非撮像エリアHの存在確率P=(Ph1+Ph2+Ph3)/P’、非撮像エリアLの存在確率P=(Pl1+Pl2+Pl3)/P’によって算出する。 Next, the path-specific area existence probability obtained for each predicted path is normalized to calculate the existence probability of the retinal moving body for each non-imaging area. At this time, normalization is performed so that the sum of the existence probabilities in all non-imaging areas is 1. Specifically, the sum P of the calculated route by area existence probability '= when the P g1 + P g2 + P g3 + P h1 + P h2 + P h3 + P l1 + P l2 + P l3, the existence probability P g of the non-imaging area G is P g = (P g1 + P g2 + P g3 ) / P ′ Similarly, the existence probability P h = (P h1 + P h2 + P h3) of the non-imaging area H / P is calculated by 'the existence probability P l of the non-imaging area L = (P l1 + P l2 + P l3) / P' .

次に、画像処理部22Aの判定手段223により判定処理を実行する(ST9)。判定処理では、ある撮像装置3の撮像画像に新規に出現した移動体が、過去に追跡手段222にて追跡した失跡移動体のいずれかと同一であるか否かを判定し、同一であると判定したとき、新規に出現した移動体の追跡ラベルを当該失跡移動体の追跡ラベルに設定/変更することにより、同一の移動体として関連付ける処理を実行する。なお、判定処理の詳細については、前述したためここでは説明を省略する。   Next, determination processing is executed by the determination means 223 of the image processing unit 22A (ST9). In the determination process, it is determined whether or not a mobile object that has newly appeared in a captured image of a certain imaging device 3 is the same as any of the retinal mobile objects that have been tracked by the tracking unit 222 in the past, and is determined to be the same. When this is done, the process of associating the tracking label of the newly appearing mobile object with the tracking label of the remnant mobile object is executed by setting / changing it. Since the details of the determination process have been described above, the description thereof is omitted here.

次に、表示制御部22Cの表示制御手段227により表示制御処理を実行する(ST10)。表示制御処理では、表示制御手段227は予め記憶部21に記憶された監視場所の地図を読出し、移動体の現在の仮想空間位置に対応する当該地図上の位置に、移動体を表すシンボルを配置する。この際、失跡移動体については、存在確率に基づいて表示を変更したシンボルを配置する。以下、図16を用いて表示制御処理の具体例について説明する。   Next, display control processing is executed by the display control means 227 of the display control unit 22C (ST10). In the display control process, the display control means 227 reads a map of the monitoring location stored in advance in the storage unit 21, and places a symbol representing the moving object at a position on the map corresponding to the current virtual space position of the moving object. To do. At this time, a symbol whose display has been changed based on the existence probability is arranged for the lost mobile body. Hereinafter, a specific example of the display control process will be described with reference to FIG.

図16は、表示制御手段227によって表示部24に表示出力された移動体の現在位置を表した地図画面の一例を表したものである。同図において、符号S1〜S6は追跡手段222にて追跡している移動体の時刻t1〜t6におけるシンボルを表したものである。S1、S2は、ST6の仮想空間位置算出処理にて仮想空間位置が算出されているため、当該仮想空間位置に対応する地図上の位置に当該移動体のシンボルが配置されている。時刻t2(位置S2)にて当該移動体を失跡してしまったため、このような失跡後においては各予測経路上における存在確率の最も大きい非撮像エリアの重心位置にシンボルを配置する。図16の例では、時刻t2後のt3においては、存在確率が最も大きい非撮像エリアであるエリアGの重心位置に当該失跡移動体に対応するシンボルS3を配置し、移動軌跡33で繋いで表示している。この際、本実施形態では、当該シンボルS3を存在確率に応じた不透明度によってシンボル表示を変更している。すなわち、存在確率が小さくなるほど、シンボルが透明に表示されることとなる。このように、存在確率に応じて失跡移動体の現在位置を表示することにより、たとえ監視場所の全てのエリアを撮像装置3にて監視できなかったとしても、監視者は撮像エリアの外に出た目標移動体の大よその位置関係を予測して把握することができる。なお、本実施形態では、存在確率が50%以下になったとき、シンボルを表示しないようにしている。図16のシンボルS5は、時刻t5において非撮像エリアGの存在確率が最大だったとしても、当該存在確率が50%以下であったため、シンボル表示されていないことを表している(説明のために点線で便宜的に表示しているが実際には表示されないものとする)。このように、所定の存在確率以下の失跡移動体をシンボル表示しないことにより、監視者に対して当該失跡移動体の位置をミスリード(誤認識)させないようにしている。   FIG. 16 shows an example of a map screen showing the current position of the moving object displayed and output on the display unit 24 by the display control means 227. In the figure, symbols S1 to S6 represent symbols at times t1 to t6 of the moving body tracked by the tracking means 222. In S1 and S2, since the virtual space position is calculated in the virtual space position calculation process of ST6, the symbol of the moving object is arranged at a position on the map corresponding to the virtual space position. Since the mobile object has been lost at time t2 (position S2), a symbol is arranged at the barycentric position of the non-imaging area with the highest existence probability on each predicted path after such a lost. In the example of FIG. 16, at t3 after time t2, the symbol S3 corresponding to the lost moving body is arranged at the center of gravity of the area G, which is the non-imaging area with the highest existence probability, and is connected and displayed by the movement locus 33. doing. At this time, in the present embodiment, the symbol display of the symbol S3 is changed depending on the opacity according to the existence probability. That is, the smaller the existence probability, the more transparent the symbol is displayed. In this way, by displaying the current position of the sighted moving body according to the existence probability, even if the entire area of the monitoring place cannot be monitored by the imaging device 3, the monitor goes out of the imaging area. It is possible to predict and grasp the approximate positional relationship of the target moving body. In the present embodiment, symbols are not displayed when the existence probability is 50% or less. The symbol S5 in FIG. 16 represents that even if the existence probability of the non-imaging area G is the maximum at time t5, the existence probability is 50% or less, so that the symbol is not displayed (for explanation) For the sake of convenience, but not actually displayed). In this way, by not displaying the symbol of the sight moving body having a predetermined existence probability or less, the position of the sight moving body is not misleaded to the monitor.

なお、図16に表すように、時刻t6に撮像エリアOにて検出された移動体が、ST9の判定処理にてS1、S2に対応する移動体と同一の移動体であると判定されたとき、当該移動体を表すシンボルS6と失跡移動体を表すシンボルS5とを移動軌跡にて連結する。これにより、監視者はS1〜S6のシンボルに係る移動体が同一であることを認識することができ、撮像装置3の撮像エリア外における移動体の行動態様を推測することができる。   Note that, as shown in FIG. 16, when the moving body detected in the imaging area O at time t6 is determined to be the same moving body as that corresponding to S1 and S2 in the determination process of ST9. The symbol S6 representing the moving object and the symbol S5 representing the lost moving object are connected by a movement locus. Thereby, the supervisor can recognize that the moving bodies related to the symbols S1 to S6 are the same, and can estimate the behavior mode of the moving body outside the imaging area of the imaging device 3.

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。   By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.

上記実施形態では、表示制御部22Cの予測経路算出手段225にて特定した開口部の位置や数に基づいて予測経路を算出し、存在確率算出手段226にて移動体の移動速度や経過時間から求めた確率分布に基づいて予測経路ごとに経路別エリア存在確率を求め、各非撮像エリアにおける存在確率を算出している。すなわち、上記実施形態は、開口部数が多くなるほど予測経路の候補数が増大すること、開口部を経由したエリア間の接続関係に応じて予測経路が複数存在すること、及び、開口部の物理的な位置関係によって予測経路上における失跡移動体の移動距離が異なることを考慮したものである。しかし、これに限らず、開口部の数が多くなるほど予測経路の候補数が増大することのみを考慮し、開口部の数と経過時間から存在確率を簡易的に算出する他の実施形態を利用してもよい。すなわち、当該他の実施形態では、失跡移動体の移動先(失跡先)である非撮像エリアの開口部の数が多いほど、失跡時刻からの時間経過に伴って当該非撮像エリアにおける存在確率が小さくなるように算出する方法を用いる。具体的には、当該他の実施形態における予測経路算出手段225は、上記実施形態のように予測経路算出処理にて予測経路を算出せずに、失跡移動体の移動先(失跡先)である非撮像エリアの外周を構成する開口部をのみを特定する。そして、当該他の実施形態における存在確率算出手段226は、特定した開口部の数をN、経過時間をTとしたとき、移動先の非撮像エリアにおける存在確率PをP=exp(−αNT)・・・(2)によって算出する。ここで、αは実験的に予め定めた固定パラメータであり、管理者等によって設定される値であることとする。式(2)では、例えば、開口部の数が“0”であるような袋小路の非撮像エリアに移動体が移動した場合は、存在確率は経過時間に関わらず常に“1(必ず存在する)”と算出される。その一方で、開口部の数が増加するほど、及び、経過時間が経過するほど存在確率が小さくなるよう算出される。そして、当該他の実施形態における表示制御手段227は、失跡移動体を示すシンボルを地図上の当該非撮像エリアの重心位置に配置し、当該シンボルの不透明度を算出された存在確率に応じて変更した地図画像を表示部24に出力する。   In the above embodiment, a predicted route is calculated based on the position and number of openings specified by the predicted route calculating unit 225 of the display control unit 22C, and the existence probability calculating unit 226 calculates the moving speed and elapsed time of the moving object. Based on the obtained probability distribution, a path-specific area existence probability is obtained for each predicted route, and the existence probability in each non-imaging area is calculated. That is, in the above-described embodiment, the number of predicted route candidates increases as the number of openings increases, the presence of a plurality of predicted routes according to the connection relationship between areas via the openings, and the physical properties of the openings. This is because the moving distance of the lost moving body on the predicted route differs depending on the positional relationship. However, the present invention is not limited to this, and another embodiment is used in which the existence probability is simply calculated from the number of openings and the elapsed time, considering only that the number of predicted path candidates increases as the number of openings increases. May be. That is, in the other embodiment, the greater the number of openings in the non-imaging area that is the destination of the lost moving body (remaining destination), the more the existence probability in the non-imaging area with the passage of time from the lapse time. A method of calculating so as to be small is used. Specifically, the predicted route calculation unit 225 in the other embodiment is a destination (a relapse destination) of the remnant moving body without calculating a predicted route in the predicted route calculation process as in the above embodiment. Only the opening part which comprises the outer periphery of a non-imaging area is specified. Then, the existence probability calculation means 226 in the other embodiment calculates the existence probability P in the destination non-imaging area as P = exp (−αNT), where N is the number of identified openings and T is the elapsed time. ... Calculated according to (2). Here, α is a fixed parameter experimentally determined in advance, and is a value set by an administrator or the like. In the expression (2), for example, when the moving body moves to the non-imaging area of the narrow path where the number of openings is “0”, the existence probability is always “1 (always exists) regardless of the elapsed time. "Is calculated. On the other hand, the existence probability is calculated to decrease as the number of openings increases and as the elapsed time elapses. Then, the display control means 227 in the other embodiment arranges the symbol indicating the lost moving body at the center of gravity position of the non-imaging area on the map, and changes the opacity of the symbol according to the calculated existence probability. The obtained map image is output to the display unit 24.

上記実施形態では、記憶部21に記憶する構造情報211として3次元形状データの座標情報を記憶しているが、これに限らず、簡易的に2次元形状データの座標情報を利用してもよい。この場合、エリア情報213(撮像エリアと非撮像エリア)は、エリア設定部22Bにおけるエリア算出処理にて算出されることはなく、予め管理者等によって撮像装置3のキャリブレーション設定がなされた上で、記憶部21に設定登録されることとなる。すなわち、当該他の実施形態においては、記憶部21の撮像条件情報212は記憶部21に記憶されずに省略され、エリア設定部22Bも省略された構成となる。また、当該他の実施形態における仮想空間位置算出処理では、予めキャリブレーションされた撮像エリアに関する情報に基づいて、撮像画像上における画像位置から仮想空間位置(失跡位置も含む)を算出する構成となる。   In the above embodiment, the coordinate information of the three-dimensional shape data is stored as the structure information 211 stored in the storage unit 21, but the present invention is not limited to this, and the coordinate information of the two-dimensional shape data may be simply used. . In this case, the area information 213 (imaging area and non-imaging area) is not calculated by the area calculation process in the area setting unit 22B, and the calibration of the imaging apparatus 3 is performed in advance by an administrator or the like. The setting is registered in the storage unit 21. That is, in the other embodiment, the imaging condition information 212 of the storage unit 21 is omitted without being stored in the storage unit 21, and the area setting unit 22B is also omitted. In addition, the virtual space position calculation process in the other embodiment is configured to calculate the virtual space position (including the lost position) from the image position on the captured image based on the information regarding the imaging area that has been calibrated in advance. .

上記実施形態では、判定手段223にて、新たに出現した移動体と過去に追跡した失跡移動体とを両者の画像特徴の類似度と存在確率とに基づいて両者の同一性を判定する判定処理を行っている。しかし、これに限らず、新たに出現した移動体の特徴量と、予め管理者等によって登録された特定人物の登録特徴量との類似度を求め、当該類似度と存在確率とから当該移動体が当該特定人物であるか否かを判定する処理(いわゆる認証処理)を判定処理にて行ってもよい。   In the above-described embodiment, the determination unit 223 determines the identity of a newly appearing moving body and a previously-acquired moving body based on the similarity and presence probability of the image features of both. It is carried out. However, the present invention is not limited to this, and the degree of similarity between the feature quantity of a newly appearing mobile object and the registered feature quantity of a specific person registered in advance by an administrator or the like is obtained, and the mobile object is calculated from the similarity and the existence probability. A process for determining whether or not is the specific person (so-called authentication process) may be performed in the determination process.

上記実施形態では、予測経路算出手段225にて、失跡移動体が失跡位置から撮像エリアを通らずに移動可能な非撮像エリアにおける予測経路を、移動先(失跡先)の非撮像エリアにおける「開口部」属性を有する構成物体の数に応じて算出している。しかし、「開口部」属性を有する構成物体の数だけでなく、「開口部」属性を有する構成物体の「開口時刻」属性を考慮して予測経路を算出してもよい。すなわち、「開口部」属性を有する構成物体である扉や窓などの開口時刻(“開”となった時刻)を属性情報として記憶し、予測経路を算出する際に当該開閉時刻を考慮する。具体的には、開口部属性を有する構成物体の開口状態を検知できるよう、たとえばマグネットセンサなどのセンサを予め開口部属性を有する構成物体に設置しておき、監視端末2が通信部23を介して当該状態を受信できるように構成する。そして、開口部属性を有する構成物体が開口した時、通信部23を介して受信した状態の時刻に基づいて、開口した構成物体の属性情報(記憶部21の構造情報211)を変更する処理を行う。そして、ある失跡移動体の予測経路を算出する際、当該失跡移動体の移動先(失跡先)の非撮像エリアにおける「開口部」属性を有する構成物体を特定すると共に、当該特定した構成物体の開口時刻を読み出す処理を行う。そして、読み出した開口時刻を参照して、失跡時刻から予測経路を算出する時刻までの間に特定した構成物体が開口していないことが判明したとき、当該開口していない構成物体の先の非撮像エリアを予測経路に含めないように処理する。すなわち、予測経路算出処理(ST7)におけるグラフ生成処理(ST32)のループ2にて当該開口していない構成物体を選択開口部として選択されないように処理する。このように処理することにより、開口していない開口部より先の、失跡移動体が移動し得ない非撮像エリアの存在確率を算出することなく、より高い精度で存在確率を算出することができる。 In the above-described embodiment, the predicted path calculation unit 225 uses the predicted path in the non-imaging area where the retinal moving body can move from the lapse position without passing through the imaging area as the “opening” in the non-imaging area of the movement destination (lost destination) It is calculated according to the number of constituent objects having the “part” attribute. However, the predicted route may be calculated in consideration of not only the number of constituent objects having the “opening” attribute but also the “opening time” attribute of the constituent objects having the “opening” attribute. That is, the opening time (the time when “open”) of a door or window, which is a constituent object having the “opening” attribute, is stored as attribute information, and the opening / closing time is taken into account when calculating the predicted route. Specifically, for example, a sensor such as a magnet sensor is installed in advance in the constituent object having the opening attribute so that the opening state of the constituent object having the opening attribute can be detected, and the monitoring terminal 2 passes through the communication unit 23. So that the state can be received. And when the constituent object which has an opening part attribute opens, the process which changes the attribute information (structure information 211 of the memory | storage part 21) of the open constituent object based on the time of the state received via the communication part 23 Do. Then, when calculating the predicted path of a certain moving object, the constituent object having the “opening” attribute in the non-imaging area of the moving destination (the lost object) of the moving object is specified, and Processing to read the opening time is performed. Then, with reference to the read opening time, when it is determined that the identified constituent object is not opened between the lapse time and the time when the predicted route is calculated, the non-opening constituent object Processing is performed so that the imaging area is not included in the predicted path. In other words, in the loop 2 of the graph generation process (ST32) in the predicted route calculation process (ST7), processing is performed so that the constituent object that is not open is not selected as the selected opening. By processing in this way, it is possible to calculate the existence probability with higher accuracy without calculating the existence probability of the non-imaging area in which the remnant moving body cannot move before the opening that is not open. .

上記実施形態では、表示制御手段227にて、存在確率に基づいて監視場所の地図上に失跡移動体をシンボル表示するよう表示制御処理を行っている。しかしこれに限らず、シンボルを配置せずに、存在確率に基づいて非撮像エリア31を着色表示しても良い。例えば、存在確率が高い非撮像エリア31ほど濃い赤色で着色され、存在確率が低いエリアになるほど薄い赤色で着色されるよう表示制御処理を行ってもよい。   In the above-described embodiment, the display control unit 227 performs display control processing so as to display the sighted moving body as a symbol on the map of the monitoring place based on the existence probability. However, the present invention is not limited to this, and the non-imaging area 31 may be colored and displayed based on the existence probability without arranging symbols. For example, the display control process may be performed so that the non-imaging area 31 having a higher existence probability is colored in dark red, and the area having a lower existence probability is colored in light red.

1・・・画像監視装置
2・・・監視端末
3・・・撮像装置
21・・・記憶部
22・・・制御部
23・・・通信部
24・・・表示部
25・・・入力部
211・・・構造情報
212・・・撮像条件情報
213・・・エリア情報
214・・・移動体情報
215・・・位置情報
22A・・・画像処理部
22B・・・エリア設定部
22C・・・表示制御部
221・・・抽出手段
222・・・追跡手段
223・・・判定手段
224・・・仮想空間位置算出手段
225・・・予測経路算出手段
226・・・存在確率算出手段
227・・・表示制御手段
30・・・撮像エリア
31・・・非撮像エリア
33・・・移動軌跡
34・・・失跡位置
36・・・エリア重心位置
37・・・確率分布
40・・・変化領域
41・・・仮想空間位置
50・・・構造モデル
51・・・壁面
52・・・開口部
53・・・床面

DESCRIPTION OF SYMBOLS 1 ... Image monitoring apparatus 2 ... Monitoring terminal 3 ... Imaging device 21 ... Memory | storage part 22 ... Control part 23 ... Communication part 24 ... Display part 25 ... Input part 211 ... Structural information 212 ... Imaging condition information 213 ... Area information 214 ... Moving body information 215 ... Position information 22A ... Image processing unit 22B ... Area setting unit 22C ... Display Control unit 221 ... Extraction means 222 ... Tracking means 223 ... Determination means 224 ... Virtual space position calculation means 225 ... Predicted path calculation means 226 ... Presence probability calculation means 227 ... Display Control means 30 ... Imaging area 31 ... Non-imaging area 33 ... Movement locus 34 ... Lost position 36 ... Area centroid position 37 ... Probability distribution 40 ... Change area 41 ... Virtual space position 50 ・..Structural model 51 ... Wall 52 ... Opening 53 ... Floor surface

Claims (6)

監視場所の撮像画像を順次取得する撮像部と、
前記監視場所を構成する物体についての仮想空間における構造及び少なくとも開口部か否かの属性を示した構造情報と、前記仮想空間における前記撮像部の撮像エリア及び該撮像エリア以外の非撮像エリアを示したエリア情報とを記憶した記憶部と、
前記撮像画像から抽出した移動体を時間的に追跡する画像処理部と、
前記撮像エリアの外に移動した前記移動体の前記非撮像エリアにおける存在確率を算出し、該存在確率に基づいて前記非撮像エリアにおける前記移動体の現在の所在を表示する表示制御部とを備えた画像監視装置であって、
前記表示制御部は、
前記移動体が前記撮像エリア外に移動した位置から前記仮想空間における失跡位置を求め、該失跡位置と前記エリア情報及び前記構造情報とから該移動体の移動先の非撮像エリアの外周を構成する開口部を特定し、該移動体の失跡時刻からの経過時間及び該開口部の数が大きくなるほど前記存在確率を小さくなるよう算出することを特徴とする画像監視装置。
An imaging unit that sequentially acquires captured images of the monitoring location;
The structure information indicating the structure in the virtual space and the attribute indicating whether or not the object is at least an opening, and the imaging area of the imaging unit and the non-imaging area other than the imaging area in the virtual space. A storage unit storing the area information;
An image processing unit that temporally tracks the moving object extracted from the captured image;
A display control unit that calculates an existence probability in the non-imaging area of the moving object that has moved out of the imaging area, and displays a current location of the moving object in the non-imaging area based on the existence probability; An image monitoring device,
The display control unit
A lost position in the virtual space is obtained from a position where the moving body has moved outside the imaging area, and an outer periphery of a non-imaging area to which the moving body is moved is configured from the lost position, the area information, and the structure information. An image monitoring apparatus characterized by specifying an opening, and calculating such that the existence probability decreases as the elapsed time from the lapse time of the moving object and the number of openings increase.
前記表示制御部は、
前記失跡位置と前記構造情報及び前記エリア情報とを用いて前記移動体が前記失跡位置から前記開口部を経由して前記撮像エリアを通らずに移動可能な非撮像エリアにおける予測経路を算出する予測経路算出手段と、
前記移動体の失跡前の移動速度及び前記経過時間に基づいて確率分布を求め、該確率分布と前記構造情報とを用いて前記予測経路ごとに経路別エリア存在確率を算出し、該経路別エリア存在確率から前記存在確率を算出する存在確率算出手段と、を有する請求項1に記載の画像監視装置。
The display control unit
Prediction for calculating a predicted path in a non-imaging area in which the moving body can move from the lapse position through the opening without passing through the imaging area using the lost position, the structure information, and the area information. Route calculation means;
A probability distribution is obtained based on the moving speed before the relapse of the moving object and the elapsed time, and a path-specific area existence probability is calculated for each predicted path using the probability distribution and the structure information, and the path-specific area The image monitoring apparatus according to claim 1, further comprising presence probability calculating means for calculating the presence probability from the presence probability.
前記画像処理部は、前記移動体の画像特徴と予め前記記憶部に記憶した特徴量情報との類似度を求め、該類似度と前記存在確率とを用いて該移動体が該特徴量情報に対応する移動体と同一であるか否かを判定する判定手段を有する請求項1又は請求項2に記載の画像監視装置。 Wherein the image processing unit obtains the degree of similarity between the images features of mobile and stored in advance in the storage unit feature quantity information, the moving body is the feature amount information using said existence probability and the degree of similarity The image monitoring apparatus according to claim 1, further comprising a determination unit configured to determine whether or not the moving object corresponds to. 前記表示制御部は、前記記憶部に予め記憶された前記監視場所の地図上に前記移動体の存在位置を表す画像表示を前記存在確率に基づいて表示出力する表示制御手段を有する請求項1〜請求項3の何れか一項に記載の画像監視装置。   The display control unit has display control means for displaying and outputting an image display indicating the position of the moving object on the map of the monitoring location stored in advance in the storage unit based on the existence probability. The image monitoring apparatus according to claim 3. 前記構造情報における前記物体の構造は3次元形状データであり、
前記記憶部は、前記撮像部の設置位置、光軸及び画角を前記構造情報に対応付けた撮像条件情報を更に記憶し、
前記構造情報及び前記撮像条件情報を用いて前記撮像エリア及び前記非撮像エリアを求め前記エリア情報として前記記憶部に記憶するエリア設定部を更に有する請求項1〜請求項4の何れか一項に記載の画像監視装置。
The structure of the object in the structure information is three-dimensional shape data,
The storage unit further stores imaging condition information in which an installation position, an optical axis, and an angle of view of the imaging unit are associated with the structure information,
5. The apparatus according to claim 1, further comprising an area setting unit that obtains the imaging area and the non-imaging area using the structure information and the imaging condition information and stores the imaging area and the non-imaging area in the storage unit as the area information. The image monitoring apparatus described.
前記確率分布は、前記移動速度及び前記経過時間から求められる平均値と該経過時間から求められる標準偏差とをパラメータとした正規分布によって表現される請求項2に記載の画像監視装置。 The image monitoring apparatus according to claim 2, wherein the probability distribution is represented by a normal distribution using an average value obtained from the moving speed and the elapsed time and a standard deviation obtained from the elapsed time as parameters.
JP2012115938A 2012-05-21 2012-05-21 Image monitoring device Active JP5956248B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012115938A JP5956248B2 (en) 2012-05-21 2012-05-21 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012115938A JP5956248B2 (en) 2012-05-21 2012-05-21 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2013242728A JP2013242728A (en) 2013-12-05
JP5956248B2 true JP5956248B2 (en) 2016-07-27

Family

ID=49843556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012115938A Active JP5956248B2 (en) 2012-05-21 2012-05-21 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5956248B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6551226B2 (en) 2013-04-26 2019-07-31 日本電気株式会社 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2015178540A1 (en) * 2014-05-20 2015-11-26 삼성에스디에스 주식회사 Apparatus and method for tracking target using handover between cameras
JP6488647B2 (en) * 2014-09-26 2019-03-27 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP6257545B2 (en) * 2015-03-03 2018-01-10 三菱電機株式会社 Approach detection device and approach detection method
JP6573361B2 (en) * 2015-03-16 2019-09-11 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and computer program
WO2016151950A1 (en) * 2015-03-20 2016-09-29 日本電気株式会社 Monitoring system, monitoring method, and monitoring program
JP2017156122A (en) * 2016-02-29 2017-09-07 沖電気工業株式会社 Control device, control method, and detection system
JP6736412B2 (en) * 2016-08-10 2020-08-05 三菱重工業株式会社 Target monitoring system and target monitoring method
JP7111024B2 (en) * 2019-02-20 2022-08-02 株式会社デンソー Information processing device and information processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4700477B2 (en) * 2005-11-15 2011-06-15 株式会社日立製作所 MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE
JP4738142B2 (en) * 2005-11-17 2011-08-03 三菱電機株式会社 Intrusion monitoring system
JP4892268B2 (en) * 2006-04-07 2012-03-07 株式会社日立製作所 Entrance / exit / location management system
JP4951490B2 (en) * 2007-12-18 2012-06-13 日本電信電話株式会社 Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program
JP2010068466A (en) * 2008-09-12 2010-03-25 Toshiba Corp Moving body tracking device and moving body tracking method
JP5473750B2 (en) * 2010-04-23 2014-04-16 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2013242728A (en) 2013-12-05

Similar Documents

Publication Publication Date Title
JP5956248B2 (en) Image monitoring device
Bleser et al. Advanced tracking through efficient image processing and visual–inertial sensor fusion
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP2020184795A (en) Video monitoring system, video monitoring method, and program
WO2016147644A1 (en) Image processing apparatus, image processing system, method for image processing, and computer program
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
US20140049600A1 (en) Method and system for improving surveillance of ptz cameras
Sommerlade et al. Information-theoretic active scene exploration
JP2016099941A (en) System and program for estimating position of object
Vidas et al. Real-time mobile 3D temperature mapping
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
Gómez et al. Intelligent surveillance of indoor environments based on computer vision and 3D point cloud fusion
JP6708368B2 (en) Method and system for partial concealment processing in vehicle tracking using deformable partial model
JP2019029935A (en) Image processing system and control method thereof
JP7533646B2 (en) Evaluation device, evaluation method, and program
JP2018120283A (en) Information processing device, information processing method and program
JP6032283B2 (en) Surveillance camera management device, surveillance camera management method, and program
EP3598175B1 (en) Object detection system
JP2016148956A (en) Positioning device, positioning method and positioning computer program
JP2002366958A (en) Method and device for recognizing image
CN113228117B (en) Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
JP2017182564A (en) Positioning device, positioning method, and positioning computer program
CN116259001A (en) Multi-view fusion three-dimensional pedestrian posture estimation and tracking method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160616

R150 Certificate of patent or registration of utility model

Ref document number: 5956248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250