JP5956248B2 - Image monitoring device - Google Patents
Image monitoring device Download PDFInfo
- Publication number
- JP5956248B2 JP5956248B2 JP2012115938A JP2012115938A JP5956248B2 JP 5956248 B2 JP5956248 B2 JP 5956248B2 JP 2012115938 A JP2012115938 A JP 2012115938A JP 2012115938 A JP2012115938 A JP 2012115938A JP 5956248 B2 JP5956248 B2 JP 5956248B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- imaging
- information
- imaging area
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims description 254
- 238000012544 monitoring process Methods 0.000 claims description 89
- 238000012545 processing Methods 0.000 claims description 50
- 230000003287 optical effect Effects 0.000 claims description 16
- 238000009434 installation Methods 0.000 claims description 12
- 230000007423 decrease Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 76
- 238000000605 extraction Methods 0.000 description 20
- 239000000470 constituent Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000005484 gravity Effects 0.000 description 7
- 230000002207 retinal effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
Description
本発明は、複数の監視カメラによって撮像した監視場所の撮像画像を、監視者が目視にて監視する画像監視装置に関する。 The present invention relates to an image monitoring apparatus in which a monitor visually monitors captured images of a monitoring location captured by a plurality of monitoring cameras.
近年、複数の監視カメラによって撮像した撮像画像を順次受信して、監視者の利用する監視端末に表示させることによって、監視場所の複数エリアにおける異常状態を集中的に監視する画像監視装置が利用されている。このような画像監視装置に関して、特に、特許文献1には、複数の監視カメラからの撮像画像に映る物体についてその特徴量に基づいて前後時間での対応付けを行って複数カメラ間の追跡(トラッキング)をして、監視場所の平面図上に当該物体の移動軌跡を表示することにより、広範囲の監視場所全体における物体の行動状態を監視者が視認し易いようにした画像監視装置が開示されている。
In recent years, image monitoring apparatuses that centrally monitor abnormal states in a plurality of areas at a monitoring location by sequentially receiving captured images captured by a plurality of monitoring cameras and displaying them on a monitoring terminal used by a supervisor are used. ing. With regard to such an image monitoring device, in particular,
しかしながら、商店街やショッピングモールなどのように監視場所が広範囲になる程、当該監視場所の全てのエリアを隙間なくカバーできるよう監視カメラを設置することは設置コストや運用コスト等の理由から困難であり、一般には監視場所の特に監視したいエリアにのみ監視カメラが設置されることとなる。そのため、前記従来技術では、監視カメラの撮像している範囲(以下、「撮像エリア」という)の外に物体が移動すると、監視者は当該物体を見失うと同時に、画像監視装置は追跡を継続できなくなるといった問題があった。したがって、撮像エリアの外に物体が移動した場合であっても、どのあたりに当該物体が存在しうるのかを予測表示させたいといった監視ニーズがあった。 However, as surveillance locations become more widespread, such as shopping streets and shopping malls, it is difficult to install surveillance cameras to cover all areas of the surveillance location without gaps for reasons such as installation costs and operational costs. In general, a monitoring camera is installed only in an area to be monitored, particularly in a monitoring place. Therefore, in the conventional technique, when an object moves outside the range captured by the surveillance camera (hereinafter referred to as “imaging area”), the monitor loses sight of the object and the image monitoring apparatus can continue tracking. There was a problem of disappearing. Therefore, even when an object moves outside the imaging area, there is a need for monitoring to predict where the object may exist.
そこで、物体が撮像エリア外に移動した場合であっても、建物構造やカメラ設置情報などに基づいて目標移動体の存在確率をエリア毎に算出して活用することにより、監視者は撮像エリアの外に出た目標移動体の大よその位置関係を予測して把握できると同時に、複数の監視カメラ間におけるトラッキングを精度よく継続できるようにすることを目的とする。 Therefore, even if an object moves outside the imaging area, the observer can calculate the probability of existence of the target moving object for each area based on the building structure and camera installation information, etc. It is an object of the present invention to predict and grasp the approximate positional relationship of a target moving object that has gone outside, and at the same time, to continue tracking between a plurality of surveillance cameras with high accuracy.
上記した目的を達成するために、本願請求項1に係る画像監視装置は、
監視場所の撮像画像を順次取得する撮像部と、前記監視場所を構成する物体についての仮想空間における構造及び少なくとも開口部か否かの属性を示した構造情報と、前記仮想空間における前記撮像部の撮像エリア及び該撮像エリア以外の非撮像エリアを示したエリア情報とを記憶した記憶部と、前記撮像画像から抽出した移動体を時間的に追跡する画像処理部と、前記撮像エリアの外に移動した前記移動体の前記非撮像エリアにおける存在確率を算出し、該存在確率に基づいて前記非撮像エリアにおける前記移動体の現在の所在を表示する表示制御部とを備えた画像監視装置であって、
前記表示制御部は、前記移動体が前記撮像エリア外に移動した位置から前記仮想空間における失跡位置を求め、該失跡位置と前記エリア情報及び前記構造情報とから該移動体の移動先の非撮像エリアの外周を構成する開口部を特定し、該移動体の失跡時刻からの経過時間及び該開口部の数が大きくなるほど前記存在確率を小さくなるよう算出することを特徴としている。
In order to achieve the above-described object, an image monitoring apparatus according to
An imaging unit that sequentially acquires captured images of the monitoring location, a structure in the virtual space about the object that configures the monitoring location, and structure information that indicates an attribute of whether or not the opening is at least, and the imaging unit in the virtual space A storage unit that stores an imaging area and area information indicating a non-imaging area other than the imaging area, an image processing unit that temporally tracks a moving object extracted from the captured image, and moves outside the imaging area An image monitoring apparatus comprising: a display control unit that calculates a probability of existence of the mobile body in the non-imaging area and displays a current location of the mobile body in the non-imaging area based on the presence probability. ,
The display control unit obtains a vacant position in the virtual space from a position where the moving body has moved out of the imaging area, and performs non-imaging of a moving destination of the moving body from the vacant position, the area information, and the structure information. The openings constituting the outer periphery of the area are specified, and the existence probability is calculated so as to decrease as the elapsed time from the lost time of the moving body and the number of openings increase.
かかる構成により、本発明の画像処理部は、監視場所に設置された複数の撮像部から取得した撮像画像から背景差分等の従来技術を用いて変化領域を抽出する。そして、抽出された各変化領域の画像上の位置やサイズなどの画像特徴に基づいて、当該変化領域を移動体として撮像画像上で画像追跡する。そして、本発明の表示制御部は、撮像部の撮像エリア外に出て撮像画像内に表示されなくなった移動体(以下、「失跡移動体」という)について、撮像画像にて最後に検出された画像位置に相当する仮想空間における位置(失跡位置)を求める。そして、エリア情報を用いて失跡位置からの移動先(失跡先)における非撮像エリアを特定し、当該非撮像エリアの外周を構成する開口部を構造情報を用いて特定する。そして、特定した開口部の数が多いほど(及び失跡時刻からの経過時間が大きくなるほど)非撮像エリアに失跡移動体が存在する確率(存在確率)が低くなることを考慮して、経過時間及び該開口部の数が大きくなるほど存在確率が小さくなるよう算出する。このようにして算出した存在確率を利用して、例えば、失跡移動体を表すシンボルに対して存在確率に応じて色や透明度等を変化させ、監視場所の平面図(地図)上に重畳表示することにより、複数の撮像部間で移動体を追跡する際に、監視者は撮像エリア外に移動した移動体の所在位置を推測することができる。または、算出した存在確率と移動体の画像特徴(特徴量)とを用いて、ある撮像部における失跡移動体が他の撮像部における移動体と同一であるか否かを判定することにより、複数の撮像部間で当該移動体を精度良く追跡することができる。 With this configuration, the image processing unit of the present invention extracts a change area from a captured image acquired from a plurality of imaging units installed at a monitoring location using a conventional technique such as background difference. Then, based on image features such as the position and size of each extracted change area on the image, image tracking is performed on the captured image using the change area as a moving body. Then, the display control unit of the present invention detects the moving body that has gone out of the imaging area of the imaging unit and is no longer displayed in the captured image (hereinafter referred to as a “lost moving body”) in the captured image. A position (a missing position) in the virtual space corresponding to the image position is obtained. Then, the non-imaging area at the movement destination (rejection destination) from the lost position is specified using the area information, and the opening that forms the outer periphery of the non-imaged area is specified using the structure information. And considering that the probability (existence probability) that the vacant moving body exists in the non-imaging area becomes lower as the number of the specified openings is larger (and the elapsed time from the lapse time becomes larger), the elapsed time and The calculation is performed so that the existence probability decreases as the number of openings increases. Using the existence probability calculated in this way, for example, the symbol representing the lost moving object is changed in color, transparency, or the like according to the existence probability, and is superimposed and displayed on the plan view (map) of the monitoring place. Thus, when tracking a moving body between a plurality of imaging units, the monitor can estimate the location of the moving body that has moved outside the imaging area. Alternatively, by using the calculated existence probability and the image feature (feature amount) of the moving object, it is determined whether or not the unnoticed moving object in one imaging unit is the same as the moving object in the other imaging unit. The moving body can be accurately tracked between the imaging units.
本願請求項2に係る画像監視装置は、請求項1の画像監視装置において、
前記表示制御部は、前記失跡位置と前記構造情報及び前記エリア情報とを用いて前記移動体が前記失跡位置から前記開口部を経由して前記撮像エリアを通らずに移動可能な非撮像エリアにおける予測経路を算出する予測経路算出手段と、
前記移動体の失跡前の移動速度及び前記経過時間に基づいて確率分布を求め、該確率分布と前記構造情報とを用いて前記予測経路ごとに経路別エリア存在確率を算出し、該経路別エリア存在確率から前記存在確率を算出する存在確率算出手段と、を有することを特徴としている。
The image monitoring apparatus according to
In the non-imaging area, the display control unit can move the movable body from the missing position through the opening without passing through the imaging area by using the lost position, the structure information, and the area information. A predicted route calculating means for calculating a predicted route;
A probability distribution is obtained based on the moving speed before the relapse of the moving object and the elapsed time, and a path-specific area existence probability is calculated for each predicted path using the probability distribution and the structure information, and the path-specific area Presence probability calculating means for calculating the existence probability from the existence probability.
かかる構成により、本発明の予測経路算出手段は、失跡位置と構造情報とエリア情報とを用いて、失跡移動体が失跡位置から開口部を経由して移動可能な一又は複数の経路である予測経路を算出する。この際、当該失跡移動体が撮像エリアを通ったときは、当該撮像エリアに存在することが判明することを考慮して、撮像エリアを通らずに移動可能な非撮像エリアにおける経路に限定し、当該経路を予測経路として算出する。そして、本発明の存在確率算出手段は、失跡移動体の失跡前の移動速度及び失跡時刻からの経過時間に基づいて予測経路上における確率分布を求め、当該確率分布と構造情報とに基づいて各非撮像エリアにおける存在確率を算出する。このように、開口部の数や位置によって変化する予測経路を構造情報やエリア情報に基づいて求め、当該予測経路毎に確率分布を求めて存在確率を算出することにより、各エリアの広さや開口部の位置を考慮してより正確に存在確率を算出することができる。また、確率分布を失跡移動体の失跡前の移動速度を考慮して求めることにより、失跡移動体の失跡前の移動態様を反映したより正確な存在確率を算出することができる。 With such a configuration, the predicted route calculation unit of the present invention uses the lost position, the structure information, and the area information to predict that the lost moving body is one or a plurality of routes that can move from the lost position via the opening. Calculate the route. At this time, in consideration of the fact that when the lost moving body passes through the imaging area, it is determined that the moving body does not pass through the imaging area, the route is limited to the non-imaging area that can be moved. The route is calculated as a predicted route. Then, the existence probability calculating means of the present invention obtains a probability distribution on the predicted route based on the movement speed before the remnant of the remnant moving body and the elapsed time from the relapse time, and determines each probability based on the probability distribution and the structure information. The existence probability in the non-imaging area is calculated. Thus, by calculating the predicted path that changes depending on the number and position of openings based on the structure information and area information, and calculating the probability of existence for each predicted path, The existence probability can be calculated more accurately in consideration of the position of the part. In addition, by obtaining the probability distribution in consideration of the moving speed of the lost moving body before the remnant, it is possible to calculate a more accurate existence probability reflecting the movement mode of the remnant moving body before the remnant.
本願請求項3に係る画像監視装置は、請求項1又は請求項2の画像監視装置において、
前記画像処理部は、前記移動体の前記画像特徴と予め前記記憶部に記憶した特徴量情報との類似度を求め、該類似度と前記存在確率とを用いて該移動体が該特徴量情報に対応する移動体と同一であるか否かを判定する判定手段を有することを特徴としている。
The image monitoring apparatus according to
The image processing unit obtains a similarity between the image feature of the moving body and feature amount information stored in the storage unit in advance, and the moving body uses the similarity and the existence probability to detect the feature amount information. It has the determination means which determines whether it is the same as the mobile body corresponding to.
かかる構成により、例えば、ある撮像部の撮像エリアの外に出た移動体(失跡移動体)についての画像特徴を予め記憶部に特徴量情報として記憶しておき、当該失跡移動体と他の撮像部にて検出/追跡している移動体とが同一であるか否かを、当該移動体の画像特徴と特徴量情報との類似度だけでなく、存在確率算出手段にて算出された存在確率も利用することによって判定する。または、認証したい移動体(例えば、特定人物)の画像特徴を予め記憶部に特徴量情報として記憶しておき、追跡している移動体が当該特定人物であるか否かを、当該移動体の画像特徴と予め記憶部に記憶された特徴量情報との類似度だけでなく、存在確率算出手段にて算出された存在確率も利用することによって判定する。これにより、現在追跡している移動体が失跡移動体であるか否かを精度良く判定することができるため、複数の撮像装置が設置された監視場所における移動体の追跡精度を向上させたり、移動体の認証精度を向上させたりすることができる。 With this configuration, for example, an image feature of a moving object (an unrecognized moving object) that has moved out of an imaging area of a certain image capturing unit is stored in advance in the storage unit as feature amount information, and the image of the unrecognized moving object and another image is captured. The existence probability calculated by the existence probability calculation means as well as the similarity between the image feature of the moving object and the feature amount information as to whether or not the moving object detected / tracked by the unit is the same Also determine by using. Alternatively, an image feature of a mobile object (for example, a specific person) to be authenticated is stored in advance as feature amount information in the storage unit, and whether or not the mobile object being tracked is the specific person is determined. The determination is made by using not only the degree of similarity between the image feature and the feature amount information stored in the storage unit in advance, but also the existence probability calculated by the existence probability calculating means. Thereby, since it is possible to accurately determine whether the mobile body currently being tracked is a remnant mobile body, the tracking accuracy of the mobile body in a monitoring place where a plurality of imaging devices are installed, The authentication accuracy of the mobile object can be improved.
本願請求項4に係る画像監視装置は、請求項1〜請求項3の何れか一項の画像監視装置において、
前記表示制御部は、前記記憶部に予め記憶された前記監視場所の地図上に前記移動体の存在位置を表す画像表示を前記存在確率に基づいて表示出力する表示制御手段を有することを特徴としている。
The image monitoring apparatus according to
The display control unit includes display control means for displaying and outputting an image display representing the location of the moving object on the map of the monitoring location stored in advance in the storage unit based on the existence probability. Yes.
かかる構成により、本発明の表示制御手段は、追跡している移動体の仮想空間位置を用いて、監視場所の地図(平面図又は三次元地図)上に移動体の存在位置を表すシンボルを配置する。この際、当該移動体が撮像エリアの外(非撮像エリア)に存在する失跡移動体である場合、存在確率算出手段にて算出した存在確率に基づいて、例えば、当該シンボルを最も存在確率が高い非撮像エリアの所定位置に配置して、当該存在確率の大きさに応じて当該シンボルの色や透明度、形状等を変更して表示出力する。これにより、監視者は、撮像エリアの外に移動した移動体の現時点の存在位置とその存在確率を容易に視認することができる。 With this configuration, the display control means of the present invention arranges a symbol representing the position of the moving object on the monitoring place map (plan view or three-dimensional map) using the virtual space position of the moving moving object. To do. At this time, if the moving body is a remnant moving body that exists outside the imaging area (non-imaging area), for example, the symbol has the highest existence probability based on the existence probability calculated by the existence probability calculating means. The symbol is arranged at a predetermined position in the non-imaging area, and the color, transparency, shape and the like of the symbol are changed and displayed according to the magnitude of the existence probability. Thereby, the supervisor can easily visually recognize the current location and the existence probability of the moving body that has moved out of the imaging area.
本願請求項5に係る画像監視装置は、請求項1〜請求項4の何れか一項の画像監視装置において、
前記構造情報における前記物体の構造は3次元形状データであり、
前記記憶部は、前記撮像部の設置位置、光軸及び画角を前記構造情報に対応付けた撮像条件情報を更に記憶し、
前記構造情報及び前記撮像条件情報を用いて前記撮像エリア及び前記非撮像エリアを求め前記エリア情報として前記記憶部に記憶するエリア設定部を更に有することを特徴としている。
The image monitoring device according to
The structure of the object in the structure information is three-dimensional shape data,
The storage unit further stores imaging condition information in which an installation position, an optical axis, and an angle of view of the imaging unit are associated with the structure information,
The image processing apparatus further includes an area setting unit that obtains the imaging area and the non-imaging area using the structure information and the imaging condition information and stores the area in the storage unit as the area information.
かかる構成により、本発明のエリア設定部は、例えば、撮像部に対してパン・チルト・ズーム等のカメラ制御を行って撮像条件情報が変更された場合であっても、当該変更された撮像条件と3次元形状データを仮想空間で表現した構造情報(3次元モデル)とに基づいて、動的に撮像エリアと非撮像エリアとを算出できる。したがって、撮像部に対してカメラ制御等が行われた場合であっても、変更された最新の撮像条件に基づいて失跡移動体の予測経路や存在確率を算出することができる。 With such a configuration, the area setting unit of the present invention, for example, even when the imaging condition information is changed by performing camera control such as pan, tilt, and zoom on the imaging unit, the changed imaging condition The imaging area and the non-imaging area can be dynamically calculated based on the structure information (three-dimensional model) expressing the three-dimensional shape data in the virtual space. Therefore, even when camera control or the like is performed on the imaging unit, it is possible to calculate the predicted path and the existence probability of the remnant moving body based on the changed latest imaging condition.
本願請求項6に係る画像監視装置は、請求項2〜請求項5の何れか一項の画像監視装置において、
前記確率分布は、前記移動速度及び前記経過時間から求められる平均値と該経過時間から求められる標準偏差とをパラメータとした正規分布によって表現されることを特徴としている。
The image monitoring apparatus according to claim 6 of the present application is the image monitoring apparatus according to any one of
The probability distribution is characterized by being expressed by a normal distribution using as parameters the average value obtained from the moving speed and the elapsed time and the standard deviation obtained from the elapsed time.
かかる構成により、移動体の移動速度と時間経過とから、移動体の確率分布(確率密度関数)の平均値(ピーク値)を好適に求めることができる。また、移動体は必ずしも終端の非撮像エリアまで移動するとは限らないことを考慮して、時間経過に伴い正規分布の標準偏差を大きくすることにより、いずれの非撮像エリアに所在している可能性が高いのかを、より確からしい値として監視者に明示することができる。 With this configuration, the average value (peak value) of the probability distribution (probability density function) of the moving object can be suitably obtained from the moving speed of the moving object and the passage of time. Also, considering that the moving body does not necessarily move to the non-imaging area at the end, the standard deviation of the normal distribution may be increased with the passage of time, so that it may be located in any non-imaging area. Can be shown to the monitor as a more probable value.
本発明に係る画像監視装置によれば、撮像画像と建物構造(構造情報)とから失跡移動体の存在確率を算出し、当該存在確率を活用することにより、監視者は当該失跡移動体の撮像エリア外(非撮像エリア)における行動態様を想定でき、また、複数の監視カメラ間における追跡を精度よく行うことができる。 According to the image monitoring apparatus according to the present invention, by calculating the existence probability of the remnant moving body from the captured image and the building structure (structure information) and using the existence probability, the supervisor can image the remnant moving body. An action mode outside the area (non-imaging area) can be assumed, and tracking between a plurality of surveillance cameras can be performed with high accuracy.
以下、本発明に係る画像監視装置を図9に示す建物に適用した実施形態について、添付した図面を参照しながら詳細に説明する。図9は、画像監視装置の監視対象である建物(監視場所)の構造を三次元モデルとして表したものであり、後述する構造情報211aに相当するものである。図9に表すように、本実施形態における監視場所は複数の部屋から構成され、各部屋は人物が移動できない壁面51と人物が移動可能な扉等の開口部52とによって区画されている。また、本実施形態における監視場所には、4台の撮像装置3a〜3dが設置され、各撮像装置3は床面53上を移動する人物を撮像できるよう設置されている。
Hereinafter, an embodiment in which the image monitoring apparatus according to the present invention is applied to the building shown in FIG. 9 will be described in detail with reference to the accompanying drawings. FIG. 9 shows the structure of a building (monitoring place) as a monitoring target of the image monitoring apparatus as a three-dimensional model, and corresponds to structure information 211a described later. As shown in FIG. 9, the monitoring place in this embodiment is composed of a plurality of rooms, and each room is partitioned by a
(画像監視装置の全体構成について)
図1に示すように、本実施形態の画像監視装置1は、監視端末2、撮像装置3によって構成される。なお、画像監視装置1における監視端末2は、監視場所から離れた警備室等に設置されていることとし、図9には図示されていない。
(About the overall configuration of the image monitoring device)
As shown in FIG. 1, the
撮像装置3は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成される所謂監視カメラであり、本発明における撮像部として機能する。撮像装置3は、室内の壁の上部又は天井部に設置され、監視場所を俯瞰して撮像するよう設置される。撮像装置3は、監視場所を所定時間おきに撮像して撮像画像を監視端末2に順次送信する。撮像画像が撮像される時間間隔は、例えば1/5秒である。本実施形態では、図9に示すように、監視場所内に4台の撮像装置3が設置されていることとする。
The
監視端末2は、記憶部21、制御部22、通信部23、表示部24及び入力部25を含んで概略構成される。通信部23は、LANやUSB等の通信インタフェースであり、撮像装置3と通信を行う。本実施形態では、4台の撮像装置3から送信された撮像画像を通信部23を介して受信する。入力部25は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。監視者等は、入力部25を用いて、例えば、それぞれの撮像装置3の設置位置等の様々な撮像条件に関する情報を設定したり、画面表示したい撮像装置3を選択したりすることができる。
The
記憶部21は、ROM、RAM、HDD等の情報記憶装置である。記憶部21は、各種プログラムや各種データを記憶し、制御部22との間でこれらの情報を入出力する。各種データは、構造情報211、撮像条件情報212、エリア情報213、移動体情報214によって構成される。また、上記の他、各種データとして、制御部22の処理に使用される各種情報(例えば、撮像装置3で取得するフレーム毎の撮像画像、抽出手段221で撮像画像から変化領域を抽出するために用いる基準画像や抽出閾値など)を記憶している。
The
構造情報211は、監視場所の建物構造を表す情報であり、図9に示すような監視場所に存在する現実世界の壁・床・扉、柱、什器等の構成物体の構造を仮想空間における3次元座標(X,Y,Z)で表した3次元形状データと、構成物体ごとに付与された属性情報とからなる情報である。構造情報211の一例として、図2に本実施形態の構造情報211を表す。図2に示すように、構造情報211は、監視場所の構成物体の識別子である物体識別子と、当該構成物体の構造(大きさ、形状、位置)を表す3次元座標と、当該構成物体の属性情報とを対応付けたテーブルとして表現される。属性情報には、構成物体の種別(壁/扉/カメラ等)や、開口部であるか否かや、移動可能であるか否かなどといった各種の属性情報が付与される。後述するように、本実施形態では、少なくとも構成物体が開口部であるか否かを示す属性が付与されている必要がある。構造情報211における3次元形状データは、監視場所の形状情報に基づいて3次元CADで作成されたものでも良いし、3次元レーザースキャナー等により監視場所の3次元形状を取り込んだデータを利用しても良い。このようにして作成された構造情報211は、監視者等により入力部25から設定登録されることにより記憶部21に記憶される。なお、図9の符号50は、構造情報211を3次元形状のモデルとして図で表現したものであり、以下では構造情報211の3次元モデルのことを「構造モデル」という。
The
撮像条件情報212は、現在時刻における撮像装置3の設置位置や光軸(姿勢)に関する設置条件情報と、焦点距離、画素数、画素サイズ、レンズ歪みに関する画角条件情報とからなり、撮像装置3毎に個別設定される。なお、撮像条件情報212は、仮想空間の座標系における値に変換された値で設定され、構造情報211と撮像条件情報212とは互いに同じ座標系の値として対応付けられている。ここで、設置位置に関する設置条件情報とは、監視場所内(実空間)を3次元直交座標系として表し、実空間の直交座標系で座標が既知である基準点の座標値に基準点からの相対距離、方向を測定して補正する等の公知の技術を使用して算出した仮想空間における座標値として表した情報である。また、光軸に関する設置条件情報とは、上記座標軸に対する撮像装置3の光軸の回転角度に関する情報であり、撮像装置3のいわゆるパン角度、チルト角度から求めることができる。撮像条件情報212は、初期設定時に監視者等によって入力部25から設定登録されることにより記憶部21に記憶される。
The
エリア情報213は、撮像装置3の撮像している範囲を表す撮像エリアと、監視場所における撮像エリア以外のエリアである非撮像エリアとの仮想空間における範囲を表す座標情報であって、仮想空間における座標系の値に変換されて記憶されたものである。なお、本実施形態では、後述するエリア設定部22Bにて構造情報211と撮像条件情報212とからエリア情報213が算出され、記憶部21に記憶される。本実施形態においてエリア情報213は、図3に示すように後述するエリア設定部22Bにて算出された仮想空間における範囲を示す座標(床面をZ=0としたときの床面上の二次元座標)と、撮像エリア/非撮像エリアの別を示したエリア属性とが、各エリアの識別子であるエリア識別子に対応付けられたテーブルとして記憶部21に記憶されていることとする。
The
移動体情報214は、後述する追跡手段222にて追跡している移動体(変化領域)に関する情報であり、後述する追跡手段222及び仮想空間位置算出手段224にて記憶部21に登録される情報である。移動体情報214は、図4に示すように、追跡手段222による追跡処理にて追跡移動体ごとに付与されたユニークなラベルである追跡ラベルと、当該移動体の画像特徴である特徴量情報と、当該移動体の仮想空間における位置(座標)である仮想空間位置と、当該移動体が検出された時刻である検出時刻と、を対応付けたテーブルとして記憶部21に記憶される。ここで、移動体の特徴量情報とは、移動体固有の画像特徴を定量的に表したベクトル量であり、色やテクスチャの特徴、形状の特徴、大きさや縦横比の特徴、動き(移動速度)の特徴、撮像画像内における位置の特徴など様々なものが有る。例えば、移動体の色の特徴として、下半身と上半身の最頻輝度値を用いることができ、この場合、特徴量は二次元のベクトルとなる。なお、移動体情報214は、後述するように追跡手段222における追跡処理や、判定手段223における判定処理にて利用される。
The moving
制御部22は、CPU等を備えたコンピュータで構成され、撮像装置3からデジタル化された画像の入力を受け、後述する図8に示す一連の処理として、エリア生成処理、撮像画像読出処理、抽出処理、追跡処理、予測経路算出処理、存在確率算出処理、判定処理、表示制御処理を実行するべく、抽出手段221、追跡手段222及び判定手段223から構成される画像処理部22Aと、エリア設定部22Bと、仮想空間位置算出手段224、予測経路算出手段225、存在確率算出手段226及び表示制御手段227から構成される表示制御部22Cとを含んで構成される。
The
画像処理部22Aの抽出手段221は、撮像装置3で取得された撮像画像の中から輝度変化のある領域を変化領域として抽出する抽出処理を行っている。本実施形態では、撮像装置3ごとに移動体の存在しない過去の撮像画像を基準画像として予め記憶部21に保存しておき、最新に取得した撮像画像と基準画像との輝度値の差分値が記憶部21に記憶された所定の抽出閾値以上である領域を変化領域として抽出する。この際、基準画像として監視場所の背景の撮像画像や、過去に取得した撮像画像などを適宜選択して採用することができる。また、抽出手段221は、抽出処理として、抽出した変化領域にラベル付けする処理を行う。この際、変化領域のある抽出画素に注目したときに、注目抽出画素に隣接している抽出画素を一塊の抽出画素領域とみなし、各一塊の抽出画素領域に対して、全ての監視画像内でユニークなラベルを割り当てる。以下、ラベルが割り当てられた一塊の抽出画素領域のことをラベル領域と呼ぶ。
The
追跡手段222は、抽出手段221が抽出した変化領域を時間的に画像追跡するもので、抽出手段221によって求まったラベル領域に対し、前回取得した同じ撮像装置3の撮像画像の追跡ラベル領域(追跡ラベルが付与されたラベル領域)との対応付けを行う追跡処理を行っている。追跡処理をより詳細に説明すると、まず、前回取得した撮像画像の追跡ラベル領域の特徴量と、現在処理中の撮像画像のラベル領域の特徴量とを比較して、同一の移動体によるものか否かを判別する。そして、同一の追跡物体によるものと判定された場合には、前回取得した画像の追跡ラベル領域と同じ追跡ラベルを付与し直す処理を行う。前回存在した追跡ラベル領域で、現在処理中の画像に出現したラベル領域のいずれとも対応付けられない追跡ラベル領域については、対応する移動体が撮像エリアの外に出たとみなされ、当該移動体が失跡移動体として認識される。なお、追跡処理に利用した移動体の特徴量情報は、後の撮像画像フレームにおける追跡処理や、後述する判定手段223における判定処理にて利用できるよう、追跡ラベルと検出時刻に対応付けた上で記憶部21に移動体情報214として記憶しておくこととする。
The
エリア設定部22Bは、構造情報211と撮像条件情報212とを用いてエリア情報213を算出して記憶部21に設定するエリア生成処理を行っている。以下、エリア生成処理の詳細について図5〜図7を用いて説明する。
The area setting unit 22B performs area generation processing for calculating the
図5は、撮像装置3の撮像条件情報212と構造情報211とに基づいてエリア情報213における撮像エリアを算出する一例を表したものである。図5において、符号51a、53aは、本処理を説明するために用いた構造モデル50aにおける一部分を表したものであり、そのうち符号51aが構造モデル50aの壁面を表し、53aが構造モデル50aの床面を表したものである。エリア設定部22Bは、撮像エリアを算出するにあたり、まず、記憶部21の撮像条件情報212から撮像装置3の設置位置(X、Y、Z)を読み出して、その位置に対応する構造情報211(仮想空間)上における光学中心Oを求める。また、エリア設定部22Bは、当該光学中心Oと、記憶部21の撮像条件情報212から読み出した光軸(姿勢)に関する設置条件情報とから、仮想空間における撮像装置3の光軸を求める。また、エリア設定部22Bは、記憶部11から焦点距離fとCCDの画素の実サイズ、画像の縦横のピクセル数とレンズの歪みに関する諸元等の撮像条件情報212を読み出し、撮像装置3の構造情報211上において光軸と垂直な投影面abcdを求める。そして、光学中心Oから投影面abcdの四つの頂点を通る四角錐Oa’b’c’d’を生成する。なお、四角錐の高さは、少なくとも四角錐の底面における四つの頂点(a’,b’,c’,d’)が構造モデル50aを貫く程度の任意の高さとする。そして、エリア設定部22Bは、この四角錐と構造モデル50aの床面53aとの干渉面ABCDを公知の幾何計算により求め、当該干渉面ABCDからなる領域が撮像エリア30aとして算出する。
FIG. 5 shows an example of calculating the imaging area in the
このように、監視範囲モデル213の形状は、撮像条件情報212の値によって変化する。例えば、撮像装置3がズーム操作を行った場合、焦点距離fが大きくなることに伴って、四角錐の底面a’b’c’d’の辺の長さが小さくなり、干渉面の大きさも小さくなるように変化する。また、撮像装置3に対して、パン・チルト操作を行い、図6のように床面53aと壁面51aとが監視範囲に含まれるよう撮像装置3の光軸を移動させた場合における撮像エリアは、ABEFからなる領域30bとして算出される。
As described above, the shape of the
次に、エリア設定部22Bは、算出した撮像エリア30と構造情報211とを用いて、非撮像エリアを算出する。本実施形態では、撮像エリア30以外の監視場所におけるエリアであって、壁や扉等の物体によって人物の移動が制限されるエリアを非撮像エリアとして算出する。図7は、非撮像エリアを生成する処理を説明する図である。図7aは、撮像装置3が設置されない場合における構造モデル50bと非撮像エリア31を表している図である。すなわち、同図において壁や扉によって人の移動が制限されるエリアである非撮像エリア31は、符号31aと符号31bの2つのエリアとして求めることができる。図7bは、撮像装置3が設置されている場合における構造モデル50b、撮像エリア30c及び非撮像エリア31を表している図である。すなわち、同図に示すように撮像エリア30cが算出されることによって、非撮像エリア31は、符号31c〜符号31eの3つのエリアとして求めることができる。このように、一般的に撮像エリア30が求まると、構造情報211を用いて、撮像撮像エリア30以外の非撮像エリア31を一意に算出することができる。
Next, the area setting unit 22B calculates a non-imaging area using the calculated
仮想空間位置算出手段224は、追跡手段222にて追跡している全ての移動体について、その撮像画像上における画像位置から仮想空間における位置である仮想空間位置を求め、当該移動体の追跡ラベルと対応付けて記憶部21の移動体情報214に記憶する仮想空間位置算出処理を行う。以下、仮想空間位置算出処理の詳細について図10を用いて説明する。
The virtual space position calculation means 224 obtains the virtual space position that is the position in the virtual space from the image position on the captured image for all the moving objects tracked by the tracking means 222, and the tracking label of the moving object A virtual space position calculation process to be stored in association with the moving
図10は、監視場所の上方から地面方向を撮像している撮像装置3の撮像画像に基づいてラベル領域の仮想空間位置を算出する一例を表したものである。仮想空間位置算出処理では、前述のエリア算出処理と同様に、撮像条件情報212に基づいて撮像装置3の構造モデル50c上における光軸と当該光軸に垂直な投影面abcdを求める。図10において、投影面abcdに投影された撮像画像上における符号40の画像領域は、抽出手段221にて抽出され、追跡手段222にて追跡している移動体のラベル領域であるとする。次に、ラベル領域40の下端位置40aと光学中心Oとを結ぶ直線を求め、当該直線の延長線上における構造モデル50cとの交点41aを求める。なお、本実施形態では、ラベル領域40の下端に位置する画素が複数あるとき、当該ラベル領域40の中央位置の画素を下端位置40aとしているが、これに限らず、予め定めた右端(又は左端)の画素を下端位置40aとしてもよい。交点41aは、ラベル領域40の撮像画像上の位置40aに対応する構造モデル50c(仮想空間)上における位置に相当するため、当該位置の仮想空間における座標を仮想空間位置として算出する。
FIG. 10 illustrates an example of calculating the virtual space position of the label area based on the captured image of the
予測経路算出手段225は、追跡している移動体が撮像エリア外に移動して失跡したときに失跡直前における仮想空間位置(失跡位置)とエリア情報213及び構造情報211とを用いて、当該失跡移動体が失跡位置から撮像エリア30を通らずに移動可能な非撮像エリア31における予測経路を算出する予測経路算出処理を行う。なお、予測経路算出処理の詳細については後述することとする。
The predicted path calculation means 225 uses the virtual space position (lost position) immediately before the lapse, the
存在確率算出手段226は、失跡移動体の失跡前の移動速度及び失跡時刻からの経過時間と、予測経路算出手段225にて求めた予測経路などを用いて非撮像エリア31ごとに失跡移動体の存在確率を算出する存在確率算出処理を行う。なお、存在確率算出処理の詳細については後述することとする。
The existence
判定手段223は、ある撮像装置3の撮像画像に出現した移動体が過去に追跡手段222にて追跡した失跡移動体のいずれかと同一であるか否かを判定する判定処理を行う。判定処理をより具体的に説明すると、追跡手段222にて追跡した失跡移動体の失跡前における特徴量情報を記憶部21の移動体情報214から読み出し、当該特徴量情報と現在検出している移動体の画像特徴(特徴量)とを比較して両者の類似度を計算する。前述のように移動体の特徴量は判定に利用する画像特徴の数に応じたn次元のベクトル量として表現される。したがって、失跡移動体の特徴量情報と現在検出している移動体の特徴量とのユークリッド距離を求めることにより、類似度を算出することができる。このようにして求めた類似度が予め記憶部21に記憶された所定の類似判定閾値以下の場合、両者が十分に近い特徴量であるとして、両者を同一の移動体と判定する。なお、本実施形態では、ユークリッド距離を用いて類似度を算出しているが、ユークリッド距離以外にも例えばマハラノビス距離を用いてもよい。
The
判定処理では、存在確率算出手段226にて算出した失跡移動体の存在確率を活用することにより、失跡移動体と現在検出している移動体との同一性を判定する。具体的には、現在検出している移動体を撮像している撮像装置3の撮像エリア30に隣接している非撮像エリア31(以下、これを「隣接非撮像エリア」という)の存在確率を参照し、当該存在確率に応じて類似判定閾値の大きさを変更する処理を行っている。すなわち、隣接非撮像エリアの存在確率が小さい場合、当該隣接非撮像エリアには失跡移動体が存在する可能性が低く、新たに検出した移動体が失跡移動体である可能性が低いことを意味するため、類似判定閾値を小さめに変更することにより、誤判定が起こりにくいように通常よりもより厳格に類似判定を行う。一方で、隣接非撮像エリアの存在確率が大きい場合、当該隣接非撮像エリアには失跡移動体が存在する可能性が高く、新たに検出した移動体が失跡移動体である可能性が高いことを意味するため、類似判定閾値を大きめに変更することにより、失判定が起こりにくいように類似判定を行う。このように、本実施形態では、失跡移動体と現在追跡している移動体とが同一であるか否かを、当該移動体の画像特徴と記憶部21に記憶した失跡移動体の特徴量情報との類似度だけでなく、存在確率算出手段226にて算出された存在確率も利用して判定することによって、高い精度で判定することができるため、複数の撮像装置が設置された監視場所における移動体の追跡精度を向上させることができる。なお、判定処理では、失跡移動体と撮像エリアに出現した移動体とが同一であると判定した場合、当該失跡移動体の非撮像エリアにおける存在確率を“0”に初期化する処理を行う。したがって、この場合、(同一であると判定された撮像エリアとは異なる)他の撮像エリアの隣接非撮像エリアにおける当該失跡移動体の存在確率も必然的に0となるため、当該他の撮像エリアに新たに移動体が出現したとしても、当該移動体の特徴量と当該失跡移動体の特徴量との類似判定閾値が最小となって、これらが同一であると最も判定されにくくなることを意味する。
In the determination process, by using the existence probability of the sight moving body calculated by the existence probability calculating means 226, the identity between the sight moving body and the currently detected moving body is determined. Specifically, the existence probability of the non-imaging area 31 (hereinafter referred to as “adjacent non-imaging area”) adjacent to the
表示制御手段227は、移動体の仮想空間位置に対応する監視場所の地図上の位置に、当該移動体を表すシンボルを重畳表示させると共に、当該移動体の移動軌跡を表示させるための表示出力をする表示制御処理を行う。この際、失跡移動体のシンボルについては、撮像エリア内に存在する移動体とは異なる色で表示すると共に、存在確率算出手段226にて算出した存在確率に基づいて、透明度を変化させたシンボルを最も存在確率の最も大きい非撮像エリアの重心位置に配置する。これにより、監視者は撮像エリア外に移動した移動体の所在位置を好適に推測することができる。なお、本実施形態では、地図は管理者等により予め記憶部21に設定登録されているものとするが、構造情報211を用いて地図を動的に生成しても良い。表示制御処理の詳細については後述することとする。
The display control means 227 superimposes and displays a symbol representing the moving body at a position on the map of the monitoring location corresponding to the virtual space position of the moving body, and displays a display output for displaying the moving locus of the moving body. Display control processing to be performed. At this time, the symbol of the moving object is displayed in a color different from that of the moving object existing in the imaging area, and the symbol whose transparency is changed based on the existence probability calculated by the existence
表示部24は、ディスプレイ等の情報表示デバイスであり、撮像装置3で撮像した監視場所の撮像画像や、表示制御手段227にて出力された(移動物体のシンボルが重畳表示された)地図画像を表示する。
The
このように、本実施形態の画像監視装置は、失跡移動体の存在確率を構造情報211や撮像条件情報212、追跡している移動体の画像特徴(移動速度)などに基づいて算出し、当該存在確率に応じた表示出力によって監視者に失跡移動体の現在位置を明示することにより、たとえ監視場所の全てのエリアを撮像装置3にてカバーできなかったとしても、監視者は撮像エリアの外に出た移動体(失跡移動体)の大よその位置関係を予測して把握することができる。また、当該存在確率を用いて複数の撮像装置3間における移動体の同一性判定に利用することにより、高い精度で複数の撮像装置3間における追跡を行うことができる。
As described above, the image monitoring apparatus according to the present embodiment calculates the existence probability of the remnant moving body based on the
(監視端末2の制御部22が実行する処理について)
以下、本実施形態の画像監視装置1に係る監視端末2の制御部22が実行する処理の流れの一例について、図8のフローチャートを参照しながら詳細に説明する。
(About processing executed by the
Hereinafter, an example of the flow of processing executed by the
動作に先立ち、監視者等により監視端末2の入力部25を用いて撮像条件情報212の設定、及び構造情報211の登録等の各種初期設定が行なわれる(ST1)。本実施例では、前述のように監視場所である建物内に4台の撮像装置3が設置されている場合を想定しているため、撮像装置3ごとに撮像条件情報212が初期設定にて登録される。なお、初期設定時に登録した撮像条件情報212は、撮像装置3に対してパン・チルト・ズーム等のカメラ制御が行われることによって変更されることがある。そのため、本実施形態では、カメラ制御が行われたとき、撮像装置3から最新の撮像条件情報212を通信部23を介して受信し、記憶部21を更新する処理を行っている。また、図9の構造モデル50に関する構造情報211が、初期設定にて登録されたとして以下の処理を説明する。
Prior to the operation, various initial settings such as setting of the
次に、制御部22のエリア設定部22Bにより、構造情報211と撮像条件情報212とを用いてエリア情報213を算出するエリア生成処理を実行する(ST2)。なお、エリア生成処理の詳細については、前述したためここでは説明を省略する。このように、記憶部21に記憶された最新の撮像条件情報212を用いてエリア情報213を更新することにより、撮像装置3に対してカメラ制御が行われた場合であっても、変更された最新の撮像条件情報212に基づいて失跡移動体の予測経路及び存在確率を算出することができる。
Next, the area setting unit 22B of the
次に、制御部22は、撮像装置3から受信して記憶部21に記憶された撮像画像を、撮像装置3ごとに読み出す撮像画像読出処理を実行する(ST3)。撮像画像読出処理では、最新(現在時刻に最も近い)の撮像画像を撮像装置3ごとに読み出す。
Next, the
次に、制御部22の抽出手段221により抽出処理を実行する(ST4)。抽出処理では、撮像画像読出処理で取得された撮像装置3ごとの撮像画像から、それぞれ変化領域を抽出し、抽出された各変化領域に対してラベル付けを実施する。なお、抽出処理の詳細については、前述したためここでは説明を省略する。
Next, extraction processing is executed by the extraction means 221 of the control unit 22 (ST4). In the extraction process, the change areas are extracted from the captured images of the respective
次に、制御部22の追跡手段222により追跡処理を実行する(ST5)。なお、追跡処理の詳細については、前述したためここでは説明を省略する。
Next, a tracking process is executed by the
次に、仮想空間位置算出手段224により、追跡手段222にて追跡している各ラベル領域の仮想空間位置を求めるための仮想空間位置算出処理を実行する(ST6)。なお、仮想空間位置算出処理の詳細については、前述したためここでは説明を省略する。 Next, the virtual space position calculation means 224 executes virtual space position calculation processing for obtaining the virtual space position of each label area tracked by the tracking means 222 (ST6). Note that details of the virtual space position calculation processing have been described above, and a description thereof will be omitted here.
次に、予測経路算出手段225により、失跡移動体がその失跡位置から撮像エリア30を通らずに移動可能な非撮像エリア31における予測経路を算出する予測経路算出処理を実行する(ST6)。以下、予測経路算出処理の詳細について図11のフローチャートを参照しながら説明する。なお、図11のループ1は、ST30〜ST33の各処理を、追跡処理にて認識した失跡移動体の数分だけ実行することを意味する。なお、本処理の説明において、選択移動体とは、ループ1にて処理対象となっている失跡移動体をいう。
Next, the predicted
予測経路算出処理では、まず、選択移動体の初期移動先エリアが撮像エリアか否かを判定する(ST30)。すなわち、失跡移動体である選択移動体の失跡位置は、移動体情報214における当該選択移動体の最後に検出された仮想空間位置に相当するため、当該失跡位置に隣接するエリアを初期移動先エリアとみなし、当該初期移動先エリアが撮像エリアであるか又は非撮像エリアであるかについて、エリア情報213におけるエリア属性を参照して判定する。ST30にて、選択移動体の初期移動先エリアが撮像エリアであると判定したとき(ST30−Yes)、ループ1にてまだ処理対象となっていない他の失跡移動体を選択移動体に変更して、ST30からの処理を行う。
In the predicted route calculation process, first, it is determined whether or not the initial movement destination area of the selected moving body is an imaging area (ST30). That is, since the lost position of the selected moving body that is the lost moving body corresponds to the virtual space position detected at the end of the selected moving body in the moving
ST30にて、選択移動体の初期移動先エリアが撮像エリアではないと判定したとき(ST30−No)、当該選択移動体の初期移動先エリアを移動元エリアとして設定する(ST31)。図12は、予測経路算出処理を説明するための図であり、図9の構造モデル50を簡易的に2次元で表した図面上に撮像エリア30及び非撮像エリア31を重畳表示したものである。同図において、斜線で塗られたB、D、J、Oのエリアは撮像エリア30であり、その他のA、C、E、F、G、H、I、K、L、M、Nのエリアは非撮像エリア31である。また、符号33で示す線・矢印は、失跡移動体の失跡前の撮像エリアであるエリアDにおける移動軌跡を表したものであり、符号34は当該失跡移動体の失跡位置を表したものである。同図の例では、失跡移動体の初期移動先エリアは非撮像エリアであるエリアGであるため、ST30にて撮像エリアではないと判定され、ST31にて当該エリアGが移動元エリアとして設定される。
When it is determined in ST30 that the initial moving destination area of the selected moving body is not the imaging area (ST30-No), the initial moving destination area of the selected moving body is set as the moving source area (ST31). FIG. 12 is a diagram for explaining the predicted route calculation process, in which the
ST31にて、移動元エリアが設定されると、予測経路算出手段225はグラフ生成処理を行う(ST32)。グラフ生成処理は、移動元エリアを表すノードに対して、当該移動元エリアから失跡移動体が移動可能な非撮像エリアを表すノードを辺で連結したデータ構造であるグラフを生成する処理である。以下、グラフ生成処理の詳細について図13のフローチャートを参照しながら説明する。 When the movement source area is set in ST31, the predicted route calculation means 225 performs graph generation processing (ST32). The graph generation process is a process of generating a graph having a data structure in which a node representing a non-imaging area to which a lost moving body can move from the movement source area is connected to a node representing the movement source area by an edge. The details of the graph generation processing will be described below with reference to the flowchart of FIG.
グラフ生成処理では、まず、記憶部21の構造情報211を参照し、ST31にて設定された移動元エリア(すなわち、失跡先の非撮像エリア)の外周を構成する「開口部」属性を有する構成物体を特定する(ST40)。図12及び図9の例では、失跡移動体の移動元エリアであるエリアGの外周を構成する開口部属性を有する物体はエリアHに通じる開口部52f(扉)のみであるため、当該開口部52fのみが特定される。図13のループ2は、ST41〜ST43の各処理を、ST40にて特定された開口部の数分だけ実行することを意味する。なお、本処理の説明において、選択開口部とは、ループ2にて処理対象となっている開口部をいう。
In the graph generation process, first, the
次に、選択開口部を経由した先のエリアが撮像エリアか否かを判定する(ST41)。ST41にて、選択開口部を経由した先のエリアが撮像エリアと判定したとき(ST41−Yes)、ループ2にてまだ処理対象となっていない他の移動先の開口部を選択開口部に変更して、ST42からの処理を行う。一方、ST41にて、選択開口部を経由した先のエリアが撮像エリアではないと判定したとき(ST41−No)、当該選択開口部を経由した先のエリアのノードを移動元ノードに連結してグラフを更新し、更新したグラフを記憶部21に記憶する処理を行う(ST42)。図12の例では、選択開口部を経由した先のエリアであるエリアHは非撮像エリアであるため、エリアGを示す移動元ノードにエリアHを示すノードを連結してグラフを更新する。
Next, it is determined whether or not the previous area passing through the selected opening is an imaging area (ST41). When it is determined in ST41 that the previous area that has passed through the selected opening is an imaging area (ST41-Yes), another opening that is not yet processed in
次に、選択開口部を経由した先のエリアを移動元エリアとして設定し直して、ST40からのグラフ生成処理を再帰的に処理する(ST43)。すなわち、図12の例では、ST43にてエリアHを移動元エリアとして設定する。そして、再帰的に処理したST40にて、移動元エリア(エリアH)に隣接する開口部52h、52i、52jが特定される。そして、これらの開口部52h、52i、52jを経由した先のエリアL、M、Nは、非撮像エリアであるため、再帰的に処理したST42にて、これらのエリアを示すノードを移動元エリア(エリアH)のノードに連結してグラフが更新される。このようにして生成した図12の例におけるグラフを図14に表す。図14は、図12の例における失跡移動体が、失跡位置34から撮像エリア30を通らずに移動可能な非撮像エリア31の移動ルートを表している。すなわち、図12の例における失跡移動体は、G→H→L、G→H→M、G→H→Nのそれぞれのエリアを移動するルートで移動可能であることが分かる。このように、失跡移動体が撮像エリアを通ったときは、当該撮像エリアに必ず存在することが判明することを考慮して、撮像エリアを通らずに移動可能な非撮像エリアにおける経路のみに限定して移動ルートを求めることにより、組み合わせ次第により無数に存在する移動ルートを制限することができ、計算量を削減することができる。
Next, the previous area that has passed through the selected opening is reset as the movement source area, and the graph generation processing from ST40 is recursively processed (ST43). That is, in the example of FIG. 12, area H is set as the movement source area in ST43. And in ST40 processed recursively, the opening
ST32にてグラフ生成処理を終えると、予測経路算出手段225は、図11の予測経路算出処理のST33に処理を進める。ST33では、グラフ生成処理にて生成したグラフと、構造情報211とを用いて、予測経路を算出する処理を行う。ここで予測経路とは、グラフで示される非撮像エリア間の移動において、失跡移動体が具体的にどの位置を通って移動するのかを予測した経路を意味する。本実施形態では、失跡移動体は失跡位置とグラフで示される移動先エリアの開口部とを最短経路で移動すると仮定し、また、グラフの終端ノードに相当するエリアについては当該エリアの重心位置に向かって移動すると仮定して予測経路を算出する。すなわち、図12の例では、図14のグラフにおけるG→H→Lの移動ルートにおいては、失跡移動体は、失跡位置34→開口部52f→開口部52h→エリア重心位置36aの予測経路で移動することとする。同じように、グラフにおけるG→H→Mの移動ルートにおいては失跡位置34→開口部52f→開口部52i→エリア重心位置36bの予測経路で移動し、グラフにおけるG→H→Nの移動ルートにおいては失跡位置34→開口部52f→開口部52j→エリア重心位置36cの予測経路で移動することとする。なお、開口部52の位置は、構造情報211を参照して「開口部」属性を有する構成物体の重心位置から算出することとする。
When the graph generation process is completed in ST32, the predicted
ST33にて予測経路を算出すると、予測経路算出手段225は図8のST7における予測経路算出処理を終え、同図のST8に処理を進める。ST8では、存在確率算出手段226により存在確率算出処理が実行される。以下、存在確率算出処理の詳細について説明する。 When the predicted route is calculated in ST33, the predicted route calculation means 225 finishes the predicted route calculation process in ST7 of FIG. 8, and advances the process to ST8 of FIG. In ST8, the existence probability calculation means 226 executes an existence probability calculation process. Details of the existence probability calculation process will be described below.
存在確率算出処理では、まず、失跡移動体の失跡前の移動速度及び失跡時刻からの経過時間を用いて各予測経路上における確率分布を求める。本実施形態では、当該確率分布を、失跡移動体の失跡前の移動速度v、失跡時刻からの経過時間Tとしたとき、平均値μ=vTとして、P=∫p(x)dx=1/√(2πσ2)×∫exp(−(x−μ)2/(2σ2))dx・・・(1)で得られる正規分布であるとする。ここで、失跡移動体の失跡前の移動速度vは記憶部21の移動体情報214における特徴量情報から読み出した値であり、撮像画像のフレーム間における移動距離から算出するといった従来技術を用いて算出した値である。また、経過時間Tは、記憶部21の移動体情報214における検出時刻と現在時刻との差から算出した値であるとする。本実施形態では、μの最大値を各予測経路の経路長とし、μが当該経路長に達した時点でμはそれ以上、大きくならないこととする。また、標準偏差σは、経過時間Tが大きくなるほど大きくなる関数σ(T)によって算出されるパラメータであることとする。図15は、図11のG→H→Lの移動ルートの予測経路において、式(1)で得られた確率分布を表したものである。同図において、符号37a、37bは、それぞれ経過時間T1、T2(T1<T2)のときにおける確率分布を表している。なお、本実施形態では、上記のように標準偏差σを経過時間Tの関数によって求めているが、管理者等によって実験的に予め定めた固定値を用いてもよい。
In the existence probability calculation process, first, a probability distribution on each predicted route is obtained using the movement speed before the remnant moving body and the elapsed time from the relapse time. In the present embodiment, when the probability distribution is defined as the movement speed v before the remnant moving body and the elapsed time T from the relapse time, the average value μ = vT, and P = ∫p (x) dx = 1 / It is assumed that the distribution is a normal distribution obtained by √ (2πσ 2 ) × ∫exp (− (x−μ) 2 / (2σ 2 )) dx (1). Here, the moving speed v before the remnant moving body is a value read from the feature amount information in the moving
次に、予測経路ごとに各非撮像エリア(エリアA、C、E、F、G、H、I、K、L、M、N)における存在確率(経路別エリア存在確率)を算出する。この際、式(1)の確率分布に対して、予測経路上の各非撮像エリアにおける進入位置及び退出位置から求めた積分区間を用いて、経路別エリア存在確率を算出する。ここで、エリアGにおける侵入位置は失跡位置34に相当し、退出位置は開口部52fの位置に相当する。そのため、失跡位置34から開口部52fの位置間の距離をX1としたとき、式(1)における積分区間は[0,X1]として、経路別エリア存在確率Pg1を算出する。また、エリアHにおける侵入位置は開口部52fの位置に相当し、退出位置は開口部52hの位置に相当する。そのため、開口部52fの位置から開口部52hの位置間の距離をX2としたとき、式(1)における積分区間は[X1,X1+X2]として、経路別エリア存在確率Ph1を算出する。また、エリアLにおける侵入位置は開口部52hの位置に相当し、退出位置はエリア重心位置36aに相当する。そのため、開口部52hの位置からエリア重心位置36a間の距離をX3としたとき、式(1)における積分区間は[X1+X2,X1+X2+X3]として、経路別エリア存在確率Pl1を算出する。このように、式(1)と、上記の積分区間を用いてG→H→Lの移動ルートの予測経路における経路別エリア存在確率Pg1、Ph1、Pl1を算出することができる。同じようにして、G→H→Mの移動ルートの予測経路における経路別エリア存在確率Pg2、Ph2、Pl2、及び、G→H→Nの移動ルートの予測経路における経路別エリア存在確率Pg3、Ph3、Pl3を算出する。
Next, the existence probability (area-specific probability of each route) in each non-imaging area (area A, C, E, F, G, H, I, K, L, M, N) is calculated for each predicted route. At this time, the path-specific area existence probability is calculated using the integration interval obtained from the entry position and the exit position in each non-imaging area on the predicted route with respect to the probability distribution of Expression (1). Here, the intrusion position in the area G corresponds to the lost
次に、予測経路ごとに求めた経路別エリア存在確率を正規化して非撮像エリアごとに失跡移動体の存在確率を算出する。この際、全ての非撮像エリアにおける存在確率の和が1となるように正規化する。具体的には、算出した経路別エリア存在確率の総和P’=Pg1+Pg2+Pg3+Ph1+Ph2+Ph3+Pl1+Pl2+Pl3としたとき、非撮像エリアGの存在確率Pgは、Pg=(Pg1+Pg2+Pg3)/P’によって算出する。同じように、非撮像エリアHの存在確率Ph=(Ph1+Ph2+Ph3)/P’、非撮像エリアLの存在確率Pl=(Pl1+Pl2+Pl3)/P’によって算出する。 Next, the path-specific area existence probability obtained for each predicted path is normalized to calculate the existence probability of the retinal moving body for each non-imaging area. At this time, normalization is performed so that the sum of the existence probabilities in all non-imaging areas is 1. Specifically, the sum P of the calculated route by area existence probability '= when the P g1 + P g2 + P g3 + P h1 + P h2 + P h3 + P l1 + P l2 + P l3, the existence probability P g of the non-imaging area G is P g = (P g1 + P g2 + P g3 ) / P ′ Similarly, the existence probability P h = (P h1 + P h2 + P h3) of the non-imaging area H / P is calculated by 'the existence probability P l of the non-imaging area L = (P l1 + P l2 + P l3) / P' .
次に、画像処理部22Aの判定手段223により判定処理を実行する(ST9)。判定処理では、ある撮像装置3の撮像画像に新規に出現した移動体が、過去に追跡手段222にて追跡した失跡移動体のいずれかと同一であるか否かを判定し、同一であると判定したとき、新規に出現した移動体の追跡ラベルを当該失跡移動体の追跡ラベルに設定/変更することにより、同一の移動体として関連付ける処理を実行する。なお、判定処理の詳細については、前述したためここでは説明を省略する。
Next, determination processing is executed by the determination means 223 of the
次に、表示制御部22Cの表示制御手段227により表示制御処理を実行する(ST10)。表示制御処理では、表示制御手段227は予め記憶部21に記憶された監視場所の地図を読出し、移動体の現在の仮想空間位置に対応する当該地図上の位置に、移動体を表すシンボルを配置する。この際、失跡移動体については、存在確率に基づいて表示を変更したシンボルを配置する。以下、図16を用いて表示制御処理の具体例について説明する。
Next, display control processing is executed by the display control means 227 of the display control unit 22C (ST10). In the display control process, the display control means 227 reads a map of the monitoring location stored in advance in the
図16は、表示制御手段227によって表示部24に表示出力された移動体の現在位置を表した地図画面の一例を表したものである。同図において、符号S1〜S6は追跡手段222にて追跡している移動体の時刻t1〜t6におけるシンボルを表したものである。S1、S2は、ST6の仮想空間位置算出処理にて仮想空間位置が算出されているため、当該仮想空間位置に対応する地図上の位置に当該移動体のシンボルが配置されている。時刻t2(位置S2)にて当該移動体を失跡してしまったため、このような失跡後においては各予測経路上における存在確率の最も大きい非撮像エリアの重心位置にシンボルを配置する。図16の例では、時刻t2後のt3においては、存在確率が最も大きい非撮像エリアであるエリアGの重心位置に当該失跡移動体に対応するシンボルS3を配置し、移動軌跡33で繋いで表示している。この際、本実施形態では、当該シンボルS3を存在確率に応じた不透明度によってシンボル表示を変更している。すなわち、存在確率が小さくなるほど、シンボルが透明に表示されることとなる。このように、存在確率に応じて失跡移動体の現在位置を表示することにより、たとえ監視場所の全てのエリアを撮像装置3にて監視できなかったとしても、監視者は撮像エリアの外に出た目標移動体の大よその位置関係を予測して把握することができる。なお、本実施形態では、存在確率が50%以下になったとき、シンボルを表示しないようにしている。図16のシンボルS5は、時刻t5において非撮像エリアGの存在確率が最大だったとしても、当該存在確率が50%以下であったため、シンボル表示されていないことを表している(説明のために点線で便宜的に表示しているが実際には表示されないものとする)。このように、所定の存在確率以下の失跡移動体をシンボル表示しないことにより、監視者に対して当該失跡移動体の位置をミスリード(誤認識)させないようにしている。
FIG. 16 shows an example of a map screen showing the current position of the moving object displayed and output on the
なお、図16に表すように、時刻t6に撮像エリアOにて検出された移動体が、ST9の判定処理にてS1、S2に対応する移動体と同一の移動体であると判定されたとき、当該移動体を表すシンボルS6と失跡移動体を表すシンボルS5とを移動軌跡にて連結する。これにより、監視者はS1〜S6のシンボルに係る移動体が同一であることを認識することができ、撮像装置3の撮像エリア外における移動体の行動態様を推測することができる。
Note that, as shown in FIG. 16, when the moving body detected in the imaging area O at time t6 is determined to be the same moving body as that corresponding to S1 and S2 in the determination process of ST9. The symbol S6 representing the moving object and the symbol S5 representing the lost moving object are connected by a movement locus. Thereby, the supervisor can recognize that the moving bodies related to the symbols S1 to S6 are the same, and can estimate the behavior mode of the moving body outside the imaging area of the
ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。 By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.
上記実施形態では、表示制御部22Cの予測経路算出手段225にて特定した開口部の位置や数に基づいて予測経路を算出し、存在確率算出手段226にて移動体の移動速度や経過時間から求めた確率分布に基づいて予測経路ごとに経路別エリア存在確率を求め、各非撮像エリアにおける存在確率を算出している。すなわち、上記実施形態は、開口部数が多くなるほど予測経路の候補数が増大すること、開口部を経由したエリア間の接続関係に応じて予測経路が複数存在すること、及び、開口部の物理的な位置関係によって予測経路上における失跡移動体の移動距離が異なることを考慮したものである。しかし、これに限らず、開口部の数が多くなるほど予測経路の候補数が増大することのみを考慮し、開口部の数と経過時間から存在確率を簡易的に算出する他の実施形態を利用してもよい。すなわち、当該他の実施形態では、失跡移動体の移動先(失跡先)である非撮像エリアの開口部の数が多いほど、失跡時刻からの時間経過に伴って当該非撮像エリアにおける存在確率が小さくなるように算出する方法を用いる。具体的には、当該他の実施形態における予測経路算出手段225は、上記実施形態のように予測経路算出処理にて予測経路を算出せずに、失跡移動体の移動先(失跡先)である非撮像エリアの外周を構成する開口部をのみを特定する。そして、当該他の実施形態における存在確率算出手段226は、特定した開口部の数をN、経過時間をTとしたとき、移動先の非撮像エリアにおける存在確率PをP=exp(−αNT)・・・(2)によって算出する。ここで、αは実験的に予め定めた固定パラメータであり、管理者等によって設定される値であることとする。式(2)では、例えば、開口部の数が“0”であるような袋小路の非撮像エリアに移動体が移動した場合は、存在確率は経過時間に関わらず常に“1(必ず存在する)”と算出される。その一方で、開口部の数が増加するほど、及び、経過時間が経過するほど存在確率が小さくなるよう算出される。そして、当該他の実施形態における表示制御手段227は、失跡移動体を示すシンボルを地図上の当該非撮像エリアの重心位置に配置し、当該シンボルの不透明度を算出された存在確率に応じて変更した地図画像を表示部24に出力する。
In the above embodiment, a predicted route is calculated based on the position and number of openings specified by the predicted
上記実施形態では、記憶部21に記憶する構造情報211として3次元形状データの座標情報を記憶しているが、これに限らず、簡易的に2次元形状データの座標情報を利用してもよい。この場合、エリア情報213(撮像エリアと非撮像エリア)は、エリア設定部22Bにおけるエリア算出処理にて算出されることはなく、予め管理者等によって撮像装置3のキャリブレーション設定がなされた上で、記憶部21に設定登録されることとなる。すなわち、当該他の実施形態においては、記憶部21の撮像条件情報212は記憶部21に記憶されずに省略され、エリア設定部22Bも省略された構成となる。また、当該他の実施形態における仮想空間位置算出処理では、予めキャリブレーションされた撮像エリアに関する情報に基づいて、撮像画像上における画像位置から仮想空間位置(失跡位置も含む)を算出する構成となる。
In the above embodiment, the coordinate information of the three-dimensional shape data is stored as the
上記実施形態では、判定手段223にて、新たに出現した移動体と過去に追跡した失跡移動体とを両者の画像特徴の類似度と存在確率とに基づいて両者の同一性を判定する判定処理を行っている。しかし、これに限らず、新たに出現した移動体の特徴量と、予め管理者等によって登録された特定人物の登録特徴量との類似度を求め、当該類似度と存在確率とから当該移動体が当該特定人物であるか否かを判定する処理(いわゆる認証処理)を判定処理にて行ってもよい。
In the above-described embodiment, the
上記実施形態では、予測経路算出手段225にて、失跡移動体が失跡位置から撮像エリアを通らずに移動可能な非撮像エリアにおける予測経路を、移動先(失跡先)の非撮像エリアにおける「開口部」属性を有する構成物体の数に応じて算出している。しかし、「開口部」属性を有する構成物体の数だけでなく、「開口部」属性を有する構成物体の「開口時刻」属性を考慮して予測経路を算出してもよい。すなわち、「開口部」属性を有する構成物体である扉や窓などの開口時刻(“開”となった時刻)を属性情報として記憶し、予測経路を算出する際に当該開閉時刻を考慮する。具体的には、開口部属性を有する構成物体の開口状態を検知できるよう、たとえばマグネットセンサなどのセンサを予め開口部属性を有する構成物体に設置しておき、監視端末2が通信部23を介して当該状態を受信できるように構成する。そして、開口部属性を有する構成物体が開口した時、通信部23を介して受信した状態の時刻に基づいて、開口した構成物体の属性情報(記憶部21の構造情報211)を変更する処理を行う。そして、ある失跡移動体の予測経路を算出する際、当該失跡移動体の移動先(失跡先)の非撮像エリアにおける「開口部」属性を有する構成物体を特定すると共に、当該特定した構成物体の開口時刻を読み出す処理を行う。そして、読み出した開口時刻を参照して、失跡時刻から予測経路を算出する時刻までの間に特定した構成物体が開口していないことが判明したとき、当該開口していない構成物体の先の非撮像エリアを予測経路に含めないように処理する。すなわち、予測経路算出処理(ST7)におけるグラフ生成処理(ST32)のループ2にて当該開口していない構成物体を選択開口部として選択されないように処理する。このように処理することにより、開口していない開口部より先の、失跡移動体が移動し得ない非撮像エリアの存在確率を算出することなく、より高い精度で存在確率を算出することができる。
In the above-described embodiment, the predicted
上記実施形態では、表示制御手段227にて、存在確率に基づいて監視場所の地図上に失跡移動体をシンボル表示するよう表示制御処理を行っている。しかしこれに限らず、シンボルを配置せずに、存在確率に基づいて非撮像エリア31を着色表示しても良い。例えば、存在確率が高い非撮像エリア31ほど濃い赤色で着色され、存在確率が低いエリアになるほど薄い赤色で着色されるよう表示制御処理を行ってもよい。
In the above-described embodiment, the
1・・・画像監視装置
2・・・監視端末
3・・・撮像装置
21・・・記憶部
22・・・制御部
23・・・通信部
24・・・表示部
25・・・入力部
211・・・構造情報
212・・・撮像条件情報
213・・・エリア情報
214・・・移動体情報
215・・・位置情報
22A・・・画像処理部
22B・・・エリア設定部
22C・・・表示制御部
221・・・抽出手段
222・・・追跡手段
223・・・判定手段
224・・・仮想空間位置算出手段
225・・・予測経路算出手段
226・・・存在確率算出手段
227・・・表示制御手段
30・・・撮像エリア
31・・・非撮像エリア
33・・・移動軌跡
34・・・失跡位置
36・・・エリア重心位置
37・・・確率分布
40・・・変化領域
41・・・仮想空間位置
50・・・構造モデル
51・・・壁面
52・・・開口部
53・・・床面
DESCRIPTION OF
Claims (6)
前記監視場所を構成する物体についての仮想空間における構造及び少なくとも開口部か否かの属性を示した構造情報と、前記仮想空間における前記撮像部の撮像エリア及び該撮像エリア以外の非撮像エリアを示したエリア情報とを記憶した記憶部と、
前記撮像画像から抽出した移動体を時間的に追跡する画像処理部と、
前記撮像エリアの外に移動した前記移動体の前記非撮像エリアにおける存在確率を算出し、該存在確率に基づいて前記非撮像エリアにおける前記移動体の現在の所在を表示する表示制御部とを備えた画像監視装置であって、
前記表示制御部は、
前記移動体が前記撮像エリア外に移動した位置から前記仮想空間における失跡位置を求め、該失跡位置と前記エリア情報及び前記構造情報とから該移動体の移動先の非撮像エリアの外周を構成する開口部を特定し、該移動体の失跡時刻からの経過時間及び該開口部の数が大きくなるほど前記存在確率を小さくなるよう算出することを特徴とする画像監視装置。 An imaging unit that sequentially acquires captured images of the monitoring location;
The structure information indicating the structure in the virtual space and the attribute indicating whether or not the object is at least an opening, and the imaging area of the imaging unit and the non-imaging area other than the imaging area in the virtual space. A storage unit storing the area information;
An image processing unit that temporally tracks the moving object extracted from the captured image;
A display control unit that calculates an existence probability in the non-imaging area of the moving object that has moved out of the imaging area, and displays a current location of the moving object in the non-imaging area based on the existence probability; An image monitoring device,
The display control unit
A lost position in the virtual space is obtained from a position where the moving body has moved outside the imaging area, and an outer periphery of a non-imaging area to which the moving body is moved is configured from the lost position, the area information, and the structure information. An image monitoring apparatus characterized by specifying an opening, and calculating such that the existence probability decreases as the elapsed time from the lapse time of the moving object and the number of openings increase.
前記失跡位置と前記構造情報及び前記エリア情報とを用いて前記移動体が前記失跡位置から前記開口部を経由して前記撮像エリアを通らずに移動可能な非撮像エリアにおける予測経路を算出する予測経路算出手段と、
前記移動体の失跡前の移動速度及び前記経過時間に基づいて確率分布を求め、該確率分布と前記構造情報とを用いて前記予測経路ごとに経路別エリア存在確率を算出し、該経路別エリア存在確率から前記存在確率を算出する存在確率算出手段と、を有する請求項1に記載の画像監視装置。 The display control unit
Prediction for calculating a predicted path in a non-imaging area in which the moving body can move from the lapse position through the opening without passing through the imaging area using the lost position, the structure information, and the area information. Route calculation means;
A probability distribution is obtained based on the moving speed before the relapse of the moving object and the elapsed time, and a path-specific area existence probability is calculated for each predicted path using the probability distribution and the structure information, and the path-specific area The image monitoring apparatus according to claim 1, further comprising presence probability calculating means for calculating the presence probability from the presence probability.
前記記憶部は、前記撮像部の設置位置、光軸及び画角を前記構造情報に対応付けた撮像条件情報を更に記憶し、
前記構造情報及び前記撮像条件情報を用いて前記撮像エリア及び前記非撮像エリアを求め前記エリア情報として前記記憶部に記憶するエリア設定部を更に有する請求項1〜請求項4の何れか一項に記載の画像監視装置。 The structure of the object in the structure information is three-dimensional shape data,
The storage unit further stores imaging condition information in which an installation position, an optical axis, and an angle of view of the imaging unit are associated with the structure information,
5. The apparatus according to claim 1, further comprising an area setting unit that obtains the imaging area and the non-imaging area using the structure information and the imaging condition information and stores the imaging area and the non-imaging area in the storage unit as the area information. The image monitoring apparatus described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012115938A JP5956248B2 (en) | 2012-05-21 | 2012-05-21 | Image monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012115938A JP5956248B2 (en) | 2012-05-21 | 2012-05-21 | Image monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013242728A JP2013242728A (en) | 2013-12-05 |
JP5956248B2 true JP5956248B2 (en) | 2016-07-27 |
Family
ID=49843556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012115938A Active JP5956248B2 (en) | 2012-05-21 | 2012-05-21 | Image monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5956248B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6551226B2 (en) | 2013-04-26 | 2019-07-31 | 日本電気株式会社 | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM |
WO2015178540A1 (en) * | 2014-05-20 | 2015-11-26 | 삼성에스디에스 주식회사 | Apparatus and method for tracking target using handover between cameras |
JP6488647B2 (en) * | 2014-09-26 | 2019-03-27 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
JP6257545B2 (en) * | 2015-03-03 | 2018-01-10 | 三菱電機株式会社 | Approach detection device and approach detection method |
JP6573361B2 (en) * | 2015-03-16 | 2019-09-11 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, and computer program |
WO2016151950A1 (en) * | 2015-03-20 | 2016-09-29 | 日本電気株式会社 | Monitoring system, monitoring method, and monitoring program |
JP2017156122A (en) * | 2016-02-29 | 2017-09-07 | 沖電気工業株式会社 | Control device, control method, and detection system |
JP6736412B2 (en) * | 2016-08-10 | 2020-08-05 | 三菱重工業株式会社 | Target monitoring system and target monitoring method |
JP7111024B2 (en) * | 2019-02-20 | 2022-08-02 | 株式会社デンソー | Information processing device and information processing method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4700477B2 (en) * | 2005-11-15 | 2011-06-15 | 株式会社日立製作所 | MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE |
JP4738142B2 (en) * | 2005-11-17 | 2011-08-03 | 三菱電機株式会社 | Intrusion monitoring system |
JP4892268B2 (en) * | 2006-04-07 | 2012-03-07 | 株式会社日立製作所 | Entrance / exit / location management system |
JP4951490B2 (en) * | 2007-12-18 | 2012-06-13 | 日本電信電話株式会社 | Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program |
JP2010068466A (en) * | 2008-09-12 | 2010-03-25 | Toshiba Corp | Moving body tracking device and moving body tracking method |
JP5473750B2 (en) * | 2010-04-23 | 2014-04-16 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
-
2012
- 2012-05-21 JP JP2012115938A patent/JP5956248B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013242728A (en) | 2013-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5956248B2 (en) | Image monitoring device | |
Bleser et al. | Advanced tracking through efficient image processing and visual–inertial sensor fusion | |
US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
JP2020184795A (en) | Video monitoring system, video monitoring method, and program | |
WO2016147644A1 (en) | Image processing apparatus, image processing system, method for image processing, and computer program | |
KR100879623B1 (en) | Automated wide area surveillance system using ptz camera and method therefor | |
JP2018522348A (en) | Method and system for estimating the three-dimensional posture of a sensor | |
US20140049600A1 (en) | Method and system for improving surveillance of ptz cameras | |
Sommerlade et al. | Information-theoretic active scene exploration | |
JP2016099941A (en) | System and program for estimating position of object | |
Vidas et al. | Real-time mobile 3D temperature mapping | |
JP7272024B2 (en) | Object tracking device, monitoring system and object tracking method | |
Gómez et al. | Intelligent surveillance of indoor environments based on computer vision and 3D point cloud fusion | |
JP6708368B2 (en) | Method and system for partial concealment processing in vehicle tracking using deformable partial model | |
JP2019029935A (en) | Image processing system and control method thereof | |
JP7533646B2 (en) | Evaluation device, evaluation method, and program | |
JP2018120283A (en) | Information processing device, information processing method and program | |
JP6032283B2 (en) | Surveillance camera management device, surveillance camera management method, and program | |
EP3598175B1 (en) | Object detection system | |
JP2016148956A (en) | Positioning device, positioning method and positioning computer program | |
JP2002366958A (en) | Method and device for recognizing image | |
CN113228117B (en) | Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon | |
US20130265420A1 (en) | Video processing apparatus, video processing method, and recording medium | |
JP2017182564A (en) | Positioning device, positioning method, and positioning computer program | |
CN116259001A (en) | Multi-view fusion three-dimensional pedestrian posture estimation and tracking method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160616 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5956248 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |