JP5027758B2 - Image monitoring device - Google Patents
Image monitoring device Download PDFInfo
- Publication number
- JP5027758B2 JP5027758B2 JP2008210280A JP2008210280A JP5027758B2 JP 5027758 B2 JP5027758 B2 JP 5027758B2 JP 2008210280 A JP2008210280 A JP 2008210280A JP 2008210280 A JP2008210280 A JP 2008210280A JP 5027758 B2 JP5027758 B2 JP 5027758B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial
- model
- monitoring
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、監視空間を撮像した監視画像から対象物体を検出する画像監視装置に関し、特に、対象物体の画像特徴を記憶して当該画像特徴を有する対象物体を、隠蔽を考慮に入れつつ検出する画像監視装置に関する。 The present invention relates to an image monitoring apparatus that detects a target object from a monitoring image obtained by imaging a monitoring space, and in particular, stores an image feature of the target object and detects the target object having the image feature in consideration of concealment. The present invention relates to an image monitoring apparatus.
侵入者検知等のため、監視空間を撮像した監視画像から監視対象の対象物体に関する画像を抽出し、その画像情報に基づいて対象物体の検出や追跡を行う技術が知られている。下記特許文献1は、現フレームの物体候補領域と直前フレームの物体候補領域とが、それら領域の画像特徴量の類似度に基づいて同一の物体の画像を含むかを判定し、直前フレームの物体候補領域に対応付けられる現フレームの物体候補領域を求めることで移動物体の追跡を行う技術を開示している。
In order to detect an intruder or the like, a technique is known in which an image related to a target object to be monitored is extracted from a monitoring image obtained by imaging a monitoring space, and the target object is detected and tracked based on the image information.
すなわち、前後する時刻における移動物体像を画像特徴により対応付けるにあたり、直前時刻又は数時刻前の移動物体像の画像特徴を逐次記憶して利用する。
従来は、各時刻の監視画像に現れる1つの対象物をひとまとまりの像、すなわち2次元画像として把握・抽出することが多い。その際、基本的には、対象物体の立体的な構造は捨象されてしまう。しかし、現実には、対象物体は立体的な構造を有し、物体の移動によりカメラの撮影方向に対する物体の配置が変化すると、物体を構成する部分間で生じる隠蔽(オクルージョン)の状態が変化し、カメラが撮影した監視画像上にて物体の見え方が変わる。例えば、カメラで俯瞰撮影する場合、人物がカメラの直下から遠ざかるにつれて、頭に隠されていた胴や、胴に隠されていた脚が画像上に現れてくる。このような隠蔽状態の変化により、直前の1フレーム又は数フレームの画像特徴を記憶する従来の方法では、物体のそれまで隠れていた部分が画像に現れ、新たな画像特徴を生じることに対応できない。そのため、現時刻に撮像された監視画像内に存在する対象物体の像と、記憶されている画像特徴との対応付けが困難となり、対象物体の検出や追跡の継続ができなくなるという問題があった。 Conventionally, a single object appearing in a monitoring image at each time is often grasped and extracted as a group of images, that is, a two-dimensional image. At that time, basically, the three-dimensional structure of the target object is discarded. However, in reality, the target object has a three-dimensional structure, and when the arrangement of the object with respect to the shooting direction of the camera changes due to the movement of the object, the state of occlusion that occurs between the parts constituting the object changes. The appearance of the object changes on the monitoring image taken by the camera. For example, when taking a bird's-eye shot with a camera, as the person moves away from just below the camera, the torso hidden in the head and the legs hidden in the torso appear on the image. Due to such a change in the concealment state, the conventional method of storing the image feature of the immediately preceding frame or several frames cannot cope with the occurrence of a new image feature because the previously hidden part of the object appears in the image. . For this reason, there is a problem that it becomes difficult to associate the image of the target object existing in the monitoring image captured at the current time with the stored image feature, and the target object cannot be detected or tracked continuously. .
本発明は上記問題点を解決するためになされたものであり、対象物体の移動に伴って隠蔽状態が変化しても対象物体の検出や追跡の継続を好適に実現できる画像監視装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and provides an image monitoring apparatus that can suitably realize detection and tracking of a target object even if the concealment state changes as the target object moves. For the purpose.
本発明に係る画像監視装置は、監視空間を透視投影した監視画像についての投影条件と、監視対象となる対象物体の複数の構成部分毎の立体形状を表す部分モデルと当該部分モデル相互の配置関係とで表される前記対象物体の物体モデルと、前記対象物体の前記構成部分毎の参照画像及び参照画像隠蔽度とを記憶する記憶部と、前記監視画像、及び前記監視空間内の位置を入力され、当該位置に前記物体モデルを仮想的に配置して前記投影条件に基づき透視投影を行い、前記部分モデル毎に、その投影像のうち前記透視投影にて手前に位置する他の前記部分モデルによる隠蔽領域を除いた部分モデル可視領域と、前記隠蔽領域による当該投影像の隠蔽度とを求めると共に、前記監視画像から当該部分モデル可視領域に対応する部分を前記対象物体の前記構成部分毎の部分画像として抽出する部分画像抽出手段と、前記対象物体が存在し得る候補位置での前記部分画像と前記参照画像とを複数の前記候補位置について比較し、比較一致した候補位置に基づいて、前記対象物体が存在する物体位置を判定する物体判定手段と、前記物体位置での前記隠蔽度が前記参照画像隠蔽度以下である前記構成部分について、前記参照画像及び前記参照画像隠蔽度を、当該隠蔽度及び当該物体位置での前記部分画像で更新する物体情報更新手段と、を有するものである。 An image monitoring apparatus according to the present invention includes a projection condition for a monitoring image obtained by perspective projection of a monitoring space, a partial model representing a three-dimensional shape for each of a plurality of constituent parts of a target object to be monitored, and an arrangement relationship between the partial models. A storage unit that stores an object model of the target object represented by the reference object, a reference image and a reference image concealment degree for each component of the target object, the monitoring image, and a position in the monitoring space are input. Virtually disposing the object model at the position and performing perspective projection based on the projection condition, and for each partial model, the other partial model positioned in front of the perspective projection among the projection images The partial model visible area excluding the concealed area by the image and the concealment degree of the projection image by the concealed area are obtained, and the part corresponding to the partial model visible area from the monitoring image is the target. The partial image extraction means for extracting as a partial image for each component of the body, the partial image at the candidate position where the target object may exist and the reference image are compared for a plurality of candidate positions, and the comparison matches Object reference means for determining an object position where the target object is present based on a candidate position, and the reference image and the reference for the constituent part in which the concealment degree at the object position is equal to or less than the reference image concealment degree Object information updating means for updating the image concealment degree with the partial image at the concealment degree and the object position.
他の本発明に係る画像監視装置においては、前記物体判定手段が、基準位置に配置した前記物体モデルにより得られる基準投影像上に、前記部分画像を前記投影条件に基づいて写像した基準部分画像と、同じく前記基準投影像上に前記参照画像を写像した基準参照画像とが互いに重複する共通領域を求め、当該共通領域において前記基準部分画像と前記基準参照画像とを比較して前記物体位置を判定する。この本発明の画像監視装置の好適な態様は、前記物体判定手段が、前記候補位置と、前記参照画像の取得に際して配置された前記物体モデルの位置とのうち視点位置からの距離が遠い方を前記基準位置に設定する画像監視装置である。 In another image monitoring apparatus according to the present invention, the object determination unit maps the partial image on the reference projection image obtained by the object model arranged at the reference position based on the projection condition. Similarly, a common area where a standard reference image obtained by mapping the reference image on the standard projection image overlaps is obtained, and the object position is determined by comparing the standard partial image and the standard reference image in the common area. judge. In a preferred aspect of the image monitoring apparatus according to the present invention, the object determination unit determines the candidate position and the position of the object model arranged at the time of acquiring the reference image that is farther from the viewpoint position. The image monitoring apparatus is set to the reference position.
別の本発明に係る画像監視装置においては、前記物体判定手段が、前記部分モデルに高さ方向に層をなして複数の水平帯状領域を設定し、前記共通領域を前記水平帯状領域と対応する複数の小領域に分割し、当該小領域毎に前記基準部分画像と前記基準参照画像とを比較する。 In another image monitoring apparatus according to the present invention, the object determination unit sets a plurality of horizontal strip regions in the height direction on the partial model, and the common region corresponds to the horizontal strip region. The image is divided into a plurality of small areas, and the standard partial image and the standard reference image are compared for each small area.
本発明によれば、隠蔽が少ない参照画像を保持できるので、対象物体が移動して隠蔽状態が変化しても隠蔽部分の画像情報が参照画像から失われず、対象物体の検出や追跡の精度が向上する。 According to the present invention, since a reference image with a small concealment can be held, even if the target object moves and the concealment state changes, the image information of the concealment portion is not lost from the reference image, and the accuracy of detection and tracking of the target object is improved. improves.
また、本発明によれば、部分画像と参照画像とのいずれか一方において隠蔽されている領域を除いて比較するので、部分画像と参照画像との互いに対応する領域(共通領域)に基づく比較が行われ、対象物体の検出や追跡の精度が向上する。 Further, according to the present invention, since the comparison is performed except for the area concealed in either the partial image or the reference image, the comparison based on the mutually corresponding areas (common areas) of the partial image and the reference image is performed. This improves the accuracy of target object detection and tracking.
また、部分画像と参照画像とのうち視点からの距離が近く解像度が高い一方の画像を、距離が遠く解像度が低い他方の画像に合わせて変換するので、解像度を揃えて比較することができる。すなわち、解像度が高い画像が有する高周波成分により生じる誤差を低減した比較が行われ、対象物体の検出や追跡の精度が向上する。 In addition, since one of the partial images and the reference image that has a short distance from the viewpoint and a high resolution is converted in accordance with the other image that has a long distance and a low resolution, comparison can be made with the same resolution. That is, a comparison in which an error caused by a high-frequency component included in an image with high resolution is reduced is performed, and the accuracy of detection and tracking of the target object is improved.
また、同一構成部分内の高さ方向に複数の異なる画像特徴が分布している対象物体をも精度良く判定できる。 It is also possible to accurately determine a target object in which a plurality of different image features are distributed in the height direction within the same component.
以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、例えば、ビルのエントランスや金融機関のATMコーナー等の監視空間にて対象物として人を検出・追跡する。画像監視装置1はさらに、その追跡結果に基づいて、例えば、長時間滞留する不審人物を検出し、異常を報知する等の処理を行うように構成されている。
Hereinafter, an
図1は、実施形態に係る画像監視装置1のブロック構成図である。画像監視装置1は、撮像部2、操作部3、記憶部4、制御部5及び出力部6を含んで構成される。
FIG. 1 is a block configuration diagram of an
撮像部2は、監視カメラであり、監視空間内に設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は制御部5へ出力される。以下、撮像部2の撮像タイミングを時刻と称する。監視空間をX,Y,Z軸からなる直交座標系で表し、鉛直上方をZ軸の正方向に設定すると、XY平面内での人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では撮像部2は、監視カメラの光軸を鉛直下方(Z軸負方向)に向けて天井に設置される。
The
操作部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。
The
記憶部4は、RAM、ROM、ハードディスク等の記憶装置であり、制御部5に接続される。記憶部4は、制御部5で使用されるプログラムやデータを記憶する。これに記憶されるデータには、物体情報40、移動軌跡41、及び撮像条件42が含まれる。
The
物体情報40は、監視空間内に検出された対象物体に関する情報であり、対象物体ごとに識別可能に記憶される。物体情報40は、物体モデル400、参照画像401、参照画像隠蔽度402、参照画像取得位置404を含む。
The
物体モデル400は、対象物体を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。画像監視装置1が監視対象とする対象物体は人であり、本実施形態では、例えば、人の構成部分として頭部、胴部、脚部の3つが設定される。また、各構成部分の立体形状を近似的に表す部分モデルとして、長軸が鉛直方向に設定され短軸が水平方向に設定された楕円を鉛直軸(Z軸)の周りに回転させて得られる回転楕円体を用いる。図2には、XYZ空間内での物体モデル400が模式的に示されている。物体モデル400は、脚部の部分モデルの下端を床面又は地表面等の基準面(Z=0)に接地し、その脚部の部分モデルの上に胴部、頭部の部分モデルを順にZ軸方向に積み重ねた配置関係を有する。基準面から頭部中心までの高さh、胴部の最大幅w(胴部短軸直径)は対象物体毎に設定する。高さhに対する頭部中心から胴部中心までの長さ、頭部中心から脚部中心までの長さ、頭部長軸半径、胴部長軸半径及び脚部長軸半径それぞれの比と、幅wに対する頭部短軸半径及び脚部短軸半径それぞれの比とは、各対象物体に共通の値に設定する。このようにして物体モデル400の高さ及び幅が対象物体毎に設定され、これにより、後述する隠蔽状態の推定及び各構成部分の画像抽出が対象物体の体格差の影響を受けにくくなり、精度良い抽出処理が可能となる。なお、撮像部2との位置関係から、頭部は他の構成部分に隠蔽されにくく、監視画像に良好に現れることから、頭部中心を基準としている。
The
参照画像401は対象物体を特徴付ける画像情報である。参照画像401は、対象物体それぞれについて、構成部分毎に記憶される。追跡の過程で撮像部2により撮像された画像から各対象物体の各構成部分の画像(部分画像)が抽出され、当該部分画像のうち後述の処理に従い選択されたものが参照画像401として記憶される。以下、構成部分pの参照画像401をFpと表す。
The
参照画像隠蔽度402は、参照画像401の隠蔽状態の度合いを表すデータであり、参照画像401のそれぞれに対応して記憶される。具体的には、構成部分pについて他の構成部分が存在しなければ撮像されたであろう画像のうち、他の構成部分に隠れて参照画像Fpに現れていない部分の割合が当該構成部分pの参照画像隠蔽度402である。以下、参照画像Fpの参照画像隠蔽度402をEpと表す。追跡の過程で部分画像の抽出と共に推定される隠蔽度のうち、参照画像Fpとされる部分画像に対応するものが参照画像隠蔽度Epとして記憶される。
The reference
参照画像取得位置404は、対象物体のそれぞれの参照画像401が取得されたときの当該対象物体の位置であり、参照画像401のそれぞれに対応して記憶される。
The reference
移動軌跡41は、各対象物体の位置(以下、物体位置)の履歴である。物体位置は頭部中心の3次元座標とする。
The
撮像条件42は、撮像部2が監視空間を透視投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが、画像監視装置1の使用に際して予め操作部3から入力され、記憶部4に格納される。
The
撮像条件42は、監視空間に仮想的に置かれた物体モデル400を撮像部2の撮像面に投影する処理に用いられる。例えば、公知のピンホールカメラモデル等のカメラモデルに撮像条件42を適用して、監視空間の任意の位置座標を監視画像の座標系へ変換する座標変換式や、監視画像内の任意の位置座標を監視空間の座標系へ変換する座標変換式を設定できる。図2は、当該座標変換を説明する模式図であり、XYZ座標系で定義される監視空間70に配置した物体モデル400と撮像面71上の投影像との間の変換を示している。
The
上記座標変換式を用いると、監視空間70内の位置Q0に仮想配置された物体モデル400を撮像面71へ投影でき(図中の矢印73)、投影像として2次元画像72aを得ることができる。また、上記座標変換式を用いると、撮像面71から監視空間70への逆射影を行うことができ、これにより、監視画像上の2次元画像72aが、位置Q0に置かれた物体モデル400の表面に投影され(図中の矢印74)、2次元画像72aのテクスチャが物体モデル400の表面に貼り付けられた3次元テクスチャを得ることができる。
Using the above coordinate conversion formula, the
さらに、上記座標変換式を用いると、位置Q0と対応する位置にある監視画像上の2次元画像72aを、監視空間70内の別の位置Q1と対応する監視画像上の位置に写像することができる。この写像は、2次元画像72aを位置Q0に仮想配置された物体モデル400の表面に投影し(図中の矢印74)、この物体モデル400を位置Q1に移動又は複製した後(図中の矢印75)、撮像面71へ投影する(図中の矢印76)ことで実現される。
Furthermore, using the coordinate conversion formula, the two-
制御部5は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、撮像部2、記憶部4及び出力部6と接続される。制御部5は、記憶部4からプログラムを読み出して実行し、物体像抽出手段50、追跡手段52、異常判定手段54として機能する。制御部5は、撮像部2から入力される監視画像を画像処理して物体の追跡、不審者の検出等を行い、不審者を検出すると異常信号を出力部6へ出力する。
The
物体像抽出手段50は、撮像部2により得られた監視画像から対象物体の物体像を抽出し、抽出された物体像の情報を物体判定手段526へ出力する。具体的には、物体像抽出手段50は、対象物体が映っていないと判断する監視画像を背景画像に設定し、記憶部4に格納する。そして、物体像抽出手段50は、撮像部2から監視画像を入力されると、当該監視画像と背景画像との差分処理を行い、背景画像に存在しない像を検出し、検出した像のうち所定値以上の大きさを有する像を物体像として抽出する。ここで、所定値はノイズによる像を除去するための閾値であり、予め設定される。
The object
追跡手段52は、監視画像内に参照画像401と一致する像を同定することにより時刻毎に対象物体を検出し、移動軌跡を生成する。追跡手段52は、位置予測手段520、部分画像抽出手段522、物体判定手段526及び物体情報更新手段528を含んで構成される。
The tracking means 52 detects the target object at each time by identifying an image that matches the
位置予測手段520は、移動軌跡41(過去の物体位置)に等速運動モデル等の運動モデル、又はカルマンフィルタ等の予測フィルタを適用することにより、現時刻における物体位置を予測する。位置予測手段520は、運動モデル又は予測フィルタにより直接的に得られる現時刻の予測位置に加え、その周りに、運動の変化による予測の誤りを吸収するために複数の予測位置をさらに設定する。その際、中心の予測位置を最頻値とする正規分布等の確率関数を設定し、確率の高い領域ほど予測位置を密に分布させることが好ましい。なお、対象物体は基準面に接地して立っているとの拘束条件から予測位置の高さには物体モデル400の高さhを設定する。
The
部分画像抽出手段522は、位置予測手段520から対象物体の位置を入力されると、監視空間70内の当該位置に物体モデル400を仮想的に配置し、撮像条件42を用いて物体モデル400を撮像部2の撮像面71に投影する。また、部分画像抽出手段522は、各構成部分に対応する部分モデルの投影像と重なる監視画像の一部を当該構成部分の部分画像として抽出するとともに、構成部分間での部分モデルの投影像の重複関係から各構成部分の隠蔽度を算出する。以下、構成部分pに対応して抽出される部分画像をfp、構成部分pについて算出される隠蔽度をepと表す。
When the position of the target object is input from the
部分画像抽出手段522による処理が行われるのは次の3つの場合であり、それぞれの場合にて、部分画像抽出手段522に入力される位置には違いがある。第1の場合は、新規出現した物体の物体情報40を生成する場合であり、この場合には、物体像抽出手段50が物体像を抽出した位置が入力される。第2の場合は、物体の同定を行う場合であり、この場合には、位置予測手段520により設定された予測位置が入力される。第3の場合は、物体情報40を更新する場合であり、この場合には、物体判定手段526により決定された物体の現在位置が入力される。
The processing by the partial
図3は、部分画像抽出手段522の処理の説明図である。図3を参照して、部分画像抽出手段522の処理を詳細に説明する。 FIG. 3 is an explanatory diagram of the processing of the partial image extraction means 522. With reference to FIG. 3, the process of the partial image extraction means 522 is demonstrated in detail.
まず、撮像条件42を用いて撮像面に各部分モデルを単独で投影し、隠蔽がない場合の各構成部分の投影像の全体領域80を演算する。これにより、頭部の全体領域80a、胴部の全体領域80b、脚部の全体領域80cが求められる。
First, each partial model is independently projected on the imaging surface using the
次に、各構成部分について当該構成部分よりも撮像部2に近い構成部分の部分モデルを投影し、監視画像上で当該構成部分を隠蔽し得る領域である隠蔽領域81を演算する。本実施形態では、各構成部分と撮像部2との距離は頭部・胴部・脚部の順に近く、この順序は予め設定しておくことができる。頭部の部分モデルに対しては、それより投影線上、手前の他の部分モデルはないので、隠蔽領域は存在しない。一方、胴部の部分モデルに対しては、頭部の部分モデルが手前に位置するので、その投影像が胴部に対する隠蔽領域81bとなる。また、脚部の部分モデルに対しては、頭部及び胴部の部分モデルが手前に位置するので、それらの投影像が脚部に対する隠蔽領域81cとなる。
Next, a partial model of a constituent part closer to the
なお、上記順序は、撮像部2と各部分モデルとの距離を算出して比較することによって判定してもよい。また、隠蔽領域81はさらに当該対象物体より手前に位置する他の対象物体の部分モデルが投影された領域を減じて演算することもできる。
The order may be determined by calculating and comparing the distance between the
続いて、各構成部分の全体領域80から当該構成部分の隠蔽領域81との重複部分を除くことにより、監視画像上で現に当該構成部分を観測可能な領域である観測領域82(部分モデル可視領域)を演算する。その結果、頭部に対しては隠蔽を生じていない観測領域82aが得られ、一方、胴部、脚部については楕円の一部が隠蔽された形状の観測領域82b,82cが得られる。
Subsequently, by removing an overlapping portion with the concealment area 81 of the component part from the entire region 80 of each component part, an observation region 82 (partial model visible region) that is actually an area where the component part can be observed on the monitoring image. ) Is calculated. As a result, an
部分画像抽出手段522は、監視画像のうち、こうして求められた各構成部分の観測領域82と重なる部分を各構成部分毎の部分画像として抽出する。また、各構成部分について、次式に示すように、全体領域80の面積S1から観測領域82の面積S2を減じた値を全体領域80の面積S1で除することで隠蔽度epを算出する。
ep=(S1−S2)/S1 ………(1)
The partial
e p = (S1−S2) / S1 (1)
部分画像抽出手段522は、物体の同定を行う場合には、位置予測手段520から入力される予測位置を対象物体が存在し得る監視空間内の候補位置として、当該候補位置に、物体モデル400を仮想的に配置して、部分画像fp及び隠蔽度epを求める。
When identifying the object, the partial
物体判定手段526は、部分画像抽出手段522により抽出された部分画像fpと参照画像Fpとを画像特徴について構成部分p毎に比較し、その比較結果を対象物体を構成する複数の構成部分について統合して統合類似度Uを算出する。そして、当該統合類似度Uが所定の判定基準を満たした場合に、候補位置に参照画像と同じ対象物体が存在すると判定する。そして、当該候補位置を対象物体の物体位置と定め、当該対象物体の移動軌跡41に追加記憶させる。
The
具体的には、まず、物体判定手段526は、部分画像抽出手段522により抽出された現時刻の部分画像fpから画像特徴量を抽出し、これと、追跡対象物体の画像情報として記憶部4に記憶されている参照画像401から抽出される画像特徴量とを構成部分p毎に比較して、その比較結果として構成部分毎の類似度upを算出する。例えば、部分画像fpを分析して色ヒストグラムをhfpを算出し、また、参照画像Fpを分析して色ヒストグラムをhFpを算出し、例えば、次式で定義するように両者のユークリッド距離に−1を乗じた値をupとして用いることができる。なお、Σは色ヒストグラムの全要素に関する総和を意味する。
up≡−Σ‖hFp−hfp‖2 ………(2)
Specifically, first, the
u p ≡−Σ‖h Fp −h fp ‖ 2 (2)
次に物体判定手段526は、対象物体毎に各構成部分の類似度upを加算することにより、各対象物体についての上述の統合類似度Uを算出する。そして、統合類似度Uを予め定めた閾値と比較し、Uが閾値以上であれば、現時刻に抽出された物体像が参照画像401の対象物体と同一であると判定する。
Next, the
構成部分毎の類似度upは当該部分に関する画像部分のみを精度良く抽出した上述の部分画像fpを用いて算出されたものであるので、当該upを統合して物体像の同定を行うことで、構成部分間で隠蔽が生じる場合であっても高精度の同定が可能となる。 Since the similarity u p per component are those calculated by using the partial image f p above that only the image portion relating to the partial accurately extracted, performs identification of the object image by integrating the u p As a result, even when concealment occurs between components, high-precision identification is possible.
ここで、物体判定手段526は、次式に示すように、構成部分p毎に算出した信頼度gpで、部分類似度upを重み付けし、重み付けされた構成部分p毎の類似度を統合して統合類似度Uを算出するように構成できる。ここで次式のΣはpについての総和、すなわち、構成部分(頭部、胴部、脚部)について合計することを意味する。こうすることで、信頼度が高い構成部分ほど同定に大きく寄与させることができ、物体像を高精度に同定できる。
U≡Σgpup ………(3)
Here, as shown in the following equation, the
U≡Σg p u p ……… (3)
信頼度gpは隠蔽度ep、参照画像隠蔽度Epの関数として予め設定される。信頼度gpの一例は、次式で定義されるgpである。
gp≡αmax(Ep,ep)+β (但し、α>0,β≧0) ………(4)
Reliability g p is degree of hiding ep, is preset as a function of the reference image concealment of E p. An example of reliability g p is the g p defined by the following equation.
g p ≡αmax (E p , e p ) + β (where α> 0, β ≧ 0) ……… (4)
ちなみに、(4)式の信頼度gpを用いることで、部分類似度upが部分画像fpと参照画像Fpとのうち、部分画像fpの隠蔽度epと参照画像隠蔽度Epとのいずれか高い方、すなわち情報量が少ない方の画像に対応した信頼性しか有していないことを考慮に入れた同定が行われる。 Incidentally, (4) By using the reliability g p of equation among partial similarity u p is the reference image F p and the partial image f p, the partial image f p hiding degree e p and the reference image concealment degree E Identification is performed in consideration of having only the reliability corresponding to the image that is higher of p , that is, the image with the smaller amount of information.
ここで、比較される部分画像fpと参照画像Fpとは、一般的には、互いに異なる物体位置に置かれた物体モデルや対象物体によるものであり、画像の形状や隠蔽状態が異なる。そして、隠蔽状態が異なるもの同士を比較すると、比較結果に誤差が含まれやすい。つまり、部分画像fpと参照画像Fpとの一方のみで隠蔽されており他方で隠蔽されていない領域は、比較結果の精度を低下させる。そこで、撮像条件42を用いて部分画像fpと参照画像Fpとを、互いに共通の位置(基準位置)に対象物体又は物体モデルが存在するとした場合の形状に座標変換して、変換後の両画像fp,Fp内の同じ位置を構成部分内の共通の位置に対応付ける。そして、座標変換後の部分画像fp(基準部分画像)と座標変換後の参照画像Fp(基準参照画像)とを互いに重ね合わせて、重複する共通領域を求め、求められた共通領域において上記比較を行う。これによって、部分画像fpと参照画像Fpとの一方のみで隠蔽されている領域を除いた比較が行われるので、比較結果の精度を向上させることができる。
Here, the partial image f p and the reference image F p to be compared are generally based on object models and target objects placed at different object positions, and the shapes and concealment states of the images are different. And when things with different concealment states are compared, an error is likely to be included in the comparison result. That is, an area that is hidden by only one of the partial image f p and the reference image F p and not hidden by the other reduces the accuracy of the comparison result. Therefore, the reference image F p with partial image f p using the
図4,図5は、部分画像fpと参照画像Fpとを基準位置に配置した共通の物体モデルにより得られる基準投影像上に座標変換する具体例を説明する模式図である。 4, FIG. 5 is a schematic diagram illustrating a specific example of the coordinate conversion on the reference projection images obtained by the common object model of arranging the reference image F p with partial image f p to the reference position.
図4に示す例では、基準位置は、参照画像取得位置404に記憶されている物体位置QRに設定される。部分画像fp(像90)を参照画像取得位置404(位置QR)に置かれた物体モデルの投影像に射影して射影像92を生成する。この像92は参照画像Fp(像91)の位置に射影される。そして、当該射影像92と参照画像Fp(像91)との共通領域を算出し、共通領域における射影像92の色ヒストグラムhfpと参照画像Fpの色ヒストグラムhFpを比較する。像90から像92への射影をより詳細に説明すると、位置QIの物体モデル400aの投影像である像90を、当該物体モデルへ逆投影し(逆投影ステップ)、当該物体モデルを位置QRへ座標変換する(移動ステップ)。この物体モデルの座標変換は、位置QIの物体モデル400aにて撮像部2に向いている面が位置QRへの移動後も撮像部2に向くように、撮像部2の光軸を中心とする回転移動と光軸からの距離方向の並進移動とを合成した変換により行うのが好適である。物体モデル400aを位置QRに移動後、これを撮像部2の撮像面71に投影して(投影ステップ)、射影像92を得ることができる。これら逆投影ステップ、移動ステップ及び投影ステップは、図4(a)にて太い矢印で表されている。図4(b)は、像90,92における各部分画像fpと、像91における参照画像Fpとを模式的に示している。
In the example shown in FIG. 4, the reference position is set to the object position Q R stored in the reference
図5に示す例では、基準位置は、部分画像fpの投影元となる物体モデル400bの位置、すなわち候補位置QIに設定される。参照画像Fp(像91)を、位置QIに置かれた物体モデル400bの投影像に射影して射影像93を生成する。この像93は部分画像fp(像90)の位置に射影される。そして、当該射影像93と部分画像fp(像90)との共通領域を算出し、共通領域における射影像93の色ヒストグラムhFpと部分画像fpの色ヒストグラムhfpを比較する。像91から像93への射影は、図4に示す場合とは逆向きに行われ、その一連の逆投影ステップ、移動ステップ及び投影ステップは、図5(a)にて太い矢印で表されている。図5(b)は、像91,93における各参照画像Fpと、像90における部分画像fpとを模式的に示している。
In the example shown in FIG. 5, the reference position, the position of the
また、部分画像fpと参照画像Fpとの比較を監視空間70の座標系にて行うことも可能である。図6は、部分画像fp及び参照画像Fpをそれぞれ監視空間70に配置された物体モデル400a,400bに逆投影して、それら物体モデル間にて部分画像fp及び参照画像Fpを比較する例を説明する模式図である。この場合には、部分画像fp(像90)を候補位置(位置QI)に仮想配置した物体モデル400aに逆投影して3次元テクスチャ94を算出し、参照画像Fp(像91)を参照画像取得位置404(位置QR)に仮想配置した物体モデル400bに逆投影して3次元テクスチャ95を算出し、2つの物体モデル400a及び400bを重ね合わせて共通領域を算出し、共通領域における色ヒストグラムを比較する。図6(a)は像90,91から物体モデル400a,400bへの逆投影を示す模式図であり、図6(b)は、部分画像fpに対応する3次元テクスチャ94と参照画像Fpに対応する3次元テクスチャ95との模式図である。
Further, the comparison between the partial image f p and the reference image F p can be performed in the coordinate system of the
ここで、部分画像抽出手段522により抽出された部分画像fpと参照画像Fpとの間の比較誤差は解像度の違いによっても生じる。すなわち、解像度が高いものと低いものとを比較すると解像度が高い側の色ヒストグラムにのみ存在する高周波成分が比較誤差の要因となる。解像度は対象物体と撮像部2との間の距離が遠いほど低くなる。そこで、撮像条件42及び参照画像取得位置404から、撮像部2と参照画像取得位置404の間の距離dRを、撮像条件42及び予測位置(候補位置)から撮像部2と予測位置との問の距離dIをそれぞれ算出し、これら距離を比較し、距離が遠い側へ射影して上記比較を行う。すなわち、部分画像と参照画像とのうち視点からの距離が近く解像度が高い一方画像を、距離が遠く解像度が低い他方画像に合わせて変換するので、解像度を揃えて比較することができる。これにより、解像度が高い画像が有する高周波成分により生じる誤差を低減した比較が行われ、対象物体の検出や追跡の精度が向上する。
Here, the comparison error between the partial image f p extracted by the partial image extraction means 522 and the reference image F p also occurs due to a difference in resolution. That is, when a high resolution is compared with a low resolution, a high frequency component existing only in the color histogram on the higher resolution side causes a comparison error. The resolution decreases as the distance between the target object and the
具体的には、dR≦dIの場合は、図5を用いて説明したように、参照画像Fpを予測位置に対応した像へ射影し、dR>dIの場合は、図4を用いて説明したように、部分画像fpを参照画像取得位置404に対応した像へ射影する。これにより解像度の違いにより生じる比較誤差が低減され、比較結果の精度を向上させることができる。
Specifically, when d R ≦ d I , as described with reference to FIG. 5, the reference image F p is projected onto the image corresponding to the predicted position, and when d R > d I , FIG. as described with reference to, projected to the image corresponding to the partial image f p to the reference
ここで、対象物体には、短いスカートや短パンを着用した人物のように1つの構成部分内に複数の特徴が層をなして分布しているものもある。そこで、物体モデル400を構成する部分モデルの表面に高さ方向に層をなして複数の水平帯状領域を設定し、当該水平帯状領域を撮像面71に投影した投影像に対応させて、共通領域を複数の小領域に分割し、小領域ごとの色ヒストグラムを比較する。これにより、構成部分内において画像特徴が層状に分布している対象物体を精度よく判定できる。
Here, there is a target object in which a plurality of features are distributed in a single component, such as a person wearing a short skirt or short pan. Therefore, a plurality of horizontal belt-like regions are set in the height direction on the surface of the partial model constituting the
なお、監視画像上において、物体モデル400の高さh方向は、監視画像の中心と参照画像取得位置404に対応する点或いは予測位置に対応する点を結ぶ直線の方向として特定できる。また、上記直線は監視空間70に仮想配置された物体モデル400の最下端と最上端を結ぶ直線を監視画像に投影することによって求めることもできる。ちなみに、監視空間70において、高さh方向は鉛直方向である。
On the monitoring image, the height h direction of the
また、小領域への分割は、小領域の高さを固定値として分割してもよいし、小領域の数を固定値として分割してもよいし、監視画像上のスケールで分割してもよいし、物体モデル400上のスケールで分割してもよい。
Further, the division into small areas may be performed by dividing the height of the small area as a fixed value, dividing the number of small areas as a fixed value, or dividing the scale on the monitoring image. Alternatively, it may be divided on a scale on the
物体情報更新手段528は、物体判定手段526により位置が判定された対象物体について、判定された位置において部分画像抽出手段522により算出された隠蔽度epが参照画像隠蔽度Ep以下の場合に、物体情報40を現時刻の画像情報により更新する。逆に、隠蔽度epが参照画像隠蔽度Epを超えている場合は物体情報40の更新を行わない。
Object
物体情報40の更新では、具体的には、参照画像401として記憶されている参照画像Fpが、判定された位置において部分画像抽出手段522により抽出された部分画像fpにより上書きされる。参照画像隠蔽度402に記憶されている参照画像隠蔽度Epは、判定された位置において部分画像抽出手段522により算出された隠蔽度epにより上書きされる。また、参照画像取得位置404の記憶内容は、判定された物体位置により上書きされる。
In the update of the
例えば、図7のように監視画像に映る対象物体の像が像100,101,102,103,104と順に変化した場合、最も隠蔽度が小さい像101に基づいた物体情報が記憶される。この場合、像104が得られたときに、もし一時刻前の像103が参照画像として記憶されていれば脚部の類似度が低下するが、本実施形態の画像監視装置1によれば、像101が参照画像として記憶されており、これにより類似度の低下を防ぐことができる。すなわち、過去に最も隠蔽度が小さかったときの物体情報40が保持されるので、隠蔽状態が変化して隠蔽されている領域が広がっても、その部分の情報が参照画像401から失われることを防止できる。そのため、過去に取得された最大限の情報を用いて物体判定ができ、隠蔽による追跡の失敗を最小限に抑えることができる。
For example, as shown in FIG. 7, when the image of the target object shown in the monitoring image changes in order of the
また、物体情報更新手段528は、物体像抽出手段50により抽出された物体像の中に、物体判定手段526により判定された対象物体の位置のいずれにも存在しない物体像があるとき、当該物体像に関する新たな物体情報40を作成する。一方、部分画像抽出手段522により物体位置なしと判定された対象物体があるとき、当該対象物体の物体情報40を削除する。
Further, the object
異常判定手段54は、記憶部4に記憶されている移動軌跡41を分析して長時間滞留している物体(不審者)が存在すれば異常と判定して出力部6に異常信号を出力する。具体的には、移動軌跡41のそれぞれに含まれる位置データの数を計数して所定数以上(例 えば10分間相当以上)の位置データを含む移動軌跡41があれば異常と判定する。
The
出力部6は、センタ装置等の外部装置と通信線により接続され、外部装置へ異常信号を送信する通信回路を備える。
The
次に、画像監視装置1の動作について説明する。図8は、画像監視装置1の動作の概略のフロー図である。
Next, the operation of the
監視空間が無人であることを確認して管理者が電源を投入すると、画像監視装置1の各部、各手段が動作を開始し、所定の初期化が行われる(S10)。このとき、制御部5は撮像部2からの監視画像を背景画像として記憶部4に記憶させる。
When the administrator turns on the power after confirming that the monitoring space is unattended, each unit and each means of the
続いて、制御部5は記憶部4に撮像条件42が設定されているかを確認し(S15)、設定されていなければ管理者による操作部3からの撮像条件42の入力を受け付け、入力された撮像条件42を記憶部4に格納する(S20)。その後、撮像部2から制御部5へ監視画像が新たに入力されるたびにS25〜S75の一連の処理が繰り返される。
Subsequently, the
まず、制御部5は撮像部2が新たに撮像した監視画像を取得し(S25)、制御部5の物体像抽出手段50は取得された監視画像を、記憶部4に記憶されている背景画像と比較して物体像(人物像)を抽出する(S30)。
First, the
続く物体位置判定処理において制御部5の追跡手段52は、監視画像中に参照画像401が表す対象物体の像を同定することにより、対象物体の現在位置を判定する(S35)。
In the subsequent object position determination process, the
図9は物体位置判定処理S35の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の位置予測手段520は、対象物体の移動軌跡41から当該対象物体の現在位置を予測して、各対象物体それぞれについて複数の予測位置を設定する(S350)。
FIG. 9 is a schematic flowchart of the object position determination process S35, and the process will be described using this. The position predicting means 520 of the
追跡手段52は各対象物体の予測位置(分布の中心位置)と撮像部2との距離を求め、求めた距離が近い対象物体から順に処理対象に設定し(S351)、処理対象の対象物体について処理S352〜S385を行う。
The
処理S352〜S384は、処理対象として選択された対象物体の複数の予測位置についてのループ処理となっており、予測位置が順次設定され(S352)、当該設定された予測位置に関して処理S353〜S380が行われる。 Processes S352 to S384 are a loop process for a plurality of predicted positions of the target object selected as a process target. The predicted positions are sequentially set (S352), and processes S353 to S380 are performed for the set predicted positions. Done.
まず、制御部5の部分画像抽出手段522は、処理対象の予測位置に物体モデル400を配置して撮像部2の撮像面71に投影することにより各構成部分に対応する部分画像fpを抽出し(S353)、抽出した部分画像fpのそれぞれについて隠蔽度epを算出する(S354)。
First, the partial
次に、制御部5の物体判定手段526は、S354にて算出された隠蔽度ep、及び参照画像隠蔽度Epを(4)式に代入して信頼度gpを算出する(S355)。
Then, the
続いて、制御部5の物体判定手段526は、処理S353にて抽出された部分画像fpを参照画像Fpと比較して部分類似度upを算出する(S360)。
Subsequently, the
図10は、部分類似度算出処理S360の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の物体判定手段526は、各構成部分を順次処理対象に設定して(S361)、処理対象の構成部分について処理S361〜S370を行う。
FIG. 10 is a schematic flowchart of the partial similarity calculation process S360, and the process will be described using this. The
まず、制御部5の物体判定手段526は、参照画像取得位置404と撮像条件42の一部として記憶されている撮像部2の設置位置とから両者の間の距離dRを算出し(S362)、さらに図9の処理S352にて処理対象に設定された予測位置と撮像部2の位置とから両者の間の距離dIを算出し(S363)、距離dRと距離dIとを比較する(S364)。
First, the
距離dRが距離dI以下であれば(S364にてYES)、部分画像fpの方が低解像度であるとして参照画像Fpを予測位置に対応した像へ射影し、(S365)、射影像と部分画像fpとの共通領域を算出する(S366)。 If the distance d R is the distance d I or less (YES in S364), partial towards the image f p is projected onto the image of the reference image F p corresponding to the predicted position as a low resolution, (S365), morphism It calculates a common region of the shadow image and a partial image f p (S366).
一方、距離dRが距離dIより大きければ(S364にてNO)、参照画像Fpの方が低解像度であるとして部分画像fpを参照画像取得位置404に対応した像へ射影し、(S367)、射影像と参照画像Fpとの共通領域を算出する(S368)。
On the other hand, if distance d R is larger than distance d I (NO in S364), partial image f p is projected onto an image corresponding to reference
こうして共通領域が算出されると、共通領域において色ヒストグラムを比較して部分類似度upを算出する(S369)。 Thus the common area is calculated, to calculate the partial similarity u p by comparing the color histograms in the common region (S369).
以上の処理が全構成部分について終了すると(S370にてYES)、処理は図9の処理S380へ進む。 When the above process ends for all components (YES in S370), the process proceeds to process S380 in FIG.
図9のフローチャートに戻り、物体位置判定処理の続きを説明する。 Returning to the flowchart of FIG. 9, the continuation of the object position determination process will be described.
制御部5の物体判定手段526は、部分類似度算出処理S360にて算出された部分類似度upを、処理S355にて算出された信頼度gpにより重み付け加算し、統合類似度Uを算出する(S380)。こうして処理対象の物体に設定された全予測位置について統合類似度Uが算出されると(S381にてYES)、制御部5の物体判定手段526は、最大の統合類似度Uを選択し、選択した統合類似度Uが予め設定された基準値以上であるか否かを判定する(S382)。
Object determining means 526 of the
基準値以上であれば(S382にてYES)最大の統合類似度Uが算出された予測位置に存在する画像情報を処理対象の物体の像と同定し、当該予測位置を処理対象の物体の物体位置と判定する(S383)。 If it is equal to or greater than the reference value (YES in S382), the image information existing at the predicted position where the maximum integrated similarity U is calculated is identified as the image of the object to be processed, and the predicted position is the object of the object to be processed. The position is determined (S383).
一方、基準値未満であれば(S382にてNO)処理対象の物体を同定せず、処理対象の物体を消失して物体位置は不明と判定する(S384)。 On the other hand, if it is less than the reference value (NO in S382), the object to be processed is not identified, the object to be processed is lost, and the object position is determined to be unknown (S384).
以上の処理を全ての物体について終えると(S385にてYES)、制御部5は処理を図8の処理S40へ戻す。
When the above process is completed for all objects (YES in S385),
再び図8を参照して全体処理の続きを説明する。 The continuation of the entire process will be described with reference to FIG. 8 again.
物体位置判定処理が終わると、制御部5の物体判定手段526は、判定された物体位置を記憶部4の移動軌跡41に追加記憶させる(S40)。なお、処理S30にて抽出された物体像の中に物体位置判定処理S35にて判定された物体位置に存在しない物体像があれば、当該物体像が示す物体位置を新規物体の情報として移動軌跡41に記憶させる。
When the object position determination process ends, the
続いて、制御部5の物体情報更新手段528は、次時刻における物体位置判定処理に備えて物体情報40の更新を行う(S45)。
Subsequently, the object
図11は、物体情報更新処理S45の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の物体情報更新手段528は、物体情報40が表す各物体を処理対象に順次、設定し(S450)、処理対象の物体について処理S451〜S456を行う。
FIG. 11 is a schematic flowchart of the object information update process S45, and the process will be described using this. The object
まず、制御部5の物体情報更新手段528は、処理対象の物体が図9の処理S383にて物体位置が判定された物体であるか否かを確認し(S451)、物体位置が判定された物体でなければ消失物体であるとして当該物体の物体情報40を削除する(S452)。
First, the object
一方、物体位置が判定された物体であれば、制御部5の物体情報更新手段528は、各構成部分を順次、処理対象に設定し(S453)、処理対象の構成部分pについて図9のS354にて算出された隠蔽度epと参照画像隠蔽度Epとを比較し(S454)、隠蔽度epが参照画像隠蔽度Epより小さければ(S454にてYES)、処理対象の構成部分pについて物体情報40の更新を行う(S455)。
On the other hand, if the object position is determined, the object
すなわち、処理S455にて制御部5の物体情報更新手段528は、参照画像Fpを、判定された物体位置において図9の処理S353にて抽出された部分画像fpに書き換え、参照画像隠蔽度Epを隠蔽度epに書き換え、参照画像取得位置404を、判定された物体位置に書き換える。このように、隠蔽度が最も小さいときの物体情報を保持することで、隠蔽の大小によらない高精度な物体同定が可能になる。
That is, the processing object information updating means 528 of the
以上の更新を全構成部分について終え(S456にてYES)、さらに全対象物体について終えると(S457にてYES)、処理S458へ移行する。 When the above update is completed for all components (YES in S456) and for all target objects (YES in S457), the process proceeds to process S458.
処理S458にて制御部5の物体情報更新手段528は、図8の処理S30にて抽出された物体像の中に図9のS383にて判定された物体位置のいずれにも存在しない物体像があるか否かを確認する。該当する物体像があれば、新規に出現した物体であるとして、当該物体像の画像情報から新たな物体情報40を作成する(S459)。
In process S458, the object
すなわち、当該物体像内に複数の探索位置を設定し、各探索位置に物体モデル400の全身を投影し、投影像と物体像の形状を比較する。比較の結果、最も形状が一致する探索位置を物体位置に決定する。
That is, a plurality of search positions are set in the object image, the whole body of the
そして、決定した物体位置を部分画像抽出手段522に与えて部分画像の抽出と隠蔽度の算出とを行わせ、抽出された各部分画像を参照画像Fp、算出された各隠蔽度を参照画像隠蔽度Ep、物体位置を参照画像取得位置404としてそれぞれ記憶部4に記憶させる。
Then, the determined object position is given to the partial image extracting means 522 to perform extraction of the partial image and calculation of the concealment degree, and each extracted partial image is referred to as the reference image F p , and each calculated concealment degree is referred to as the reference image. The concealment degree E p and the object position are stored in the
また、このとき、物体モデル400の高さ及び幅を、標準的な対象物体の高さ及び幅を基準とする所定範囲内で複数設定して探索を行い、最も形状が一致する高さ及び幅を新たな物体情報の物体モデル400の高さh及び幅wとする。
At this time, the height and width of the
こうして物体情報更新処理が終了すると、制御部5は処理を図8の処理S55へ戻す。
When the object information update process ends in this way, the
再び図8を参照して全体処理の続きを説明する。 The continuation of the entire process will be described with reference to FIG. 8 again.
物体情報更新処理を終えると、制御部5は、全物体が消失しているか否かを確認する(S55)。全物体が消失している場合(S55にてYES)、制御部5の物体像抽出手段50は記憶部4に記憶されている背景画像を監視画像により更新する(S60)。その後、制御部5は処理をS25へ戻す。
When the object information update process is finished, the
一方、1以上の物体が存在する場合(S55にてNO)、制御部5の異常判定手段54は、移動軌跡41を分析して異常な移動軌跡41を有する物体が存在するか否かを判定し(S65)、異常があれば(S70にてYES)異常判定手段54は出力部6に異常を判定された物体の位置及び監視画像を含む異常信号を出力する(S75)。異常信号が入力された出力部6は該信号をセンタ装置へ送信する。センタ装置は異常信号に含まれる情報を表示して監視員へ異常を報知し、表示を見た監視員は不審者の排除などの対処を行う。
On the other hand, when one or more objects exist (NO in S55),
一方、異常が判定されない場合(S70にてNO)、処理S75はスキップされる。 On the other hand, when abnormality is not determined (NO in S70), process S75 is skipped.
以上の処理が終了すると、制御部5は処理を再びS25へ戻す。
When the above process ends, the
上述の実施形態では、部分画像抽出手段522が隠蔽度を算出する例を示したが、これに代えて非隠蔽度を算出してもよい。非隠蔽度は、各構成部分について、当該構成部分の全体領域の面積に対する当該構成部分の観測領域の面積の比(S2/S1)として算出できる。この場合、物体情報更新手段528は非隠蔽度が高い場合に物体情報40を更新すればよい。
In the above-described embodiment, the example in which the partial
また、上述の実施形態では、統合類似度Uが最大の候補位置を物体位置と判定した。別の実施形態では、統合類似度Uが判定基準を満たした複数の候補位置を平均して、或いは統合類似度Uにより重み付け平均して、物体位置を算出する。 In the above-described embodiment, the candidate position having the maximum integrated similarity U is determined as the object position. In another embodiment, the object position is calculated by averaging a plurality of candidate positions for which the integrated similarity U satisfies the determination criterion or by averaging the candidate positions using the integrated similarity U.
また、画像特徴量は、色ヒストグラムに限らず、輝度ヒストグラム、エッジ強度のヒストグラム、エッジ方向のヒストグラム、又はテクスチャなど種々の画像特徴量を採用することができる。2以上の画像特徴量を組み合わせても良い。 The image feature amount is not limited to a color histogram, and various image feature amounts such as a luminance histogram, an edge intensity histogram, an edge direction histogram, or a texture can be employed. Two or more image feature amounts may be combined.
1 画像監視装置、2 撮像部、3 操作部、4 記憶部、5 制御部、6 出力部、40 物体情報、41 移動軌跡、42 撮像条件、50 物体像抽出手段、52 追跡手段、54 異常判定手段、400 物体モデル、401 参照画像、402 参照画像隠蔽度、404 参照画像取得位置、520 位置予測手段、522 部分画像抽出手段、526 物体判定手段、528 物体情報更新手段。
DESCRIPTION OF
Claims (4)
前記監視画像、及び前記監視空間内の位置を入力され、当該位置に前記物体モデルを仮想的に配置して前記投影条件に基づき透視投影を行い、前記部分モデル毎に、その投影像のうち前記透視投影にて手前に位置する他の前記部分モデルによる隠蔽領域を除いた部分モデル可視領域と、前記隠蔽領域による当該投影像の隠蔽度とを求めると共に、前記監視画像から当該部分モデル可視領域に対応する部分を前記対象物体の前記構成部分毎の部分画像として抽出する部分画像抽出手段と、
前記対象物体が存在し得る候補位置での前記部分画像と前記参照画像とを複数の前記候補位置について比較し、比較一致した候補位置に基づいて、前記対象物体が存在する物体位置を判定する物体判定手段と、
前記物体位置での前記隠蔽度が前記参照画像隠蔽度以下である前記構成部分について、前記参照画像及び前記参照画像隠蔽度を、当該隠蔽度及び当該物体位置での前記部分画像で更新する物体情報更新手段と、
を有することを特徴とする画像監視装置。 A projection condition for a surveillance image obtained by perspective projection of the surveillance space, a partial model representing a three-dimensional shape for each of a plurality of constituent parts of the target object to be monitored, and an arrangement relationship between the partial models. A storage unit for storing an object model, a reference image for each component of the target object, and a reference image concealment degree;
The monitoring image and a position in the monitoring space are input, the object model is virtually arranged at the position, and perspective projection is performed based on the projection condition, and for each partial model, the projection image The partial model visible region excluding the concealed region by the other partial model positioned in front by perspective projection and the concealment degree of the projected image by the concealed region are obtained, and the partial image visible region from the monitoring image is obtained. Partial image extraction means for extracting a corresponding portion as a partial image for each component of the target object;
An object that compares the partial image at the candidate position where the target object can exist and the reference image with respect to a plurality of candidate positions, and determines an object position where the target object exists based on the candidate positions that have been compared and matched A determination means;
Object information for updating the reference image and the reference image concealment degree with the concealment degree and the partial image at the object position for the constituent part in which the concealment degree at the object position is equal to or less than the reference image concealment degree Update means;
An image monitoring apparatus comprising:
前記物体判定手段は、基準位置に配置した前記物体モデルにより得られる基準投影像上に、前記部分画像を前記投影条件に基づいて写像した基準部分画像と、同じく前記基準投影像上に前記参照画像を写像した基準参照画像とが互いに重複する共通領域を求め、当該共通領域において前記基準部分画像と前記基準参照画像とを比較して前記物体位置を判定すること、を特徴とする画像監視装置。 The image monitoring apparatus according to claim 1,
The object determination means includes a reference partial image obtained by mapping the partial image on the basis of the projection condition on a reference projection image obtained by the object model arranged at a reference position, and the reference image on the reference projection image. An image monitoring apparatus, comprising: obtaining a common area in which a reference reference image mapped with each other overlaps and determining the object position by comparing the reference partial image and the reference reference image in the common area.
前記物体判定手段は、前記候補位置と、前記参照画像の取得に際して配置された前記物体モデルの位置とのうち視点位置からの距離が遠い方を前記基準位置に設定すること、を特徴とする画像監視装置。 The image monitoring apparatus according to claim 2,
The object determination unit sets the reference position as a distance that is farther from a viewpoint position, out of the candidate position and the position of the object model that is arranged when the reference image is acquired. Monitoring device.
前記物体判定手段は、前記部分モデルに高さ方向に層をなして複数の水平帯状領域を設定し、前記共通領域を前記水平帯状領域と対応する複数の小領域に分割し、当該小領域毎に前記基準部分画像と前記基準参照画像とを比較すること、を特徴とする画像監視装置。 In the image monitoring apparatus according to claim 2 or 3,
The object determining means sets a plurality of horizontal strip regions in the height direction of the partial model, divides the common region into a plurality of small regions corresponding to the horizontal strip regions, And comparing the reference partial image with the reference reference image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008210280A JP5027758B2 (en) | 2008-08-19 | 2008-08-19 | Image monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008210280A JP5027758B2 (en) | 2008-08-19 | 2008-08-19 | Image monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010049297A JP2010049297A (en) | 2010-03-04 |
JP5027758B2 true JP5027758B2 (en) | 2012-09-19 |
Family
ID=42066353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008210280A Expired - Fee Related JP5027758B2 (en) | 2008-08-19 | 2008-08-19 | Image monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5027758B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5667846B2 (en) * | 2010-11-15 | 2015-02-12 | セコム株式会社 | Object image determination device |
JP2012155595A (en) * | 2011-01-27 | 2012-08-16 | Secom Co Ltd | Target object image determination device |
JP5594672B2 (en) * | 2011-04-14 | 2014-09-24 | 株式会社 日立産業制御ソリューションズ | Object recognition apparatus and object recognition method |
KR101505557B1 (en) | 2013-08-30 | 2015-03-25 | 고려대학교 산학협력단 | Device and method for processing occlusion of each object in pen |
JP6166705B2 (en) * | 2014-09-29 | 2017-07-19 | セコム株式会社 | Object identification device |
JP6924064B2 (en) * | 2016-06-21 | 2021-08-25 | キヤノン株式会社 | Image processing device and its control method, and image pickup device |
JP6851241B2 (en) * | 2017-03-31 | 2021-03-31 | セコム株式会社 | Image analyzer |
CN111753601B (en) * | 2019-03-29 | 2024-04-12 | 华为技术有限公司 | Image processing method, device and storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005351814A (en) * | 2004-06-11 | 2005-12-22 | Konica Minolta Holdings Inc | Detector and detecting method |
JP4900204B2 (en) * | 2007-11-22 | 2012-03-21 | 株式会社Ihi | Object recognition method |
-
2008
- 2008-08-19 JP JP2008210280A patent/JP5027758B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010049297A (en) | 2010-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10417503B2 (en) | Image processing apparatus and image processing method | |
JP5027758B2 (en) | Image monitoring device | |
JP5487298B2 (en) | 3D image generation | |
JP5027741B2 (en) | Image monitoring device | |
JP5180733B2 (en) | Moving object tracking device | |
JP5687082B2 (en) | Moving object tracking device | |
JP6816058B2 (en) | Parameter optimization device, parameter optimization method, program | |
WO2016199244A1 (en) | Object recognition device and object recognition system | |
JP2019075156A (en) | Method, circuit, device, and system for registering and tracking multifactorial image characteristic and code executable by related computer | |
KR20080020595A (en) | Human detection and tracking for security applications | |
CN111144213B (en) | Object detection method and related equipment | |
WO2022127181A1 (en) | Passenger flow monitoring method and apparatus, and electronic device and storage medium | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
JP5147760B2 (en) | Image monitoring device | |
JP5687035B2 (en) | Person tracking device | |
JP5667846B2 (en) | Object image determination device | |
KR101469099B1 (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
JP5552069B2 (en) | Moving object tracking device | |
US20220366716A1 (en) | Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program | |
JP6336935B2 (en) | Moving object tracking device | |
JP6504711B2 (en) | Image processing device | |
JP6548683B2 (en) | Object image estimation device and object image determination device | |
CN117994737B (en) | Monitoring alarm system and method for intelligent building site management and control platform | |
US20230368528A1 (en) | Method and device for setting a value of an object property in a sequence of metadata frames corresponding to a sequence of video frames | |
JP6548682B2 (en) | Object image judgment device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120605 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120622 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150629 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5027758 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |