JP6548683B2 - Object image estimation device and object image determination device - Google Patents
Object image estimation device and object image determination device Download PDFInfo
- Publication number
- JP6548683B2 JP6548683B2 JP2017032054A JP2017032054A JP6548683B2 JP 6548683 B2 JP6548683 B2 JP 6548683B2 JP 2017032054 A JP2017032054 A JP 2017032054A JP 2017032054 A JP2017032054 A JP 2017032054A JP 6548683 B2 JP6548683 B2 JP 6548683B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- model
- candidate
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009434 installation Methods 0.000 claims description 80
- 239000013598 vector Substances 0.000 claims description 51
- 238000003384 imaging method Methods 0.000 claims description 24
- 230000036544 posture Effects 0.000 description 65
- 238000012544 monitoring process Methods 0.000 description 57
- 238000012545 processing Methods 0.000 description 45
- 230000008859 change Effects 0.000 description 30
- 238000000034 method Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 17
- 238000000605 extraction Methods 0.000 description 17
- 239000007787 solid Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000005856 abnormality Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 239000013256 coordination polymer Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 206010011985 Decubitus ulcer Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、画像における対象物の像が現れている対象物可視領域を推定する対象物画像推定装置および対象物画像判定装置に関し、特に什器等の設置物により画像上で隠蔽され得る対象物の可視領域を推定する装置に関する。 The present invention relates to an object image estimation device and an object image determination device for estimating an object visible region in which an image of an object in an image appears, and in particular to an object that can be concealed on the image by an installation object such as a fixture. The present invention relates to an apparatus for estimating a visible region.
監視空間を撮像した監視画像から人物などの監視対象物の像を抽出したり、当該像の画像特徴に基づいて監視対象物の存在を判定したり追跡したりすることが行われている。監視画像においては常に監視対象物の全体像が観測できるとは限らず、監視空間内の什器や柱、さらには他の人物などによりその一部がしばしば隠蔽される。この隠蔽は監視対象物の観測される大きさや色成分などの画像特徴を変動させるため、検知失敗や追跡失敗の原因となる。 Extracting an image of a monitoring target such as a person from a monitoring image obtained by imaging the monitoring space, or determining or tracking the presence of the monitoring target based on the image feature of the image is performed. In the surveillance image, the entire image of the surveillance object can not always be observed, and a part of the surveillance image is often concealed by fixtures or columns in the surveillance space, or by another person or the like. This concealment changes image features such as observed size and color components of the monitored object, which causes detection failure and tracking failure.
そこで、三次元のモデルを用いて隠蔽をシミュレートすることにより監視画像において隠蔽されていない監視対象物の領域(対象物可視領域)を推定し、対象物可視領域の画像特徴から対象物の像の存在を判定することにより画像特徴の変動による検知失敗や追跡失敗を防ぐことが行われている。 Therefore, by simulating concealment using a three-dimensional model, the area of the monitored object (object visible area) not concealed in the surveillance image is estimated, and the image of the object is derived from the image features of the object visible area. It is performed to prevent detection failure and tracking failure due to fluctuation of image features by determining the presence of
また、このシミュレーションにおける三次元のモデルの投影処理は処理負荷が大きくリアルタイムでの検知や追跡を困難化させるため、事前の投影処理により処理負荷の低減が図られている。 In addition, since the processing load of the three-dimensional model in the simulation is large and the detection and tracking in real time are difficult, the processing load is reduced by the projection processing in advance.
例えば、特許文献1,2に記載の対象物画像判定装置では、人物等の対象物、および監視空間の設置物それぞれについて予め三次元モデルの投影を行って、対象物モデル像および設置物モデル像それぞれと床面座標との対応関係、並びに設置物により隠蔽が生じる床面位置のマップを生成して記憶部に格納しておき、人物位置が隠蔽位置であれば、当該人物位置に対応する対象物モデル像から設置物モデル像との重複部分を除外して対象物可視領域を求める。
For example, in the object image determination apparatus described in
しかしながら、従来技術では、立位の人物のように奥行きの幅が無視できる物体を監視対象物としており、倒れている人物(臥位の人物)のように手前と奥とで隠蔽状況が異なり得る監視対象物に対する推定精度が低下していた。 However, in the prior art, an object whose depth width can be ignored such as a standing person is a monitoring target object, and the concealing situation may be different between the front and the back like a fallen person (person in recumbent position) The estimation accuracy for the monitored object was reduced.
さらに、従来技術では、設置物ごとのモデル投影像や床面座標ごとの対応関係を格納していたため、監視空間の複雑さや広さに応じて記憶容量を増やさなければならず、また、設置物のレイアウト変更等に際して事前処理の手間が大きくなるという問題があった。 Furthermore, in the prior art, since the model projection image for each installation and the correspondence for each floor coordinate are stored, it is necessary to increase the storage capacity according to the complexity and the size of the monitoring space. There has been a problem that the time required for pre-processing is increased when changing the layout of the image.
すなわち、従来技術では、床面上の隠蔽位置と当該位置に立つ二次元の設置物モデル像とを対応付けていたため、カメラから見て奥行き方向に凹凸のある複雑な設置物については、隠蔽位置を複数設定して隠蔽位置ごとに異なる設置物のモデル像を記憶させなくてはならなかった。 That is, in the prior art, since the concealed position on the floor surface is associated with the two-dimensional installation object model image standing at the position, the concealed position for a complex installation having unevenness in the depth direction when viewed from the camera The model image of a different installation must be stored for each concealed position by setting a plurality of.
また、従来技術では、設置物ごとに設置物モデル像を記憶させていたため、設置物の数が増加すると、設置物モデル像を記憶させるための容量を増やさなければならなかった。 Further, in the prior art, since the installation object model image is stored for each installation object, when the number of installation objects increases, it is necessary to increase the capacity for storing the installation object model image.
また、従来技術では、監視空間内での位置ごとに隠蔽の有無および設置物モデル像との対応関係を記憶させていたため、監視空間の広さに応じて隠蔽の有無および設置物モデル像との対応関係を記憶させるための容量を増やさなければならなかった。 Further, in the prior art, since the presence / absence of concealment and the correspondence relationship with the installation object model image are stored for each position in the surveillance space, the presence / absence of the concealment and the installation object model image We had to increase the capacity to store correspondences.
本発明は上記問題を鑑みてなされたものであり、臥位の人物のように奥行きの長い姿勢を含めて、複数の姿勢をとり得る監視対象物の非隠蔽領域を高精度に推定できる対象物画像推定装置および、監視対象物の像の存在を高精度に判定できる対象物画像判定装置を提供することを目的とする。また、本発明は、監視空間の複雑さや広さが増しても設置物について必要な記憶容量の変わらない対象物画像推定装置および対象物画像判定装置を提供することを別の目的とする。 The present invention has been made in view of the above problems, and is an object that can accurately estimate a non-hidden region of a monitored object that can take a plurality of postures, including a posture with a long depth such as a recumbent person An object of the present invention is to provide an image estimation device and an object image determination device capable of determining the presence of an image of a monitored object with high accuracy. Another object of the present invention is to provide an object image estimation device and an object image determination device in which the storage capacity required for the installation does not change even if the complexity and the size of the monitoring space increase.
(1)本発明に係る対象物画像推定装置は、撮影手段により所定の三次元空間を撮影した画像において対象物の像が現れている対象物可視領域を、前記三次元空間における前記対象物の立体モデルを用いて推定する装置であって、前記撮影手段の視線ベクトルの2種類の射影距離として、当該視線ベクトルをそれぞれ水平面及び鉛直軸へ正射影した像の長さである水平距離及び鉛直距離を定義し、前記画像の各画素に対応付けて、当該画素に対応する前記視線ベクトルの前記三次元空間内の設置物までの2種類の前記射影距離を設置物距離として記憶した設置物距離記憶手段と、前記対象物の候補姿勢、及び当該対象物が存在し得る前記三次元空間内の候補位置を設定する候補設定手段と、前記候補位置における前記候補姿勢での前記立体モデルを前記画像の座標系に投影したモデル像を出力するモデル像出力手段と、前記射影距離の種類のうち前記候補姿勢に対し予め定められた少なくとも1つの指定種類について、前記候補位置までの前記視線ベクトルの前記射影距離をモデル距離として算出するモデル距離算出手段と、前記立体モデルの前記モデル像を構成する画素のうち、当該画素の前記指定種類の前記設置物距離が当該立体モデルの当該指定種類の前記モデル距離以上である画素を対象物可視画素と推定する可視領域推定手段と、を有する。 (1) The object image estimation apparatus according to the present invention is an object visual estimation area in which an image of an object appears in an image obtained by capturing a predetermined three-dimensional space by an imaging unit. An apparatus for estimating using a three-dimensional model, wherein horizontal distance and vertical distance, which is the length of an image obtained by orthogonally projecting the eye vector onto the horizontal plane and the vertical axis, as two types of projection distance of the eye vector of the photographing means Storage of the installation object distance stored as the installation object distance, in correspondence with each pixel of the image, the projection distance of the eye vector corresponding to the pixel to the installation object in the three-dimensional space Means, candidate postures of the object, and candidate setting means for setting candidate positions in the three-dimensional space in which the object may exist; Model image outputting means for outputting a model image obtained by projecting the image data onto the coordinate system of the image; and at least one designated type predetermined for the candidate posture among The model distance calculating means for calculating the projection distance of the line-of-sight vector as a model distance, and of the pixels constituting the model image of the solid model, the installation object distance of the designated type of the pixel is the specification of the solid model And a visible area estimation unit configured to estimate a pixel that is equal to or more than the model distance of a type as an object visible pixel.
(2)上記(1)に記載の対象物画像推定装置において、前記対象物は人であり、前記候補姿勢が立位に設定された場合に対して、前記指定種類の前記射影距離として前記水平距離が定められている構成とすることができる。 (2) In the object image estimation device according to (1), the object is a person, and the horizontal direction is the projection distance of the designated type when the candidate posture is set to the standing position. A distance can be set.
(3)上記(1)および(2)に記載の対象物画像推定装置において、前記対象物は人であり、前記候補姿勢が臥位に設定された場合に対して、前記指定種類の前記射影距離として前記鉛直距離が定められている構成とすることができる。 (3) In the object image estimation device according to the above (1) and (2), the projection of the designated type with respect to the case where the object is a human and the candidate posture is set in a recumbent position The vertical distance may be set as the distance.
(4)本発明に係る対象物画像判定装置は、上記(1)から(3)のいずれか1つに記載の対象物画像推定装置と、前記画像における前記対象物可視画素の画像特徴から前記対象物の像の存在を判定する対象物判定手段と、を有する。 (4) The object image determination apparatus according to the present invention is the object image estimation apparatus according to any one of the above (1) to (3), and the image features of the object visible pixels in the image. Object determination means for determining the presence of an image of an object.
本発明によれば、複数の姿勢をとり得る監視対象物について、その像の存在を高精度に判定できる。また、本発明によれば、監視空間の複雑さや広さが増しても設置物について必要な記憶容量を増やすことなく、監視対象物の像の存在を高速かつ高精度に判定できる。 According to the present invention, it is possible to determine with high accuracy the presence of an image of a monitored object capable of taking a plurality of postures. Further, according to the present invention, the presence of the image of the object to be monitored can be determined at high speed and with high accuracy without increasing the storage capacity required for the installation even if the complexity and the size of the monitoring space increase.
以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、什器が配置された部屋等のように設置物が存在する屋内外の三次元空間を監視対象の空間とすることができ、当該監視空間内を移動する人物を追跡対象物(以下、対象物と称する)とする。移動物体追跡装置1は監視空間を撮像した監視画像を処理して対象物の検出・追跡を行う。什器等の監視空間内の設置物は対象物のように移動せず予めその設置位置が判っている。設置物の他の例としては柱や給湯器などがある。設置物は画像処理の観点からは対象物の像を隠蔽し得る遮蔽物である。なお、注目している対象物以外の対象物も遮蔽物となり得る。 Hereinafter, a moving object tracking device 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described based on the drawings. The moving object tracking device 1 can set the indoor and outdoor three-dimensional space in which the installation object is present, such as a room in which the fixtures are arranged, as the monitoring target space, and the person moving in the monitoring space is the tracking target It is an object (hereinafter referred to as an object). The moving object tracking device 1 processes a surveillance image obtained by imaging a surveillance space to detect and track an object. The installation object in the monitoring space such as furniture does not move like an object, and its installation position is known in advance. Other examples of the installation include pillars and water heaters. The installation is a shield that can hide the image of the object from the viewpoint of image processing. In addition, objects other than the object of interest may also be shielding objects.
[移動物体追跡装置1の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮影部2、記憶部3、画像処理部4および出力部5を含んで構成される。撮影部2、記憶部3および出力部5は画像処理部4に接続される。
[Configuration of Moving Object Tracking Device 1]
FIG. 1 is a block diagram of a moving object tracking device 1 according to the embodiment. The moving object tracking device 1 is configured to include an
撮影部2は、監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、画像処理部4へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮影部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮影部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。
The photographing
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部3は、各種プログラムや各種データを記憶し、画像処理部4との間でこれらの情報を入出力する。各種データには、対象物や設置物のモデルに関するデータや、カメラパラメータが含まれる。
The
画像処理部4はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、撮影部2、記憶部3および出力部5に接続される。画像処理部4は記憶部3からプログラムを読み出して実行することで後述する各手段として機能する。
The
出力部5は警告音を出力するスピーカー又はブザー等の音響出力手段、異常が判定された監視画像を表示する液晶ディスプレイ又はCRT等の表示手段などを含んでなり、画像処理部4からアラーム信号が入力されると異常発生の旨を外部へ出力する。また、出力部5は通信回線を介してアラーム信号を警備会社の監視センタに設置されたセンタ装置へ送信する通信手段を含んでもよい。
The
図2は移動物体追跡装置1の概略の機能ブロック図である。図2に示す構成において、記憶部3は設置物距離記憶手段30として機能する。また、画像処理部4は仮説設定手段40、モデル像出力手段41、モデル距離算出手段42、可視領域推定手段43、対象物判定手段44および異常判定手段45として機能する。
FIG. 2 is a schematic functional block diagram of the moving object tracking device 1. In the configuration shown in FIG. 2, the
仮説設定手段40(候補設定手段)は、過去に判定された各対象物の物体位置又は過去に設定された各対象物の候補位置から動き予測を行なって、新たに入力される監視画像において対象物が存在する位置を予測し、その予測された位置(候補位置)をモデル像出力手段41およびモデル距離算出手段42へ出力する。
The hypothesis setting means 40 (candidate setting means) performs motion prediction from the object position of each object determined in the past or the candidate position of each object set in the past, and the object is selected in the newly input monitoring image The position where the object exists is predicted, and the predicted position (candidate position) is output to the model
例えば、位置の予測はパーティクルフィルタなどと呼ばれる方法を用いて行うことができる。当該方法は、各対象物に対して多数(その個数をPで表す。例えば1対象物あたり200個)の候補位置を順次設定して確率的に対象物の位置(物体位置)を判定するものであり、設定される候補位置は仮説などと呼ばれる。候補位置は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間の直交座標系(XYZ座標系)で設定する。動き予測は過去の物体位置に所定の運動モデルを適用するか(下記(1))、又は過去の候補位置に所定の運動モデルを適用すること(下記(2))で行なわれる。 For example, position prediction can be performed using a method called a particle filter or the like. In this method, a large number of (the number is represented by P, for example, 200 per object) is sequentially set for each object to determine the position (object position) of the object stochastically. The candidate positions to be set are called hypotheses and the like. The candidate position may be set in the xy coordinate system of the monitoring image, but in the present embodiment, it is set in the rectangular coordinate system (XYZ coordinate system) of the monitoring space. The motion prediction is performed by applying a predetermined motion model to a past object position ((1) below) or applying a predetermined motion model to a past candidate position ((2) below).
(1)物体位置からの予測
注目時刻より前のT時刻分(例えばT=5)の物体位置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の物体位置に加算して注目時刻における物体位置を予測する。予測された物体位置を中心とする所定範囲にランダムにP個の候補位置を設定する。この方法では、過去T時刻分の物体位置が記憶部3に循環記憶される。
(1) Prediction from Object Position An average velocity vector is calculated from the object position at T time (for example, T = 5) before the target time. The average velocity vector is added to the object position one time before to predict the object position at the target time. P candidate positions are randomly set in a predetermined range centered on the predicted object position. In this method, the object position for the past T time is cyclically stored in the
(2)候補位置からの予測
注目時刻より前のT時刻分(例えばT=5)の候補位置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の候補位置に加算して注目時刻における新たな候補位置を予測する。予測はP個の候補位置それぞれに対し行ない、新たな候補位置とその元となった過去の候補位置には同一の識別子を付与して循環記憶する。なお、1時刻前の候補位置のうちその尤度が予め設定された尤度閾値より低いものは削除する。一方、この削除分を補うために、削除した個数と同数の1時刻前の新たな候補位置を1時刻前の予測された物体位置を中心とする所定範囲にランダムに設定し、これらの候補位置と対応する2時刻前以前の候補位置を過去の物体位置の運動に合わせて外挿し求める。そのために過去の候補位置に加えて、過去T時刻分の物体位置も記憶部3に循環記憶させる。
(2) Prediction from candidate position An average velocity vector is calculated from candidate positions at T time (for example, T = 5) before the target time. The average velocity vector is added to the candidate position one time before to predict a new candidate position at the target time. The prediction is performed for each of the P candidate positions, and the new identifier position and the original candidate position in the past are assigned the same identifier and circularly stored. Among candidate positions one time earlier, those whose likelihood is lower than a likelihood threshold set in advance are deleted. On the other hand, in order to compensate for this deletion, new candidate positions one time earlier as many as the deleted number are randomly set within a predetermined range centered on the predicted object position one time ago, and these candidate positions And the corresponding candidate positions before 2 hours are extrapolated according to the motion of the object position in the past. Therefore, in addition to the past candidate positions, the object position for the past T time is also circularly stored in the
なお、新規の対象物が検出された場合は、仮説設定手段40は、その検出位置を中心とする所定範囲にランダムにP個の候補位置を設定する。
When a new object is detected, the
また、仮説設定手段40は候補姿勢を仮説に含める。例えば、各対象物の仮説の半数についての候補姿勢に、立っている姿勢(立位)を設定し、残りの半数についての候補姿勢に、倒れている姿勢(臥位)を設定する。 In addition, the hypothesis setting means 40 includes candidate postures in the hypothesis. For example, a standing posture (standing position) is set to the candidate postures for half of the hypotheses of each object, and a falling posture (falling posture) is set to the candidate postures for the other half.
あるいは、仮説設定手段40は、変化画素のまとまり(変化領域)の形状や移動速度の大きさ等に基づき現在の姿勢が予測できる対象物については、予測した姿勢の仮説を他の姿勢の仮説よりも多く設定することもできる。例えば、追跡中の人物のうち、その候補位置周辺に鉛直方向に長い形状の変化領域が抽出されている人物については、9割の仮説の候補姿勢に立位を設定し、残り1割の候補姿勢に臥位を設定する。 Alternatively, for an object whose current posture can be predicted based on the shape of a group of change pixels (change region), the size of movement speed, etc., the hypothesis setting means 40 predicts the predicted posture hypothesis from the hypothesis of other postures. You can also set many. For example, for the person being tracked, a standing posture is set to the candidate posture of 90% of the hypotheses, and the remaining 10% of the candidates are the persons whose change region having a long shape in the vertical direction is extracted around the candidate position. Set posture to posture.
モデル像出力手段41は、候補位置での対象物の立体モデルを監視画像の座標系に投影したモデル像を可視領域推定手段43に出力する。図3はモデル像出力手段41の機能ブロック図であり、モデル像出力手段41の2種類の構成例を示している。図3に示す構成において、立体モデル記憶手段300、カメラパラメータ記憶手段301およびモデル像記憶手段302は記憶部3により実現され、モデル像生成手段420およびモデル像読み出し手段421は画像処理部4により実現される。
The model
図3(A)に示すモデル像出力手段41は、対象物の可視領域の推定処理の都度、立体モデルを投影してモデル像を生成する形態であり、立体モデル記憶手段300、カメラパラメータ記憶手段301およびモデル像生成手段420でなる。立体モデル記憶手段300は対象物の立体モデルを記憶しており、また、カメラパラメータ記憶手段301は撮影手段のカメラパラメータを記憶している。モデル像生成手段420は立体モデル記憶手段300およびカメラパラメータ記憶手段301から立体モデルおよびカメラパラメータを読み出す。そして、モデル像生成手段420はカメラパラメータを用いて候補位置での対象物の立体モデルを監視画像の座標系に投影してモデル像を生成し出力する。
The model image output means 41 shown in FIG. 3A is a form of projecting a three-dimensional model to generate a model image each time estimation processing of a visible region of a target object is performed. Three-dimensional model storage means 300, camera parameter storage means 301 and model image generation means 420. The three-dimensional model storage means 300 stores a three-dimensional model of the object, and the camera parameter storage means 301 stores camera parameters of the photographing means. The model image generation means 420 reads the three-dimensional model and the camera parameters from the three-dimensional model storage means 300 and the camera parameter storage means 301. Then, the model
図3(B)に示すモデル像出力手段41は、立体モデルを事前に投影したモデル像を読み出す形態であり、モデル像記憶手段302およびモデル像読み出し手段421でなる。モデル像記憶手段302は三次元空間内の各位置でのモデル像を記憶しており、モデル像読み出し手段421は候補位置に対応して記憶されているモデル像をモデル像記憶手段302から読み出して出力する。 The model image output means 41 shown in FIG. 3B has a form for reading out a model image obtained by projecting a three-dimensional model in advance, and comprises a model image storage means 302 and a model image readout means 421. The model image storage means 302 stores a model image at each position in the three-dimensional space, and the model image readout means 421 reads out from the model image storage means 302 the model image stored corresponding to the candidate position. Output.
あるいは、これらの中間的形態として、三次元空間内の代表位置でのモデル像を記憶しておき、候補位置の代表位置との関係に応じて代表位置でのモデル像に拡大・縮小などの変形処理を施すことによって候補位置のモデル像を生成し出力することもできる。 Alternatively, a model image at a representative position in a three-dimensional space is stored as an intermediate form of these, and the model image at the representative position is modified such as enlargement / reduction according to the relationship with the representative position of the candidate position. It is also possible to generate and output a model image of a candidate position by performing processing.
モデル距離算出手段42は仮説設定手段40から仮説として候補位置および候補姿勢を入力され、撮影手段から候補位置までの射影距離を算出し、射影距離を可視領域推定手段43に出力する。ここで、候補姿勢ごとに、監視空間である三次元空間において立体モデルの長手方向の主軸ベクトルが定義される線形部分空間を主軸ベクトル空間と称すると、射影距離とは、撮影手段の視線ベクトルの主軸ベクトル空間に直交する成分の大きさと定義する。モデル距離算出手段42が算出する射影距離は、撮影手段であるカメラの視点を始点とし候補位置を終点とする視線ベクトルについての距離である。この撮影手段から候補位置までの射影距離を、後述する撮影手段から設置物までの視線ベクトルについての射影距離と区別するために、モデル距離と称する。 The model distance calculation means 42 receives candidate positions and candidate postures as hypotheses from the hypothesis setting means 40, calculates a projection distance from the photographing means to the candidate position, and outputs the projection distance to the visible area estimation means 43. Here, assuming that a linear subspace in which a major axis vector in the longitudinal direction of a solid model is defined in a three-dimensional space which is a monitoring space is referred to as a major axis vector space for each candidate posture, the projection distance is It is defined as the size of the component orthogonal to the principal axis vector space. The projection distance calculated by the model distance calculation means 42 is a distance with respect to a sight line vector having the viewpoint of the camera as the photographing means as a start point and the candidate position as an end point. The projection distance from the photographing means to the candidate position is referred to as a model distance in order to distinguish it from the projection distance for the sight line vector from the photographing means described later to the installation.
したがってモデル距離算出手段42は仮説設定手段40から入力される対象物の候補姿勢に応じてモデル距離の種類を切り替える。図4は候補姿勢に応じたモデル距離の具体的な定義を説明するための監視空間の模式図であり、図4(A)は透視図であり、図4(B)はYZ平面に沿った断面図である。以下、候補姿勢が立位の場合と、臥位の場合とを順次説明する。 Therefore, the model distance calculation means 42 switches the type of model distance according to the candidate postures of the object input from the hypothesis setting means 40. FIG. 4 is a schematic view of the monitoring space for explaining the specific definition of the model distance according to the candidate posture, FIG. 4 (A) is a perspective view, and FIG. 4 (B) is along the YZ plane. FIG. Hereinafter, the case where the candidate posture is standing and the case where the candidate is recumbent will be sequentially described.
(1)候補姿勢が立位の場合
立位の人の立体モデル600の主軸601はZ軸に平行な方向すなわち鉛直方向であるから、主軸ベクトルは鉛直方向の直線である一次元空間に束縛され、これが主軸ベクトル空間となる。この場合、主軸601に対する垂直面であるXY平面が主軸ベクトル空間の直交補空間であり、このXY平面上での視線ベクトルの大きさが射影距離となる。ここでは射影距離を、視線ベクトルを水平面610(図4の例では監視空間である部屋の床面)に正射影した像の大きさで定義する。よってモデル距離算出手段42は鉛直な主軸601を有する立体モデル600に対して撮影手段から候補位置P1までの水平距離dHM1をモデル距離として算出する。
(1) When the candidate posture is standing position The
直交座標系XYZで表した三次元空間内における撮影手段の位置Cの座標を(XC,YC,ZC)、立位の人の候補位置P1の座標を(X1,Y1,Z1)とすると、モデル距離である水平距離dHM1は次式で与えられる。
dHM1={(X1−XC)2+(Y1−YC)2}1/2 ………(1)
Coordinates of position C of the photographing means in three-dimensional space expressed in the Cartesian coordinate system XYZ (X C, Y C, Z C), standing the human a coordinate candidate position P 1 (X 1, Y 1 , Assuming that Z 1 ), the horizontal distance d HM1 which is a model distance is given by the following equation.
d HM1 = {(X 1- X C ) 2 + (Y 1- Y C ) 2 } 1/2 ... (1)
なお、モデル像読み出し手段421は、立体モデル600の厚み2W1を考慮に入れ、候補位置P1を立体モデル600の主軸601よりも撮影手段にW1だけ近い点602と定義してモデル距離を算出してもよい。当該定義は例えば、設置物に壁を含める場合に有効である。この例を含め、候補位置P1と立体モデル600との位置関係は立体モデル600の厚みの範囲で主軸601から前後させて定義可能である。なぜなら、その範囲であればモデル距離と後述する設置物距離との大小関係は保たれ、後述する可視領域推定手段43は隠蔽の有無の判定を正しく行うことができるからである。
Incidentally, the model image reading means 421, taking into account the thickness 2W 1 of the three-
(2)候補姿勢が臥位の場合
臥位の人の立体モデル620の主軸621はXY平面に平行な方向、すなわち水平方向で方位は様々であるから、主軸ベクトルは水平面である二次元空間に束縛され、これが主軸ベクトル空間となる。この場合、鉛直軸が主軸ベクトル空間の直交補空間であり、射影距離は当該鉛直軸に視線ベクトルを正射影した像の大きさである鉛直距離で定義される。
(2) When the candidate posture is recumbent The
よって、水平な主軸621を有する立体モデル620に対して、モデル距離算出手段42は撮影手段(点C)から候補位置P2までの視線ベクトルの鉛直距離dVM2をモデル距離として算出する。候補位置P2の座標を(X2,Y2,Z2)とすると、鉛直距離dVM2は次式で与えられる。
dVM2=|Z2−ZC| ………(2)
Thus, for the three-
d VM2 = | Z 2 −Z C | ......... (2)
なお、モデル距離算出手段42は、立体モデル620の厚み2W2を考慮に入れ、候補位置P2を立体モデル620の主軸621よりも撮影手段にW2だけ近い点622と定義してモデル距離を算出してもよい。当該定義は設置物に床を含める場合に有効である。この例を含め、水平距離の場合と同様の理由により、候補位置P2と立体モデル620との位置関係は立体モデル620の厚みの範囲で主軸621から前後(上下)させて定義することができる。
Incidentally, the model
撮影手段の視線ベクトルをそれぞれ水平面及び鉛直軸へ正射影した像の長さである水平距離及び鉛直距離を、視線ベクトルの2種類の射影距離とすると、上述したように、モデル距離算出手段42は射影距離の種類のうち候補姿勢に対し予め定められた少なくとも1つの指定種類について、撮影手段から候補位置までの視線ベクトルの射影距離をモデル距離として算出する。具体的には本実施形態での指定種類の射影距離は、候補姿勢が立位の場合には水平距離であり、候補姿勢が臥位の場合には鉛直距離である。 Assuming that the horizontal distance and the vertical distance, which are the lengths of the image obtained by orthogonally projecting the line-of-sight vector of the photographing means onto the horizontal plane and the vertical axis, respectively, are the two types of projection distances of the line-of-sight vector. The projection distance of the gaze vector from the photographing means to the candidate position is calculated as a model distance for at least one designated type predetermined for the candidate posture among the types of the projection distance. Specifically, the projection distance of the designated type in the present embodiment is a horizontal distance when the candidate posture is standing, and is a vertical distance when the candidate posture is recumbent.
以上、候補姿勢に応じてモデル距離を計算する方法を説明した。この方法では、水平距離および鉛直距離はいずれも立体モデルの主軸に垂直な平面に沿った距離である。すなわちいずれの候補姿勢においても、立体モデルの主軸に垂直な平面に沿った距離で、設置物による隠蔽を判断する際の立体モデルの位置を捉える。この方法の意義について図5の模式図を用いつつ説明する。 The method of calculating the model distance in accordance with the candidate posture has been described above. In this method, both the horizontal distance and the vertical distance are distances along a plane perpendicular to the major axis of the solid model. That is, in any of the candidate postures, the position of the three-dimensional model at the time of judging the concealment by the installation is captured at a distance along a plane perpendicular to the main axis of the three-dimensional model. The significance of this method will be described using the schematic diagram of FIG.
図5は図4(A)に示す立体モデル600,620の配置例における監視空間のYZ平面に沿った模式的な断面図である。立体モデル600,620に対応する候補位置P1,P2は、立体モデル600,620それぞれの水平面610上での中央に位置している。立位の立体モデル600には候補位置P1との比較のための点として主軸601に沿った方向の位置(つまりZ軸座標)が異なる点P1a,P1bを例示している。候補位置P1が立体モデル600の床との接地点であるのに対し、点P1aは立体モデル600の高さの中央に向かう視線ベクトルと立体モデル600の表面との交点であり、点P1bは立体モデル600の頭部に位置する。また臥位の立体モデル620には候補位置P2との比較のための点として主軸621に沿った方向の位置(つまりY軸座標)が異なる点P2a,P2bを例示している。候補位置P2が立体モデル620の長手方向の中央における床との接地点であるのに対し、点P2aは候補位置P2より撮影手段に近い部位である立体モデル620の頭部に向かう視線ベクトルと立体モデル620との交点であり、点P2bは候補位置P2より撮影手段から遠い部位である立体モデル620の脚部に向かう視線ベクトルと立体モデル620との交点である。
FIG. 5 is a schematic cross-sectional view along the YZ plane of the monitoring space in the arrangement example of the three-
図5に見て取れるように、カメラから対象物までの距離は視線ベクトルの向きによって変化する。換言すれば、当該距離は同一の対象物であっても監視画像における画素ごとに異なり得る。ここで、同一対象物について画素ごとに距離を計算すると処理負荷が過大となるのに対し、候補位置に関する距離を同一対象物の各画素に共通に用いれば処理負荷を軽減することができる。その一方、画素ごとに本来相違し得る距離を共通の距離に置き換えた場合、当然ながら誤差が発生し誤った隠蔽状態が推定される可能性が高くなる。 As can be seen in FIG. 5, the distance from the camera to the object varies with the orientation of the gaze vector. In other words, even if the distance is the same object, it may be different for each pixel in the monitoring image. Here, while the processing load becomes excessive if the distance is calculated for each pixel for the same object, the processing load can be reduced if the distance relating to the candidate position is commonly used for each pixel of the same object. On the other hand, when a distance which can be originally different for each pixel is replaced with a common distance, it is naturally possible that an error occurs and an erroneous concealment state is estimated.
この点に関し、本発明ではカメラから候補位置までの視線ベクトルの大きさを立体モデルの主軸に直交する方向の距離で表し、当該距離を同一対象物の各画素に共通に用いることで、上述の誤差の低減を図っている。 In this regard, in the present invention, the magnitude of the line-of-sight vector from the camera to the candidate position is represented by the distance in the direction orthogonal to the main axis of the three-dimensional model, and the distance is commonly used for each pixel of the same object. I am trying to reduce the error.
つまり、同一の対象物の立体モデルの各点への視線ベクトルの長さの違いを、視線ベクトルの鉛直方向の成分の違いからの寄与分(鉛直差寄与分とする)と水平方向の成分の違いからの寄与分(水平差寄与分とする)とに分けると、立位の立体モデル600では鉛直方向のサイズ(対象物である人物の背丈)より水平方向のサイズ(人物の幅)が小さいので、鉛直差寄与分より水平差寄与分が小さくなる。例えば、立体モデル600に対する3つの視線ベクトルCP1,CP1a,CP1bに関し、主軸601に直交する方向(図5ではY軸方向)の成分の相違は立体モデル600の厚み程度となり、主軸601に平行な方向(図5ではZ軸方向)の成分に生じる立体モデル600の高さ程度の相違より小さくなる。水平距離のように立体モデルの主軸に直交する方向の距離は、Z軸方向の成分が除去されるので、視線ベクトルそのものの長さや視線ベクトルをZ軸に正射影した像の長さなど、Z軸方向の成分を含んで定義される距離と比較して立体モデル600全体での差が小さい。よって、候補姿勢が立位の場合には例えば(1)式で与えられる候補位置P1の水平距離を同一対象物の各画素に共通に用いることで上述の誤差の低減が図れる。
That is, the difference in the length of the line-of-sight vector to each point of the solid model of the same object is the contribution from the difference in the vertical component of the line-of-sight vector (referred to as the vertical difference contribution) When divided into contributions from differences (referred to as horizontal difference contributions), in the standing three-
一方、臥位の立体モデル620では水平方向のサイズより鉛直方向のサイズが小さいので、水平差寄与分より鉛直差寄与分が小さくなる。例えば、立体モデル620に対する3つの視線ベクトルCP2,CP2a,CP2bに関し、主軸621に直交する方向(図5ではZ軸方向)の成分の相違は立体モデル620の高さ(人物の厚み)程度となり、主軸621に平行な方向(図5ではY軸方向)の成分に生じる立体モデル620の長さ(人物の背丈)程度の相違より小さくなる。鉛直距離のように立体モデルの主軸に直交する方向の距離は、Y軸方向の成分が除去されるので、視線ベクトルそのものの長さや視線ベクトルをY軸に正射影した像の長さなど、Y軸方向の成分を含んで定義される距離と比較して立体モデル620全体での差が小さい。よって、候補姿勢が臥位の場合には例えば(2)式で与えられる候補位置P2の鉛直距離を同一対象物の各画素に共通に用いることで上述の誤差の低減が図れる。
On the other hand, in the recumbent three-
設置物距離記憶手段30は監視画像の各画素に対応付けて、当該画素に対応する視線ベクトルの三次元空間内の設置物までの射影距離を記憶する。この構成では、設置物について必要な記憶容量は監視画像の画素数に応じて決まり、監視空間に存在する設置物の数、監視空間の複雑さや広さが増しても影響を受けない。
The installation object
なお、本実施形態では候補姿勢に応じて種類が異なる射影距離を用いることとしており、この場合、設置物距離記憶手段30は、候補姿勢が立位の場合に用いるために撮影手段と候補位置との水平距離を記憶し、かつ候補姿勢が臥位の場合に用いるために鉛直距離を記憶する。すなわち、設置物距離記憶手段30は監視画像の各画素に対応付けて、当該画素に対応する視線ベクトルの三次元空間内の設置物までの2種類の射影距離を設置物距離として記憶する。
In the present embodiment, different projection distances are used according to the candidate postures. In this case, the installed object distance storage means 30 uses the photographing means and the candidate positions for use when the candidate postures are standing. The horizontal distance is stored, and the vertical distance is stored for use in the case where the candidate posture is recumbent. That is, the installed object
設置物距離記憶手段30に記憶される撮影手段から設置物までの視線ベクトルに対応する水平距離又は鉛直距離を、上述した撮影手段から候補位置までの視線ベクトルについての水平距離又は鉛直距離であるモデル距離と区別するために、設置物距離と称する。
A model in which the horizontal distance or the vertical distance corresponding to the gaze vector from the photographing unit to the installation object stored in the installation object
設置物距離記憶手段30に格納する設置物距離は、設置物の三次元モデルを用いたシミュレーションによって予め算出されたものであってもよいし、三次元計測器などにより得た実測値に基づいて予め算出されたものであってもよい。 The installed object distance stored in the installed object distance storage means 30 may be calculated in advance by simulation using a three-dimensional model of the installed object, or based on an actual measurement value obtained by a three-dimensional measuring instrument or the like. It may be calculated in advance.
図6は設置物距離の具体例を説明するための模式図である。図6(A)は設置物700が存在する監視空間の透視図であり、設置物700の表面の点P3〜P5が投影された撮影面710が示されている。設置物距離記憶手段30に記憶される水平距離は監視画像の画素数と同数の水平距離群720を構成し、図6(B)は水平距離群720を監視画像と同じxy座標系での画像の形式で模式的に表している。同様に、設置物距離記憶手段30に記憶される鉛直距離は監視画像の画素数と同数の鉛直距離群730を構成し、図6(C)は鉛直距離群730を監視画像と同じxy座標系での画像の形式で模式的に表している。
FIG. 6 is a schematic view for explaining a specific example of the installed object distance. FIG. 6A is a perspective view of the monitoring space in which the
図6(A)に示すように設置物700の表面の点P3〜P5に対応する撮影面710での投影点がQ3〜Q5であり、当該投影点は水平距離群720および鉛直距離群730にて画素Q3〜Q5として示されている。図6(B)に示す水平距離群720にて画素Q3〜Q5それぞれには図6(A)に示す水平距離dHF3〜dHF5が記憶される。また、図6(B)では設置物が写っていない画素Q6の水平距離をdHF6と表している。図6(C)に示す鉛直距離群730にて画素Q3〜Q5それぞれには図6(A)に示す鉛直距離dVF3〜dVF5が記憶される。また、図6(C)では設置物が写っていない画素Q7の鉛直距離をdVF7と表している。
As shown in FIG. 6A, the projection points on the
具体的には、設置物700の表面の点P3の三次元空間における座標を(X3,Y3,Z3)とし、また撮影手段の位置Cと設置物700の表面の点P3とを結ぶ直線と撮影手段の撮影面710との交点、すなわち点P3のxy平面への投影点Q3の撮影面710における座標(すなわち画素位置)を(x3,y3)とすると、設置物距離記憶手段30には画素Q3の座標(x3,y3)に対応する水平距離dHF3、鉛直距離dVF3として、
dHF3={(X3−XC)2+(Y3−YC)2}1/2
dVF3=|Z3−ZC|
が記憶される。
Specifically, the coordinates in three-dimensional space of points P 3 of the surface of the installed
d HF 3 = {(X 3 −X C ) 2 + (Y 3 −Y C ) 2 } 1/2
d VF 3 = | Z 3 −Z C |
Is stored.
設置物700の表面の別の2点P4,P5についても同様であり、画素Q4の座標(x4,y4)に対応して設置物距離記憶手段30には水平距離dHF4、鉛直距離dVF4として、
dHF4={(X4−XC)2+(Y4−YC)2}1/2
dVF4=|Z4−ZC|
が記憶され、画素Q5の座標(x5,y5)に対応して設置物距離記憶手段30には水平距離dHF5、鉛直距離dVF5として、
dHF5={(X5−XC)2+(Y5−YC)2}1/2
dVF5=|Z5−ZC|
が記憶される。
The same applies to the other two points P 4 and P 5 on the surface of the
d HF 4 = {(X 4 −X C ) 2 + (Y 4 −Y C ) 2 } 1/2
d VF 4 = | Z 4 −Z C |
Are stored in correspondence with the coordinates (x 5 , y 5 ) of the pixel Q 5 in the installed object distance storage means 30 as the horizontal distance d HF 5 and the vertical distance d VF 5 ,
d HF 5 = {(X 5 −X C ) 2 + (Y 5 −Y C ) 2 } 1/2
d VF5 = | Z 5- Z C |
Is stored.
なお、図6(B)にて画素Q6での水平距離として例示した、対応する視線方向に設置物の無い画素の水平距離dHF6には、モデル距離よりも必ず大きくなる値を設定する。例えばdHF6の値は監視空間(撮影範囲)に入り得る線分や監視空間にて設定し得る視線ベクトルの最大長以上の値とすることができる。或いは、監視空間が部屋であれば壁を設置物に準ずるものとして扱うこともでき、その場合、dHF6は撮影手段から壁までの水平距離とすることができる。 Incidentally, exemplified as a horizontal distance in pixels Q 6 in FIG. 6 (B), the the corresponding horizontal distance of no pixel of installed objects in the viewing direction d HF 6, sets always larger than model distance. For example, the value of dHF6 can be a line segment that can enter the monitoring space (shooting range) or a value greater than the maximum length of the gaze vector that can be set in the monitoring space. Alternatively, if the monitoring space is a room, the wall can be treated as being equivalent to the installation, in which case dHF 6 can be the horizontal distance from the photographing means to the wall.
同様に、図6(C)にて画素Q7での水平距離として例示した、対応する視線方向に設置物の無い画素の鉛直距離dVF7にも、モデル距離よりも必ず大きくなる値を設定する。例えばdVF7の値は監視空間(撮影範囲)に入り得る線分や監視空間にて設定し得る視線ベクトルの最大長以上の値とすることができる。或いは、床や地面を設置物に準ずるものとして扱うこともでき、その場合、dVF7は撮影手段から床までの鉛直距離とすることができる。 Similarly, for the vertical distance d VF 7 of the pixel having no installation in the corresponding viewing direction, which is exemplified as the horizontal distance at the pixel Q 7 in FIG. 6C , a value that is necessarily larger than the model distance is set. . For example, the value of d VF 7 can be a line segment that can enter the monitoring space (photographing range) or a value greater than the maximum length of the gaze vector that can be set in the monitoring space. Alternatively, the floor or ground can be treated as conforming to the installation, in which case d VF 7 can be the vertical distance from the imaging means to the floor.
可視領域推定手段43は立体モデルのモデル像を構成する画素のうち、当該画素に対応して設置物距離記憶手段30に記憶されている設置物距離が当該立体モデルのモデル距離以上である画素を対象物可視画素と推定する。具体的には、可視領域推定手段43はモデル像出力手段41から仮説(すなわち候補位置および候補姿勢)に対応したモデル像を入力されるとともに、モデル距離算出手段42から当該仮説に対応したモデル距離を入力され、当該モデル像のうちの設置物により隠蔽されていない対象物可視領域を推定する。当該推定処理では、モデル像を構成する画素のうち、当該画素に対応する設置物距離がモデル距離以上である画素が対象物可視画素とされ、設置物距離がモデル距離未満である画素が設置物により隠蔽された隠蔽画素とされる。可視領域推定手段43は推定した対象物可視画素からなる対象物可視領域を対象物判定手段44に出力する。 Among the pixels constituting the model image of the three-dimensional model, the visible region estimation means 43 corresponds to the pixels and the pixels whose installation object distance stored in the installation object distance storage means 30 is equal to or more than the model distance of the three-dimensional model It is estimated that the object is a visible pixel. Specifically, the visible region estimation means 43 receives the model image corresponding to the hypothesis (ie, the candidate position and the candidate posture) from the model image output means 41, and the model distance corresponding to the hypothesis from the model distance calculation means 42. And estimate the object visible region not concealed by the installation object of the model image. In the estimation process, among pixels constituting a model image, a pixel whose installation object distance corresponding to the pixel is equal to or more than the model distance is regarded as an object visible pixel, and a pixel whose installation object distance is less than the model distance is an installation object Is a concealed pixel concealed by the The visible region estimation means 43 outputs the object visible region consisting of the estimated object visible pixels to the object determination means 44.
なお、上述したようにモデル距離の種類(指定種類)は候補姿勢に応じて切り替わる。可視領域推定手段43は、指定種類がモデル距離と共通する設置物距離を設置物距離記憶手段30から読み出して利用する。候補姿勢が立位である場合、すなわちモデル距離が水平距離である場合、可視領域推定手段43は、モデル像を構成する各画素について、当該画素の設置物距離のうちの水平距離がモデル距離以上である画素を対象物可視領域の画素と推定し、当該設置物距離がモデル距離未満である画素を隠蔽画素と推定する。 As described above, the type (designated type) of the model distance is switched according to the candidate posture. The visible region estimation means 43 reads out the installed object distance having the designated type in common with the model distance from the installed object distance storage means 30 and uses it. When the candidate posture is a standing position, that is, when the model distance is a horizontal distance, the visible region estimation means 43 determines, for each pixel constituting the model image, the horizontal distance among the installation object distances of the pixels that is equal to or greater than the model distance. The pixel which is is estimated as the pixel of the object visible region, and the pixel whose installation object distance is less than the model distance is estimated as the hidden pixel.
図7は候補姿勢が立位である場合の可視領域推定手段43の処理例を説明する模式図である。例えば、仮説設定手段40が出力する候補位置および候補姿勢に対応してモデル像出力手段41から、図4に示す候補位置P1に配置した立位の立体モデル600を撮影面xyに投影したモデル像800が可視領域推定手段43に入力される(図7上段)。モデル像800を構成する画素には図6に示した設置物700の表面上の点P3への視線方向の画素Q3および設置物の無い点への視線方向の画素Q6が含まれている。また、仮説設定手段40が出力する候補位置および候補姿勢に対応してモデル距離算出手段42からモデル距離dHM1が可視領域推定手段43に入力される。
FIG. 7 is a schematic diagram for explaining a processing example of the visible region estimation means 43 when the candidate posture is standing. For example, the candidate positions and the candidate orientation model
可視領域推定手段43は、候補姿勢が立位であることに対応して、設置物距離記憶手段30に記憶されている設置物距離のうちの水平距離群720から、モデル像800を構成する画素と対応する水平距離(…,dHF6,…,dHF3,…)を読み出す(図7中段)。
The visible region estimation means 43 corresponds to the candidate posture being a standing position, and constitutes pixels of the
可視領域推定手段43はモデル像800を構成する各画素について、モデル距離を当該画素の設置物距離と比較し、モデル距離が設置物距離以下である画素からなる対象物可視領域801を推定する(図7下段)。具体的には、画素Q6は、モデル距離dHM1が設置物距離dHF6未満であるため、対象物可視領域801を構成する可視画素と判定される。一方、画素Q3は、モデル距離dHM1が設置物距離dHF3より大きいため対象物可視領域801を構成する可視画素と判定されない。
The visible region estimation means 43 compares the model distance with the installed object distance of each pixel constituting the
また、候補姿勢が臥位である場合、すなわちモデル距離が鉛直距離である場合、可視領域推定手段43は、モデル像を構成する各画素について、当該画素の設置物距離のうちの鉛直距離がモデル距離以上である画素を対象物可視領域の画素と推定し、当該設置物距離がモデル距離未満である画素を隠蔽画素と推定する。 In addition, when the candidate posture is recumbent, that is, when the model distance is the vertical distance, the visible region estimation means 43 calculates, for each pixel constituting the model image, the vertical distance among the installation object distances of the pixel. A pixel which is equal to or greater than the distance is estimated as a pixel of the object visible region, and a pixel whose installed object distance is less than the model distance is estimated as a hidden pixel.
図8は候補姿勢が臥位である場合の可視領域推定手段43の処理例を説明する模式図である。例えば、仮説設定手段40が出力する候補位置および候補姿勢に対応してモデル像出力手段41から、図4に示す候補位置P2に配置した臥位の立体モデル620を撮影面xyに投影したモデル像810が可視領域推定手段43に入力される(図8上段)。モデル像810を構成する画素には図6に示した設置物700の表面上の点P5への視線方向の画素Q5および設置物の無い点への視線方向の画素Q7が含まれている。また、仮説設定手段40が出力する候補位置および候補姿勢に対応してモデル距離算出手段42からモデル距離dVM2が可視領域推定手段43に入力される。
FIG. 8 is a schematic view for explaining a processing example of the visible region estimation means 43 when the candidate posture is the decubitus position. For example, from the model image output means 41 corresponding to the candidate location and the candidate orientation output from the hypothesis setting means 40, the projection of the recumbent three-
可視領域推定手段43は、候補姿勢が臥位であることに対応して、設置物距離記憶手段30に記憶されている設置物距離のうちの鉛直距離群730から、モデル像810を構成する画素と対応する水平距離(…,dVF5,…,dVF7,…)を読み出す(図8中段)。
The visible region estimation means 43 corresponds to the candidate posture being recumbent, and the pixels constituting the
可視領域推定手段43はモデル像810を構成する各画素について、モデル距離を当該画素の設置物距離と比較し、モデル距離が設置物距離以下である画素からなる対象物可視領域811を推定する(図8下段)。具体的には、画素Q7は、モデル距離dVM2が設置物距離dVF7未満であるため、対象物可視領域811を構成する可視画素と判定される。一方、画素Q5は、モデル距離dVM2が設置物距離dVF5より大きいため対象物可視領域811を構成する可視画素と判定されない。
The visible region estimation means 43 compares the model distance with the installed object distance of each pixel constituting the
対象物判定手段44は監視画像における対象物可視画素の画像特徴から対象物の像の存在を判定する。具体的には、対象物判定手段44は可視領域推定手段43から対象物可視領域の情報を入力され、監視画像における対象物可視領域の画像特徴から少なくとも対象物の像の存在を判定し、判定結果を異常判定手段45に出力する。本実施形態では異常判定手段45はさらに対象物の状態である対象物の位置および対象物の姿勢を判定する。これらの処理は対象物判定手段44に含まれる変化画素抽出手段440、尤度算出手段441および位置・姿勢判定手段442により行われる。
The
変化画素抽出手段440は、撮影部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を尤度算出手段441へ出力する。変化画素の情報は必要に応じて仮説設定手段40にも出力される。変化画素の抽出は公知の背景差分処理により行われる。すなわち変化画素抽出手段440は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。変化画素は対象物が存在する領域に対応して抽出され得る。変化画素抽出手段440は背景画像として、監視領域に対象物が存在しない状態での監視画像を記憶部3に格納する。例えば、基本的に管理者は監視領域に対象物が存在しない状態で移動物体追跡装置1を起動するので、起動直後の監視画像から背景画像を生成することができる。なお、差分処理に代えて、新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。
The change
尤度算出手段441は、各仮説に対して推定された対象物可視領域における対象物の特徴量を監視画像から抽出し、特徴量の抽出度合いに応じた、当該仮説における候補位置の物体位置としての尤度を算出して位置・姿勢判定手段442へ出力する。下記(1)〜(4)は尤度の算出方法の例である。
The
(1)変化画素抽出手段440により抽出された変化画素に対象物可視領域を重ね合わせ、変化画素が対象物可視領域に含まれる割合(包含度)を求める。包含度は、候補位置が現に対象物が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。そこで、当該包含度に基づいて尤度を算出する。 (1) The object visible region is superimposed on the change pixel extracted by the change pixel extraction means 440, and the ratio (inclusion degree) in which the change pixel is included in the object visible region is determined. The degree of inclusion tends to be higher as the candidate position is closer to the position where the object is actually present, and tends to be lower as it goes away. Therefore, the likelihood is calculated based on the degree of inclusion.
(2)監視画像における対象物可視領域の輪郭に対応する部分からエッジを抽出する。候補位置が現に対象物が存在する位置に近いほど、対象物可視領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は増加し、一方、遠ざかるほど抽出度は減少しやすい。そこで、エッジの抽出度に基づいて尤度を算出する。 (2) Extract an edge from a portion corresponding to the contour of the object visible region in the surveillance image. As the candidate position is closer to the position where the object actually exists, the edge extraction degree (for example, the sum of extracted edge strengths) increases because the contour of the object visible region matches the edge position, while the distance increases The degree of extraction tends to decrease. Therefore, the likelihood is calculated based on the degree of extraction of the edge.
(3)各対象物の過去の物体位置において監視画像から抽出された特徴量を当該対象物の参照情報として記憶部3に記憶する。候補位置が現に対象物が存在する位置に近いほど背景や他の対象物の特徴量が混入しなくなるため、対象物可視領域から抽出された特徴量と参照情報との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から対象物可視領域内の特徴量を抽出し、抽出された特徴量と参照情報との類似度を尤度として算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(3) The feature amount extracted from the monitoring image at the past object position of each object is stored in the
(4)また上述した包含度、エッジの抽出度、類似度のうちの複数の度合いの重み付け加算値に応じて尤度を算出してもよい。 (4) Further, the likelihood may be calculated according to the weighted addition value of a plurality of the degree of inclusion, the degree of extraction of the edge, and the degree of similarity described above.
このように可視領域推定手段43により推定された対象物可視領域を利用することで、各対象物の隠蔽状態に適合した尤度を算出できるので追跡の信頼性が向上する。 By using the object visible region estimated by the visible region estimation means 43 in this manner, the likelihood adapted to the concealed state of each object can be calculated, and thus the tracking reliability is improved.
位置・姿勢判定手段442は、対象物の各仮説、および当該仮説ごとに算出された尤度から当該対象物の位置(物体位置)を判定し、判定結果を記憶部3に対象物ごとに時系列に蓄積する。なお、全ての尤度が所定の下限値(尤度下限値)未満の場合は物体位置なし、つまり消失したと判定する。下記(1)〜(3)は物体位置の算出方法の例である。
(1)対象物ごとに、尤度を重みとする候補位置の重み付け平均値を算出し、これを当該対象物の物体位置とする。
(2)対象物ごとに、最大の尤度が算出された候補位置を求め、これを物体位置とする。
(3)対象物ごとに、予め設定された尤度閾値以上の尤度が算出された候補位置の平均値を算出し、これを物体位置とする。ここで、尤度閾値>尤度下限値である。
The position /
(1) For each object, calculate a weighted average value of candidate positions weighted by the likelihood, and use this as the object position of the object.
(2) The candidate position for which the maximum likelihood has been calculated is determined for each object, and this is used as the object position.
(3) For each object, calculate the average value of the candidate positions for which the likelihood higher than the preset likelihood threshold has been calculated, and use this as the object position. Here, the likelihood threshold> the likelihood lower limit.
上述のように対象物判定手段44において尤度算出手段441および位置・姿勢判定手段442は、画像における対象物可視領域の画像特徴から対象物の像の存在を判定する機能を有する。また、対象物判定手段44は、消失が判定されなかった場合の最高尤度の仮説に設定された候補姿勢を対象物の姿勢と判定する。
As described above, in the
異常判定手段45は、記憶部3に蓄積された時系列の物体位置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部5へアラーム信号を出力する。
The abnormality determining means 45 refers to the time-series object positions accumulated in the
[移動物体追跡装置1の動作]
次に、移動物体追跡装置1の追跡動作を説明する。図9,図10は移動物体追跡装置1の追跡処理の概略のフロー図である。
[Operation of Moving Object Tracking Device 1]
Next, the tracking operation of the moving object tracking device 1 will be described. 9 and 10 are schematic flowcharts of the tracking process of the moving object tracking device 1.
画像処理部4は撮影部2が監視空間を撮像するたびに、撮影部2から監視画像を取得する(ステップS1)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。
The
現画像は変化画素抽出手段440により背景画像と比較され、変化画素抽出手段440は変化画素を抽出する(ステップS2)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部3に記憶させ、便宜的に変化画素なしとする。
The current image is compared with the background image by the change pixel extraction means 440, and the change pixel extraction means 440 extracts change pixels (step S2). Here, isolated change pixels are excluded from the extraction result as noise. In addition, immediately after the start of the operation in which there is no background image, the current image is stored in the
また、仮説設定手段40は追跡中の各対象物に対して動き予測に基づきP個の仮説(候補姿勢および候補位置)を設定する(ステップS3)。なお、後述するステップS16にて新規出現であると判定された対象物の候補位置は動き予測不能なため出現位置を中心とする広めの範囲にP個の仮説を設定する。また、後述するステップS16にて消失と判定された対象物の仮説は削除する。 Also, the hypothesis setting means 40 sets P hypotheses (candidate posture and candidate position) for each object being tracked based on motion prediction (step S3). The candidate positions of the object determined to be new appearances in step S16 described later are not predictable in motion, and P hypotheses are set in a wide range centered on the appearance positions. In addition, the hypothesis of the object determined to be lost at step S16 described later is deleted.
画像処理部4は、ステップS2にて変化画素が抽出されず、かつステップS3にて仮説が設定されていない(追跡中の対象物がない)場合(ステップS4にて「YES」の場合)はステップS1に戻り、次の監視画像の入力を待つ。
The
一方、ステップS4にて「NO」の場合は、ステップS5〜S16の処理を行う。まず、仮説設定手段40が対象物の前後関係を判定する(ステップS5)。具体的には、仮説設定手段40は候補位置の重心(平均値)とカメラ位置との距離を算出し、距離の昇順に対象物の識別子を並べた前後関係リストを作成する。
On the other hand, if "NO" in the step S4, the processes of the steps S5 to S16 are performed. First, the hypothesis setting means 40 determines the anteroposterior relation of the object (step S5). Specifically, the
画像処理部4は前後関係リストの先頭から順に各対象物を順次、注目物体に設定する(ステップS6)。続いて、画像処理部4は注目物体の各仮説を順次、注目仮説に設定する(ステップS7)。但し、監視画像の視野外である候補位置を有する仮説は注目仮説の設定対象から除外し、当該仮説の対象物可視領域は推定せず、尤度を0に設定する。
The
モデル像出力手段41は仮説設定手段40から入力された候補姿勢および候補位置に応じた対象物モデル像を、例えば立体モデル記憶手段300から読み出した立体モデルをカメラパラメータ記憶手段301から読み出したカメラパラメータを用いて監視画像の座標系に投影して生成し、可視領域推定手段43に出力する(ステップS8)。なお、上述したように、モデル像出力手段41は入力された候補姿勢および候補位置に応じた対象物モデル像をモデル像記憶手段302から読み出して可視領域推定手段43に出力する構成とすることもできる。
The model
可視領域推定手段43はモデル像出力手段41から入力された対象物モデル像における設置物による隠蔽を推定する(ステップS9)。図11はステップS9の設置物隠蔽推定処理の概略のフロー図である。 The visible area estimation means 43 estimates the concealment by the installation object in the object model image input from the model image output means 41 (step S9). FIG. 11 is a schematic flowchart of the installed object hiding and estimating process in step S9.
モデル距離算出手段42は仮説設定手段40から入力された仮説が候補姿勢を立位とする立位仮説であれば(ステップS100にて「YES」の場合)、当該仮説の候補位置について水平距離dHMを算出し、これをモデル距離として可視領域推定手段43に出力する(ステップS101)。 If the model distance calculation means 42 is a standing hypothesis where the hypothesis input from the hypothesis setting means 40 is a candidate posture (in the case of “YES” in step S100), the horizontal distance d for the candidate position of the hypothesis is The HM is calculated and output to the visible region estimation means 43 as a model distance (step S101).
可視領域推定手段43は、モデル像出力手段41から入力された対象物モデル像内の画素を順次、注目画素に設定し(ステップS102)、設置物距離記憶手段30に設置物距離として監視画像の各画素に対応付けて記憶されている水平距離と鉛直距離のうち、注目画素のxy座標に対応する水平距離dHF(x,y)を読み出す(ステップS103)。 The visible area estimation means 43 sequentially sets the pixels in the object model image input from the model image output means 41 as the pixel of interest (step S102), and sets the monitor image as the installation object distance to the installation object distance storage means 30. Of the horizontal distance and the vertical distance stored in association with each pixel, the horizontal distance dHF (x, y) corresponding to the xy coordinates of the pixel of interest is read (step S103).
可視領域推定手段43は設置物距離dHF(x,y)をモデル距離dHMと比較し、設置物距離dHF(x,y)がモデル距離dHM以上であれば(ステップS104にて「YES」の場合)、注目画素は対象物可視画素、すなわち設置物により隠蔽されていない非隠蔽画素であると推定し(ステップS105)、ステップS106に進む。一方、設置物距離dHF(x,y)がモデル距離dHM未満であれば(ステップS104にて「NO」の場合)、注目画素は設置物により隠蔽されている隠蔽画素として扱われることになり、よって注目画素は対象物可視画素であるとは推定されずにステップS106に進む。 If the visible region estimating means 43 installed object distance d HF (x, y) compared with the model distances d HM and installed object distance d HF (x, y) is the model distance d HM or more (step S104 " In the case of “YES”, the target pixel is estimated to be an object visible pixel, that is, a non-hidden pixel not hidden by the installation (step S105), and the process proceeds to step S106. On the other hand, if the installation object distance dHF (x, y) is less than the model distance dHM (in the case of "NO" in step S104), the target pixel is treated as a concealed pixel concealed by the installation object. Therefore, the pixel of interest is not estimated to be an object visible pixel, and the process proceeds to step S106.
可視領域推定手段43は対象物モデル像の全画素について処理が完了するまで(ステップS106にて「NO」の場合)、ステップS102〜S105の処理を繰り返し、全画素について当該処理が完了すると(ステップS106にて「YES」の場合)、図10のステップS10に処理を進める。 The visible region estimation means 43 repeats the processing of steps S102 to S105 until the processing is completed for all pixels of the object model image (in the case of “NO” in step S106), and when the processing is completed for all pixels (step In the case of “YES” in S106), the process proceeds to step S10 in FIG.
また、モデル距離算出手段42は仮説設定手段40から入力された仮説が候補姿勢を立位とする立位仮説でない場合、つまり臥位仮説である場合(ステップS100にて「NO」の場合)、当該仮説の候補位置について鉛直距離dVMを算出し、これをモデル距離として可視領域推定手段43に出力する(ステップS107)。 In addition, when the hypothesis input from the hypothesis setting means 40 is not a standing hypothesis in which the candidate posture is a standing posture, that is, when the model distance calculating means 42 is a lying hypothesis (in the case of “NO” in step S100), The vertical distance d VM is calculated for the candidate position of the hypothesis, and this is output to the visible region estimation means 43 as a model distance (step S107).
可視領域推定手段43は、モデル像出力手段41から入力された対象物モデル像内の画素を順次、注目画素に設定し(ステップS108)、設置物距離記憶手段30に設置物距離として監視画像の各画素に対応付けて記憶されている水平距離と鉛直距離のうち、注目画素のxy座標に対応する鉛直距離dVF(x,y)を読み出す(ステップS109)。 The visible area estimation means 43 sequentially sets the pixels in the object model image input from the model image output means 41 as the pixel of interest (step S108), and sets the monitor image as the installation object distance in the installation object distance storage means 30. Of the horizontal distance and the vertical distance stored in association with each pixel, the vertical distance d VF (x, y) corresponding to the xy coordinates of the pixel of interest is read (step S109).
可視領域推定手段43は設置物距離dVF(x,y)をモデル距離dVMと比較し、設置物距離dVF(x,y)がモデル距離dVM以上であれば(ステップS110にて「YES」の場合)、注目画素は対象物可視画素、すなわち設置物により隠蔽されていない非隠蔽画素であると推定し(ステップS111)、ステップS112に進む。一方、設置物距離dVF(x,y)がモデル距離dVM未満であれば(ステップS110にて「NO」の場合)、注目画素は設置物により隠蔽されている隠蔽画素として扱われることになり、よって注目画素は対象物可視画素であるとは推定されずにステップS112に進む。 If the visible region estimating means 43 installed object distance d VF (x, y) compared to a model distance d VM, installed objects distance d VF (x, y) is the model distance d VM above (step S110 " In the case of “YES”, the target pixel is estimated to be an object visible pixel, that is, a non-hidden pixel not hidden by the installation object (step S111), and the process proceeds to step S112. On the other hand, if the installation object distance d VF (x, y) is less than the model distance d VM (in the case of “NO” in step S110), the pixel of interest is treated as a concealed pixel concealed by the installation object. Therefore, the target pixel is not estimated to be the object visible pixel, and the process proceeds to step S112.
可視領域推定手段43は対象物モデル像の全画素について処理が完了するまで(ステップS112にて「NO」の場合)、ステップS108〜S111の処理を繰り返し、全画素について当該処理が完了すると(ステップS112にて「YES」の場合)、図10のステップS10に処理を進める。
The visible
可視領域推定手段43は、前後関係リストを参照して注目物体より手前の対象物があれば(ステップS10にて「YES」の場合)、手前の対象物の物体位置に対応する対象物モデル像の領域を対象物可視領域から除くマスク処理を行って対象物可視領域を更新する(ステップS11)。なお、手前に複数の対象物があれば、それら全てについてマスク処理を試みてもよいし、それらのうちカメラ位置から物体位置への投影線が注目物体への投影線となす角度が幅2Wに相当する角度未満の対象物のみに絞って除外処理を実行してもよい。一方、手前に対象物がなければ(ステップS10にて「NO」の場合)、マスク処理は行われない。 If there is an object in front of the object of interest with reference to the context list (in the case of “YES” in step S10), the visible region estimation means 43 an object model image corresponding to the object position of the object in front The object visible area is updated by performing mask processing for excluding the area of the object from the object visible area (step S11). If there are multiple objects in front, mask processing may be attempted for all of them, and among them, the angle between the projection line from the camera position to the object position and the projection line to the object of interest is 2 W in width The exclusion process may be performed by narrowing down to only the objects less than the corresponding angle. On the other hand, if there is no target in front (in the case of "NO" in step S10), the mask processing is not performed.
設置物及び手前の対象物による隠蔽領域を除去して、注目仮説の候補位置での対象物可視領域が求められると、尤度算出手段441によって当該注目仮説に対する尤度算出が行われる(ステップS12)。尤度算出手段441は、撮影画像のうち変化画素抽出手段440により抽出した変化画素に対応する部分を入力され、当該部分から、注目仮説に対して推定された対象物可視領域における対象物の特徴量を抽出し、特徴量の抽出度合いに応じた、当該仮説の物体位置としての尤度を算出して位置・姿勢判定手段442へ出力する。
When the hidden area by the installation object and the object in front is removed and the object visible area at the candidate position of the attention hypothesis is obtained, the likelihood calculation means 441 calculates the likelihood for the attention hypothesis (step S12) ). The likelihood calculation means 441 receives the part corresponding to the change pixel extracted by the change pixel extraction means 440 in the photographed image, and from the part, the feature of the object in the object visible region estimated for the attention hypothesis The amount is extracted, the likelihood as the object position of the hypothesis is calculated according to the extraction degree of the feature amount, and is output to the position /
画像処理部4は、尤度が算出されていない仮説が残っている場合(ステップS13にて「NO」の場合)、ステップS7〜S12の処理を繰り返す。P個全ての仮説について尤度が算出されると(ステップS13にて「YES」の場合)、位置・姿勢判定手段442が注目物体の各仮説と当該仮説のそれぞれについて算出された尤度とを用いて注目物体の物体位置を算出し、また姿勢を判定する(ステップS14)。現時刻について算出された物体位置は1時刻前までに記憶部3に記憶させた注目物体の物体位置と対応付けて追記される。なお、新規出現した対象物の場合は新たな識別子を付与して登録する。また、全ての予測位置での尤度が尤度下限値未満の場合は物体位置なしと判定する。
The
画像処理部4は未処理の対象物が残っている場合(ステップS15にて「NO」の場合)、当該対象物について物体位置を判定するステップS6〜S14の処理を繰り返す。一方、全ての対象物について物体位置を判定すると(ステップS15にて「YES」の場合)、物体の新規出現と消失を判定する(ステップS16)。具体的には、画像処理部4は各物体位置に対して推定された対象物可視領域を合成して、変化画素抽出手段440により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが対象物とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部3に記録する。また、物体位置なしの対象物があれば当該対象物が消失した旨を記憶部3に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS1へ戻る。
When an unprocessed target remains (in the case of “NO” in step S15), the
[変形例]
上記実施形態においては、候補姿勢が立位の場合の射影距離として、撮影手段の視線ベクトルを水平面に正射影したベクトルの長さである水平距離を算出し、それぞれ当該水平距離で定義したモデル距離と設置物距離とを大小比較して隠蔽の有無を判定する例を示した。これに対し、水平距離に対応する正射影ベクトルのX成分もしくはY成分を射影距離と定義し、この定義でのモデル距離と設置物距離とを大小比較することでも隠蔽を判定することができる。
[Modification]
In the above embodiment, a horizontal distance, which is the length of a vector obtained by orthogonally projecting the sight line vector of the photographing means on the horizontal plane, is calculated as the projection distance when the candidate posture is standing, and the model distance defined by the horizontal distance An example is shown in which the presence or absence of the concealment is determined by comparing the size of the object with the installed object distance. On the other hand, the X component or Y component of the orthographic projection vector corresponding to the horizontal distance is defined as the projection distance, and the concealment can be determined by comparing the model distance and the installation object distance according to the definition.
撮影手段の位置Cの座標を(XC,YC,ZC)とし、立位の人の候補位置P1(X1,Y1,Z1)に対する設置物の表面の点P3(X3,Y3,Z3)の隠蔽の有無の判定を例に、本変形例を具体的に説明する。可視領域推定手段43は例えば、以下の(3a)式〜(3d)式のいずれかが成り立てば、候補位置P1の立体モデルのモデル像の画素のうちP3に対応する画素が設置物により隠蔽されない、つまり可視画素であると判定する。
|(X1−XC)|>|(Y1−YC)|、かつ(X1−XC)>0の場合、
(X1−XC)<(X3−XC)、すなわちX1<X3 ………(3a)
|(X1−XC)|>|(Y1−YC)|、かつ(X1−XC)<0の場合、
(X1−XC)>(X3−XC)、すなわちX1>X3 ………(3b)
|(X1−XC)|<|(Y1−YC)|、かつ(Y1−YC)>0の場合、
(Y1−YC)<(Y3−YC)、すなわちY1<Y3 ………(3c)
|(X1−XC)|<|(Y1−YC)|、かつ(Y1−YC)<0の場合、
(Y1−YC)>(Y3−YC)、すなわちY1>Y3 ………(3d)
The coordinates of the position C of the photographing means are (X C , Y C , Z C ), and the point P 3 (X of the surface of the installation object with respect to the candidate position P 1 (X 1 , Y 1 , Z 1 ) of the standing person The present modification will be specifically described with reference to determination of the presence or absence of concealment of ( 3 , Y 3 , Z 3 ). Visible
When | (X 1 −X C ) |> || (Y 1 −Y C ) | and (X 1 −X C )> 0,
(X 1 -X C ) <(X 3 -X C ), that is, X 1 <X 3 ... (3a)
When | (X 1 −X C ) |> || (Y 1 −Y C ) | and (X 1 −X C ) <0,
(X 1 -X C )> (X 3 -X C ), that is, X 1 > X 3 ... (3b)
When | (X 1 −X C ) | <| (Y 1 −Y C ) | and (Y 1 −Y C )> 0,
(Y 1 -Y C ) <(Y 3 -Y C ), that is, Y 1 <Y 3 ... (3c)
When | (X 1 −X C ) | <| (Y 1 −Y C ) | and (Y 1 −Y C ) <0,
(Y 1 -Y C )> (Y 3 -Y C ), that is, Y 1 > Y 3 ... (3d)
この場合、例えば、モデル距離算出手段42は、撮影手段から立位の立体モデル600の候補位置P1までの水平距離に対応する正射影ベクトルのX成分(X1−XC)およびY成分(Y1−YC)を可視領域推定手段43に出力し、設置物距離記憶手段30は設置物700の表面の点P3のX成分(X3−XC)およびY成分(Y3−YC)を記憶しておき可視領域推定手段43に出力する。この構成では、設置物距離記憶手段30に立位に対応して記憶する設置物距離のデータ量は、水平距離を記憶する上述の実施形態と比べて2倍となるが、モデル距離の算出にて(1)式に含まれる累乗や平方根の計算が不要となり処理量が軽減できる。
In this case, for example, the model
ちなみに、上記実施形態における候補姿勢が臥位の場合に用いる鉛直距離は、撮影手段の視線ベクトルを立体モデル620の主軸621に直交する鉛直面に正射影したベクトルのZ成分の大きさであり、本変形例と技術的に共通点を有する。
Incidentally, the vertical distance used when the candidate posture in the above embodiment is recumbent is the size of the Z component of a vector obtained by orthogonal projection of the sight line vector of the photographing means on the vertical plane orthogonal to the
1 移動物体追跡装置、2 撮影部、3 記憶部、4 画像処理部、5 出力部、30 設置物距離記憶手段、40 仮説設定手段、41 モデル像出力手段、42 モデル距離算出手段、43 可視領域推定手段、44 対象物判定手段、45 異常判定手段、300 立体モデル記憶手段、301 カメラパラメータ記憶手段、302 モデル像記憶手段、420 モデル像生成手段、421 モデル像読み出し手段、440 変化画素抽出手段、441 尤度算出手段、442 位置・姿勢判定手段、600,620 立体モデル、601,621 主軸、610 水平面、700 設置物、710 撮影面。 Reference Signs List 1 moving object tracking device, 2 imaging unit, 3 storage unit, 4 image processing unit, 5 output unit, 30 installed object distance storage unit, 40 hypothesis setting unit, 41 model image output unit, 42 model distance calculation unit, 43 visible region Estimating means, 44 object determining means, 45 abnormality determining means, 300 three-dimensional model storing means, 301 camera parameter storing means, 302 model image storing means, 420 model image generating means, 421 model image reading means, 440 changing pixel extracting means, 441 likelihood calculation means, 442 position / posture determination means, 600, 620 three-dimensional model, 601, 621 main axis, 610 horizontal plane, 700 installation object, 710 photographing plane.
Claims (4)
前記撮影手段の視線ベクトルの2種類の射影距離として、当該視線ベクトルをそれぞれ水平面及び鉛直軸へ正射影した像の長さである水平距離及び鉛直距離を定義し、
前記画像の各画素に対応付けて、当該画素に対応する前記視線ベクトルの前記三次元空間内の設置物までの2種類の前記射影距離を設置物距離として記憶した設置物距離記憶手段と、
前記対象物の候補姿勢、及び当該対象物が存在し得る前記三次元空間内の候補位置を設定する候補設定手段と、
前記候補位置における前記候補姿勢での前記立体モデルを前記画像の座標系に投影したモデル像を出力するモデル像出力手段と、
前記射影距離の種類のうち前記候補姿勢に対し予め定められた少なくとも1つの指定種類について、前記候補位置までの前記視線ベクトルの前記射影距離をモデル距離として算出するモデル距離算出手段と、
前記立体モデルの前記モデル像を構成する画素のうち、当該画素の前記指定種類の前記設置物距離が当該立体モデルの当該指定種類の前記モデル距離以上である画素を対象物可視画素と推定する可視領域推定手段と、
を有することを特徴とする対象物画像推定装置。 An object image estimation device that estimates an object visible region in which an image of an object appears in an image obtained by capturing a predetermined three-dimensional space by an imaging unit using a three-dimensional model of the object in the three-dimensional space. ,
As two types of projection distances of the line-of-sight vector of the photographing means, horizontal distance and vertical distance which are the length of an image obtained by orthogonally projecting the line-of-sight vector onto the horizontal plane and vertical axis are defined.
An installed object distance storage unit which stores, as an installed object distance, two types of the projection distances of the gaze vector corresponding to the pixel to the installation object in the three-dimensional space in association with each pixel of the image;
Candidate setting means for setting a candidate posture of the object and a candidate position in the three-dimensional space in which the object may exist;
Model image output means for outputting a model image obtained by projecting the three-dimensional model in the candidate posture at the candidate position onto the coordinate system of the image;
Model distance calculating means for calculating, as a model distance, the projection distance of the sight line vector to the candidate position for at least one designated type predetermined for the candidate posture among the types of the projection distance;
Among the pixels constituting the model image of the three-dimensional model, a pixel for which the installation object distance of the specified type of the pixel is equal to or more than the model distance of the specified type of the three-dimensional model is visible Area estimation means,
An object image estimation apparatus characterized by having.
前記候補姿勢が立位に設定された場合に対して、前記指定種類の前記射影距離として前記水平距離が定められていること、
を特徴とする請求項1に記載の対象物画像推定装置。 The object is a person,
The horizontal distance is determined as the projection distance of the designated type when the candidate posture is set to the standing position.
The object image estimation device according to claim 1, characterized in that
前記候補姿勢が臥位に設定された場合に対して、前記指定種類の前記射影距離として前記鉛直距離が定められていること、
を特徴とする請求項1又は請求項2に記載の対象物画像推定装置。 The object is a person,
The vertical distance is determined as the projection distance of the designated type with respect to the case where the candidate posture is set in the recumbent position,
The object image estimation device according to claim 1 or 2, characterized in that
前記画像における前記対象物可視画素の画像特徴から前記対象物の像の存在を判定する対象物判定手段と、
を有することを特徴とする対象物画像判定装置。 An object image estimation apparatus according to any one of claims 1 to 3;
Object determination means for determining the presence of an image of the object from image features of the object visible pixels in the image;
An object image judging device characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017032054A JP6548683B2 (en) | 2017-02-23 | 2017-02-23 | Object image estimation device and object image determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017032054A JP6548683B2 (en) | 2017-02-23 | 2017-02-23 | Object image estimation device and object image determination device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018136832A JP2018136832A (en) | 2018-08-30 |
JP6548683B2 true JP6548683B2 (en) | 2019-07-24 |
Family
ID=63366908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017032054A Active JP6548683B2 (en) | 2017-02-23 | 2017-02-23 | Object image estimation device and object image determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6548683B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111627061B (en) * | 2020-06-03 | 2023-07-11 | 如你所视(北京)科技有限公司 | Pose detection method and device, electronic equipment and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001148077A (en) * | 1999-11-19 | 2001-05-29 | Fujitsu General Ltd | Intruder detecting device |
JP3734793B2 (en) * | 2002-12-09 | 2006-01-11 | 三菱電機株式会社 | Human detection device |
JP5667846B2 (en) * | 2010-11-15 | 2015-02-12 | セコム株式会社 | Object image determination device |
JP2012155595A (en) * | 2011-01-27 | 2012-08-16 | Secom Co Ltd | Target object image determination device |
-
2017
- 2017-02-23 JP JP2017032054A patent/JP6548683B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018136832A (en) | 2018-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9196045B2 (en) | Analysis of three-dimensional scenes | |
US7003136B1 (en) | Plan-view projections of depth image data for object tracking | |
WO2019225547A1 (en) | Object tracking device, object tracking method, and object tracking program | |
US8854469B2 (en) | Method and apparatus for tracking persons and locations using multiple cameras | |
JP4700477B2 (en) | MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE | |
EP3016071B1 (en) | Estimating device and estimation method | |
Black et al. | Multi-camera image measurement and correspondence | |
AU2019201269A1 (en) | Methods circuits devices systems and associated computer executable code for multi factor image feature registration and tracking | |
WO2017183769A1 (en) | Device and method for detecting abnormal situation | |
JP2009510541A (en) | Object tracking method and object tracking apparatus | |
JP2008176504A (en) | Object detector and method therefor | |
JP5525495B2 (en) | Image monitoring apparatus, image monitoring method and program | |
JP5667846B2 (en) | Object image determination device | |
JP5027758B2 (en) | Image monitoring device | |
JP5687035B2 (en) | Person tracking device | |
JP5552069B2 (en) | Moving object tracking device | |
JP2008226109A (en) | Video image analysis system and method | |
JP6548683B2 (en) | Object image estimation device and object image determination device | |
JP2012155595A (en) | Target object image determination device | |
JP2009301242A (en) | Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program | |
JP6548682B2 (en) | Object image judgment device | |
JP2017028688A (en) | Image managing device, image managing method and program | |
JP2007109126A (en) | Moving body distribution estimation device, moving body distribution estimation method, and moving body distribution estimation program | |
JP7096176B2 (en) | Object position estimator and its method | |
Padeleris et al. | Multicamera tracking of multiple humans based on colored visual hulls |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6548683 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |