JP4759447B2 - Moving object tracking device, moving object tracking method, and recording medium storing a program describing the method - Google Patents
Moving object tracking device, moving object tracking method, and recording medium storing a program describing the method Download PDFInfo
- Publication number
- JP4759447B2 JP4759447B2 JP2006158007A JP2006158007A JP4759447B2 JP 4759447 B2 JP4759447 B2 JP 4759447B2 JP 2006158007 A JP2006158007 A JP 2006158007A JP 2006158007 A JP2006158007 A JP 2006158007A JP 4759447 B2 JP4759447 B2 JP 4759447B2
- Authority
- JP
- Japan
- Prior art keywords
- target state
- image
- moving object
- distribution
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、1又は複数の画像入力装置(例えば、カメラ等)を用いて、動体(物体、動物、人間を含む動体)の三次元位置や大きさなどの状態を追跡する技術に関するものである。 The present invention relates to a technique for tracking a state such as a three-dimensional position and a size of a moving object (moving object including an object, an animal, and a human) using one or a plurality of image input devices (for example, a camera or the like). .
コンピュータビジョン分野では、複数のカメラの情報を利用して人物などの動く対象の追跡に関する研究が多く行われている。例えば、次のような研究成果が、実現されている。 In the field of computer vision, there are many studies on tracking moving objects such as people using information from multiple cameras. For example, the following research results have been realized.
複数の視点から対象を観測し、画像上における対象の領域(即ち、シルエット)を抽出したシルエット画像を用意する。さらに、予め追跡を行う空間の三次元構造(以下、三次元環境情報と呼ぶ)と、追跡に利用する全てのカメラの内部パラメータ及び外部パラメータ(カメラパラメータともいう)と、を予め計測して求めておく。 A silhouette image is prepared by observing a target from a plurality of viewpoints and extracting a target region (ie, silhouette) on the image. Further, the three-dimensional structure of the space to be tracked in advance (hereinafter referred to as three-dimensional environment information) and the internal parameters and external parameters (also referred to as camera parameters) of all the cameras used for tracking are obtained by measuring in advance. Keep it.
なお、シルエット画像とは、撮影した画像に対して背景差分法やフレーム間差分法を施し、撮影した画像の対象が写っている領域の輝度値を「1」、他の領域の輝度値を「0」で表現した2値画像である(即ち、実差分画像である)。また、カメラの内部パラメータの校正,三次元位置と姿勢を求めるためのカメラキャリブレーション方法も広く知られている(例えば、非特許文献1参照)。 The silhouette image is obtained by performing a background difference method or an inter-frame difference method on a captured image, and setting the luminance value of an area where the target of the captured image is “1” and the luminance values of other areas to “ This is a binary image expressed by “0” (that is, an actual difference image). A camera calibration method for calibrating internal parameters of a camera and obtaining a three-dimensional position and orientation is also widely known (for example, see Non-Patent Document 1).
そして、その三次元環境中に人物モデルを配置し、先に算出したカメラの内部パラメータと外部パラメータを有する仮想カメラ(例えば、ソフトウェアで構築された仮想撮像装置)で、その人物モデルが配置されたシーンを撮影することによって、シルエット画像のシミュレーションを行うことができる。 Then, the person model is arranged in the three-dimensional environment, and the person model is arranged by a virtual camera (for example, a virtual imaging device constructed by software) having the internal parameters and external parameters of the camera calculated previously. By capturing a scene, a silhouette image can be simulated.
また、人物モデルに楕円体を用いて、生成したシミュレーション画像とシルエット画像を比較することで一般的な環境の下でも人物の追跡を行う方法(以下、楕円体モデル追跡方法と呼ぶ)が提案されている(例えば、非特許文献2参照)。
前述のように、カメラによって取得した情報に基づいて対象を追跡する方法において、複数の人物を追跡する場合、人物同士の接近などによって、カメラで撮影された画像上で人物同士が重なってしまう現象(即ち、オクルージョン)が問題にされている。 As described above, in the method of tracking a target based on information acquired by a camera, when a plurality of persons are tracked, the persons overlap each other on an image captured by the camera due to the approach of the persons. (Ie occlusion) is a problem.
そのオクルージョン問題は、複数の視点から得られた情報を統合することによって、軽減できる。しかし、前記の楕円体モデル追跡方法では、複数のカメラが独立に追跡を行っているため、複数カメラの情報統合が行われておらず、人物同士が接近すると追跡が不可能となる問題を有している。 The occlusion problem can be reduced by integrating information obtained from multiple viewpoints. However, in the above ellipsoid model tracking method, since multiple cameras track independently, information integration of multiple cameras is not performed, and there is a problem that tracking is impossible when people approach each other. is doing.
また、前記の楕円体モデル追跡方法では、追跡する人数を初めから固定しているため、追跡空間からの人物の退出、出現に対応することができないという問題を有している。 The ellipsoid model tracking method has a problem that the number of people to be tracked is fixed from the beginning, so that it cannot cope with the exit and appearance of a person from the tracking space.
さらに、追跡人数に比例した処理量が必要であるため、一度に追跡する人数が増えると処理コストが増大し、追跡処理の実時間性が失われるといった問題を有している。 Furthermore, since a processing amount proportional to the number of people to be tracked is required, there is a problem that if the number of people to be tracked increases, the processing cost increases and the real-time performance of the tracking processing is lost.
そして、シミュレーション画像生成に用いる楕円体モデルに固定の高さ,固定の半径を与えているため、人物の大きさの個人差に対応することが不可能である。即ち、この楕円体モデルの大きさと著しく異なる大きさの体を持つ人物を追跡する際には、測定値に大きな誤差を発生し、結果として追跡にも失敗してしまうという問題をも有している。 Since the ellipsoidal model used for generating the simulation image is given a fixed height and a fixed radius, it is impossible to deal with individual differences in the size of the person. In other words, when tracking a person having a body whose size is significantly different from the size of the ellipsoid model, there is a problem that a large error occurs in the measured value, and as a result, tracking also fails. Yes.
本発明は、上述のような従来技術の問題点を解決するためになされたものであって、複数の動体を撮像する複数の撮像装置から送られる画像から、三次元空間中に存在する複数の動体の各時刻における位置、大きさを表す対象状態を逐次的に推定し、各動体の動きを安定して追跡する動体追跡装置,動体追跡方法およびその方法を記述したプログラムを格納した記録媒体を提供することにある。 The present invention has been made to solve the above-described problems of the prior art, and a plurality of images existing in a three-dimensional space from images sent from a plurality of imaging devices that capture a plurality of moving objects. A moving body tracking apparatus, a moving body tracking method for stably estimating a moving state of each moving body by sequentially estimating a target state representing the position and size of each moving body at each time, and a recording medium storing a program describing the method. It is to provide.
本発明は、前記課題の解決を図るために、請求項1記載の発明は、動体の三次元位置及び大きさを該動体の対象状態と見做し、1又は複数の撮像装置を用いて該動体を特定の時間間隔をあけた時刻に撮像し、その撮像によって得られた複数画像データに基づいて、該動体を追跡する動体追跡装置であって、複数の前記動体に対して前時刻に得られた対象状態と対象状態の変化ベクトルとを用いて現時点における対象状態を予測する対象状態予測手段と、前記画像データを取得する画像取得手段と、前記画像データから前記動体を写した領域を抽出したシルエット画像を作成するシルエット画像作成手段と、対象状態予測手段よって得られた対象状態を初期状態と見做し、シルエット画像作成手段によって作成されたシルエット画像と、三次元環境情報管理手段に保存された実世界の三次元構造と、三次元環境情報管理手段に保存された焦点距離・画像中心に関する撮像装置の内部パラメータおよび撮像装置自体の三次元位置および姿勢情報に関する撮像装置の外部パラメータと、を用いて、対象状態分布を推定し、対象状態分布記憶手段に保存されている前時刻の対象状態分布を現時刻の対象状態分布に更新する対象状態分布推定手段と、対象状態分布記憶手段に保存された現時刻の対象状態分布に基づいて、最大確率となる対象状態を計算し、その現時刻において最大確率となる対象状態と前時刻において最大確率となる対象状態に基づいて変化ベクトルを計算し、その計算された変化ベクトルを対象状態記憶手段に記憶させる対象状態計算手段と、予め計測しておいた実世界の三次元構造と前記撮像装置の内部パラメータ及び外部パラメータを保存する三次元環境情報管理手段と、各時刻に推定された対象状態の確率的分布を記憶する対象状態分布記憶手段と、各時刻の前記変化ベクトルを記憶する対象状態記憶手段と、を備え、前記対象状態分布推定手段が、予め用意された変化タイプから任意の確率に従って変化タイプを選択する手段と、前記変化タイプを適応して変化させる動体を選択する手段と、前記選択された変化タイプに基づいて、選択された動体の対象状態を変化させる手段と、前記撮像装置と同じ外部パラメータ及び内部パラメータを有する仮想撮像手段で、前記変化させた対象状態を投影して作成された画像を、前記シルエット画像をシミュレートしたシミュレーション画像と見做す手段と、前記三次元構造に関する事前知識の条件に基づいた対象状態の確率的な第1条件尤度と、動体同士の重なりに関する事前知識の条件に基づいた対象状態の確率的な第2条件尤度と、前記シルエット画像とシミュレーション画像の比較による第3条件尤度と、を計算し、その第1乃至第3条件尤度の積を、前記変化させた対象状態の尤度と見做す手段と、前記変化させた対象状態の尤度を用いてシミュレーション画像の暫定状態に更新した回数に応じた対象状態分布を推定する手段と、を有することを特徴とする。 In order to solve the above-mentioned problems, the invention according to claim 1 is based on the assumption that the three-dimensional position and size of a moving object is the target state of the moving object, and uses one or a plurality of imaging devices. A moving object tracking device that images a moving object at a specific time interval and tracks the moving object based on a plurality of image data obtained by the imaging, and obtains the moving object at a previous time with respect to the moving object. A target state prediction unit that predicts a current target state using the target state and a change vector of the target state, an image acquisition unit that acquires the image data, and an area in which the moving object is copied from the image data The silhouette image created by the silhouette image creating means for creating the silhouette image and the target state obtained by the target state predicting means as the initial state, and the three-dimensional silhouette image created by the silhouette image creating means And real world three-dimensional structure stored in the boundary information management means, imaging relates to a three-dimensional position and orientation information of the internal parameters and an imaging device itself of the image pickup apparatus relating to the stored focal length, image center on the three-dimensional environment information managing means A target state distribution estimating unit that estimates a target state distribution using an external parameter of the apparatus, and updates the target state distribution at the previous time stored in the target state distribution storage unit to the target state distribution at the current time; Based on the target state distribution at the current time stored in the target state distribution storage means, the target state having the maximum probability is calculated, and the target state having the maximum probability at the current time and the target state having the maximum probability at the previous time are calculated. Based on the target state calculation means for calculating the change vector based on the result and storing the calculated change vector in the target state storage means; Three-dimensional environment information management means for storing the dimensional structure and internal parameters and external parameters of the imaging apparatus; target state distribution storage means for storing a probabilistic distribution of the target state estimated at each time; and the change at each time Object state storage means for storing a vector , wherein the object state distribution estimation means selects a change type according to an arbitrary probability from a change type prepared in advance, and a moving object that adaptively changes the change type And a virtual imaging means having the same external parameters and internal parameters as the imaging device, the means for changing the target state of the selected moving object based on the selected change type Means for considering an image created by projecting a target state as a simulation image simulating the silhouette image; A probabilistic first condition likelihood of a target state based on a prior knowledge condition regarding a dimensional structure, a probabilistic second condition likelihood of a target state based on a prior knowledge condition regarding overlapping of moving objects, and the silhouette A third condition likelihood based on a comparison between the image and the simulation image, and calculating the product of the first to third condition likelihoods as the likelihood of the changed target state; And means for estimating a target state distribution according to the number of times the simulation image has been updated to the provisional state using the likelihood of the target state .
請求項2記載の発明は、請求項1記載の動体追跡装置において、前記動体の対象状態を楕円体モデルの集合と見做し、各動体の位置を任意の平面上の位置(x,y)、動体の大きさを該楕円体モデルの半径rと高さh、で表し、それらパラメータx,y,r,hの値の組み合わせを複数記憶する、ことを特徴とする。 According to a second aspect of the invention, in the moving object tracking device of claim 1 Symbol placement, the target state of said moving object is regarded as a set of ellipsoidal model, the position on the position of any plane of the body (x, y ), The size of the moving object is represented by the radius r and the height h of the ellipsoid model, and a plurality of combinations of the values of the parameters x, y, r, h are stored.
請求項3記載の発明は、動体の三次元位置及び大きさを該動体の対象状態と見做し、1又は複数の撮像装置を用いて該動体を特定の時間間隔をあけた時刻に撮像し、その撮像によって得られた複数画像データに基づいて、該動体を追跡する動体追跡方法であって、複数の前記動体に対して前時刻に得られた対象状態と対象状態の変化ベクトルとを用いて現時点における対象状態を予測する対象状態予測ステップと、前記画像データを取得する画像取得ステップと、
前記画像データから前記動体を写した領域を抽出したシルエット画像を作成するシルエット画像作成ステップと、対象状態予測手段よって得られた対象状態を初期状態と見做し、シルエット画像作成手段によって作成されたシルエット画像と、三次元環境情報管理手段に保存された実世界の三次元構造と、三次元環境情報管理手段に保存された焦点距離・画像中心に関する撮像装置の内部パラメータ及び撮像装置自体の三次元位置および姿勢情報に関する撮像装置の外部パラメータと、を用いて、対象状態分布を推定し、対象状態分布記憶手段に保存されている前時刻の対象状態分布を現時刻の対象状態分布に更新する対象状態分布推定ステップと、対象状態分布記憶手段に保存された現時刻の対象状態分布に基づいて最大確率となる対象状態を計算し、その現時刻において最大確率となる対象状態と前時刻において最大確率となる対象状態に基づいて変化ベクトルを計算し、その計算された変化ベクトルを対象状態記憶手段に記憶させる対象状態計算ステップと、予め計測しておいた実世界の三次元構造と前記撮像装置の内部パラメータ及び外部パラメータを保存する三次元環境情報管理ステップと、各時刻に推定された対象状態の確率的分布を記憶する対象状態分布記憶ステップと、各時刻の前記変化ベクトルを記憶する対象状態記憶ステップと、を有し、前記対象状態分布推定ステップが、予め用意された変化タイプから任意の確率に従って変化タイプを選択するステップと、前記変化タイプを適応して変化させる動体を選択するステップと、前記選択された変化タイプに基づいて、選択された動体の対象状態を変化させるステップと、前記撮像装置と同じ外部パラメータ及び内部パラメータを有する仮想撮像手段で、前記変化させた対象状態を投影して作成された画像を、前記シルエット画像をシミュレートしたシミュレーション画像と見做すステップと、前記三次元構造に関する事前知識に基づいた対象状態の確率的な第1条件尤度と、動体同士の重なりに関する事前知識に基づいた対象状態の確率的な第2条件尤度と、前記シルエット画像とシミュレーション画像の比較による第3条件尤度と、を計算し、その第1乃至第3条件尤度の積を、前記変化させた対象状態の尤度と見做すステップと、前記変化させた対象状態の尤度を用いてシミュレーション画像の暫定状態に更新した回数に応じた対象状態分布を推定するステップと、を有することを特徴とする。
The invention according to claim 3 considers the three-dimensional position and size of the moving object as the target state of the moving object, and images the moving object at a specific time interval using one or a plurality of imaging devices. A moving body tracking method for tracking a moving object based on a plurality of image data obtained by the imaging , using a target state and a change vector of the target state obtained at a previous time for the plurality of moving objects A target state prediction step for predicting a target state at the present time, an image acquisition step for acquiring the image data,
A silhouette image creating step for creating a silhouette image obtained by extracting an area in which the moving object is copied from the image data, and a target state obtained by the target state predicting unit is regarded as an initial state, and is created by the silhouette image creating unit. Silhouette image, real-world 3D structure stored in 3D environment information management means, internal parameters of the imaging device related to focal length and image center stored in 3D environment information management means, and 3D of the imaging apparatus itself The target state distribution is estimated using the external parameters of the imaging device related to the position and orientation information , and the target state distribution at the previous time stored in the target state distribution storage unit is updated to the target state distribution at the current time An object state with the maximum probability based on the state distribution estimation step and the object state distribution at the current time stored in the object state distribution storage means The target state calculation that calculates the change vector based on the target state having the maximum probability at the current time and the target state having the maximum probability at the previous time, and stores the calculated change vector in the target state storage means A step, a pre-measured real-world three-dimensional structure, a three-dimensional environment information management step for storing internal parameters and external parameters of the imaging device, and a stochastic distribution of the target state estimated at each time select the target state distribution storing step, the target state storage step of storing the change vectors for each time has the target state distribution estimating step, the variation type in accordance with any probability from a prepared variation type of Selecting a moving object to be changed by adapting the change type, and based on the selected change type. And changing the target state of the selected moving object, and an image created by projecting the changed target state by the virtual imaging means having the same external parameters and internal parameters as the imaging device, the silhouette A simulation image simulating an image, a probabilistic first condition likelihood of a target state based on prior knowledge about the three-dimensional structure, and a target state based on prior knowledge about overlapping of moving objects A probabilistic second condition likelihood and a third condition likelihood by comparing the silhouette image and the simulation image are calculated, and a product of the first to third condition likelihoods is calculated for the changed target state. The target state distribution corresponding to the number of times of updating to the provisional state of the simulation image using the likelihood of the target state changed and the likelihood of the changed target state is estimated. And a step of determining .
請求項4記載の発明は、請求項3記載の動体追跡方法において、前記動体の対象状態を楕円体モデルの集合と見做し、各動体の位置を任意の平面上の位置(x,y)、動体の大きさを該楕円体モデルの半径rと高さh、で表し、それらパラメータx,y,r,hの値の組み合わせを複数記憶する、ことを特徴とする。 According to a fourth aspect of the present invention, in the moving object tracking method according to the third aspect , the target state of the moving object is regarded as a set of ellipsoidal models, and the position of each moving object is a position (x, y) on an arbitrary plane. The size of the moving object is represented by the radius r and the height h of the ellipsoid model, and a plurality of combinations of the values of the parameters x, y, r, h are stored.
請求項5記載の発明は、記録媒体であって、請求項3または4のいずれかに記載の動体追跡方法を、コンピュータで実行可能なコンピュータプログラムとして記述し、そのコンピュータプログラムを記録したことを特徴とする。 The invention according to claim 5 is a recording medium, wherein the moving object tracking method according to claim 3 or 4 is described as a computer program executable by a computer, and the computer program is recorded. And
前記の請求項1,3の発明によれば、複数の動体の対象状態分布を取得し、さらに、それら対象状態分布に基づいて、動体の変化ベクトルを取得できる。 According to the first and third aspects of the present invention, it is possible to acquire a target state distribution of a plurality of moving objects, and to acquire a change vector of the moving object based on the target state distributions.
また、三次元構造に関する事前知識に基づいた対象状態の確率的尤度,動体同士の重なりに関する事前知識に基づいた対象状態の確率的尤度,前記シルエット画像とシミュレーション画像の比較による尤度を取得できる。 Moreover, obtaining a three-dimensional stochastic likelihood of states of interest based on prior knowledge about the structure, probabilistic likelihoods of states of interest based on a prior knowledge of the overlap of the moving object between the likelihood by comparison of the silhouette image and the simulated image it can.
前記の請求項2,4の発明によれば、各動体の位置を任意の平面上の位置(x,y)、動体の大きさを該楕円体モデルの半径rと高さhを記憶できる。 According to the invention of the claim 2 and 4, the position of each moving object position on an arbitrary plane (x, y), the size of the moving object can be stored radius r and height h of the ellipse body model.
前記の請求項5の発明によれば、請求項3または4のいずれかに記載の動体追跡方法をコンピュータプログラムとして記載できる。 According to the invention of claim 5 , the moving body tracking method according to claim 3 or 4 can be described as a computer program.
以上示したように請求項1,3の発明によれば、複数の撮像装置から取得した画像に基づいて動体の変化ベクトルを計算し、その動体の変化ベクトルに基づいて複数の動物体の動きを安定に追跡できる。 As described above, according to the first and third aspects of the present invention, the change vector of the moving object is calculated based on the images acquired from the plurality of imaging devices, and the movement of the plurality of moving objects is calculated based on the change vector of the moving object. It can be tracked stably.
また、確率的尤度とシルエット画像とシミュレーション画像の比較による尤度(即ち、複数の撮像装置からの画像情報を統合した結果)を用いて、動体同士が非常に接近するような状況下においても、動体を安定して追跡できる。 Further , even in situations where moving objects are very close to each other by using the probability (that is, the result of integrating image information from a plurality of imaging devices) obtained by comparing the stochastic likelihood, the silhouette image, and the simulation image. , Moving body can be tracked stably.
請求項2,4の発明によれば、x,y,r,hを記憶できるため、大きさの異なる複数の動体や動的に追跡する動体数の変化に応じた追跡を行うことができる。また、大きさの異なる複数の動体や動的に追跡する動体数の変化に応じた追跡を行っても、処理時間を一定に保ち実時間性を確保できる。 According to the second and fourth aspects of the present invention, since x, y, r, and h can be stored, it is possible to perform tracking according to changes in the number of moving objects having different sizes and the number of moving objects that are dynamically tracked. Further, even if tracking is performed according to a change in the number of moving objects having different sizes or the number of moving objects to be dynamically tracked, the processing time can be kept constant and real time performance can be ensured.
請求項5の発明によれば、動体追跡方法を実装したコンピュータプログラムを記録した記録媒体を提供できる。 According to invention of Claim 5 , the recording medium which recorded the computer program which mounted the moving body tracking method can be provided.
これらを以ってコンピュータビジョン分野に貢献できる。 These can contribute to the computer vision field.
本実施形態における動体追跡装置を図1に基づいて説明する。 The moving body tracking apparatus in this embodiment is demonstrated based on FIG.
動体追跡装置は、対象状態予測手段11,画像取得手段12,シルエット画像作成手段13,対象状態分布推定手段14,対象状態計算手段15,三次元環境情報管理手段(例えば、三次元環境情報を管理するデータベース)21,対象状態分布記憶手段22,対象状態記憶手段23から構成される。 The moving object tracking device includes a target state prediction unit 11, an image acquisition unit 12, a silhouette image creation unit 13, a target state distribution estimation unit 14, a target state calculation unit 15, and a three-dimensional environment information management unit (for example, managing three-dimensional environment information). Database) 21, target state distribution storage means 22, and target state storage means 23.
対象状態予測手段11は、前時刻に得られた追跡対象の状態(以後、単に対象状態という;追跡対象の三次元位置、大きさ)および対象状態の変化ベクトルを用いて現時刻の対象状態を予測する。 The target state prediction means 11 determines the target state at the current time using the state of the tracking target obtained at the previous time (hereinafter simply referred to as the target state; the three-dimensional position and size of the tracking target) and the change vector of the target state. Predict.
画像取得手段12は、各時刻に撮影された画像データを取得する手段であり、例えば、デジタルカメラやビデオカメラ等の撮像装置などを備えている。本実施形態における動体追跡装置は、1又は複数の撮像装置を備えていても良い。また、画像データは、各時刻に撮影された画像データを格納した情報管理手段(例えば、データベース)から取得しても良い。 The image acquisition means 12 is means for acquiring image data taken at each time, and includes, for example, an imaging device such as a digital camera or a video camera. The moving object tracking device in the present embodiment may include one or a plurality of imaging devices. Further, the image data may be acquired from information management means (for example, a database) that stores image data taken at each time.
シルエット画像作成手段13は、前記取得された画像データから対象を写した領域のみを抽出したシルエット画像を作成する。 The silhouette image creating means 13 creates a silhouette image obtained by extracting only the region where the object is copied from the acquired image data.
対象状態分布推定手段14は、対象状態予測手段11によって得られた対象状態を初期状態と見做し、シルエット画像作成手段13によって作成されたシルエット画像と三次元環境情報管理手段21を用いて対象状態の確率的分布を推定し、対象状態分布記憶手段22に保存されている前時刻の対象状態分布を現時刻の対象状態分布に更新する。 The target state distribution estimation unit 14 regards the target state obtained by the target state prediction unit 11 as an initial state, and uses the silhouette image created by the silhouette image creation unit 13 and the three-dimensional environment information management unit 21 to The probabilistic distribution of the state is estimated, and the target state distribution at the previous time stored in the target state distribution storage unit 22 is updated to the target state distribution at the current time.
対象状態計算手段15は、現時刻の対象状態分布が保存された対象状態分布記憶手段22を用いて、最大確率となる対象状態を計算するとともに、前時刻の対象状態からの変化ベクトルを計算し、対象状態記憶手段23に保存されている対象状態からの変化ベクトルを更新する。 The target state calculation means 15 uses the target state distribution storage means 22 in which the target state distribution at the current time is stored, calculates the target state that has the maximum probability, and calculates a change vector from the target state at the previous time. The change vector from the target state stored in the target state storage unit 23 is updated.
三次元環境情報管理手段21は、予め計測しておいた実世界の三次元構造情報と、設置されている画像取得手段12(例えば、デジタルカメラ、以下、単にカメラという)の内部パラメータ(例えば、焦点距離,画像中心などのパラメータ)と、その画像取得手段11の外部パラメータ(例えば、カメラ自体の三次元位置及び姿勢情報)と、を保存する。例えば、三次元環境情報管理手段21は、三次元構造情報,内部パラメータ,外部パラメータを保存するデータベースを含んでいても良い。また、三次元環境情報管理手段21は、記憶部(例えば、ハードディスク装置や不揮発性メモリ)に三次元構造情報,内部パラメータ,外部パラメータを記憶してよい。 The three-dimensional environment information management means 21 includes real-world three-dimensional structure information measured in advance and internal parameters (for example, a digital camera, hereinafter simply referred to as a camera) of the installed image acquisition means 12 (for example, Parameters such as focal length and image center) and external parameters of the image acquisition means 11 (for example, the three-dimensional position and orientation information of the camera itself) are stored. For example, the three-dimensional environment information management means 21 may include a database that stores three-dimensional structure information, internal parameters, and external parameters. The three-dimensional environment information management unit 21 may store three-dimensional structure information, internal parameters, and external parameters in a storage unit (for example, a hard disk device or a nonvolatile memory).
対象状態分布記憶手段22は、対象状態分布推定手段14によって推定された対象状態の確率的分布を記憶する。例えば、対象状態分布記憶手段22に含まれるメモリ(または、記憶領域)やハードディスク装置に推定された対象状態の確率的分布を記憶しても良い。 The target state distribution storage unit 22 stores the probabilistic distribution of the target state estimated by the target state distribution estimation unit 14. For example, the probabilistic distribution of the target state estimated in the memory (or storage area) included in the target state distribution storage unit 22 or the hard disk device may be stored.
対象状態記憶手段23は、対象状態計算手段15によって計算された最大確率を取る対象状態および前時刻の対象状態との変化ベクトルを記憶する。例えば、対象状態記憶手段23に含まれるメモリ(または、記憶領域)やハードディスク装置に前記変化ベクトルを記憶しても良い。 The target state storage unit 23 stores a change vector between the target state having the maximum probability calculated by the target state calculation unit 15 and the target state at the previous time. For example, the change vector may be stored in a memory (or storage area) included in the target state storage unit 23 or a hard disk device.
本実施形態における動体追跡装置に関する条件を図2に基づいて説明する。なお、以下の説明で図1中の符号と同じものの説明は省略する。 The conditions regarding the moving body tracking apparatus in this embodiment are demonstrated based on FIG. In the following description, the same reference numerals as those in FIG. 1 are omitted.
図2は、平面上を歩行する複数の人物(図2中では、人物H1,H2…Hk;kは自然数)を追跡対象(即ち、動体)とし、p(pは自然数)台の位置と姿勢を固定されたビデオカメラ(即ち、カメラC1,C2…Cp)を用いて追跡を行う例について示すものである。また、カメラC1〜Cpは、同じ撮影間隔で同期して画像の取得を行うものとする。なお、同じ撮影間隔で同期して画像の取得を行う際に、例えば、カメラC1〜Cpに同期装置を接続または搭載しても良い。 FIG. 2 illustrates a plurality of persons walking on a plane (in FIG. 2, persons H1, H2,... Hk; k is a natural number) to be tracked (that is, a moving object), and positions and postures of p (p is a natural number) units. Is shown for an example in which tracking is performed using a fixed video camera (that is, cameras C1, C2,... Cp). In addition, the cameras C1 to Cp acquire images synchronously at the same shooting interval. Note that when acquiring images synchronously at the same shooting interval, for example, a synchronization device may be connected to or mounted on the cameras C1 to Cp.
一般に、空間中には追跡対象でない非対象物体(図2中では、非対象物体B)が存在しており、この非対象物体の三次元構造データは、手作業によるCAD(Computer−Aided Design)データの作成やレンジファインダの利用し、または、カメラ映像からの三次元復元などを利用して、予め計測して取得できる。この三次元構造データは、XY平面を床面と一致させ、高さ方向をZ軸と一致させる座標系に変換するものとする。 In general, there is a non-target object (non-target object B in FIG. 2) that is not a tracking target in space, and the three-dimensional structure data of the non-target object is CAD (Computer-Aided Design) by hand. It can be measured and acquired in advance using data creation, a range finder, or three-dimensional reconstruction from camera images. This three-dimensional structure data shall be converted into a coordinate system in which the XY plane coincides with the floor surface and the height direction coincides with the Z axis.
また、配置された全て(p台)のカメラの内部パラメータの校正と三次元位置(x,y,z)と姿勢(φ,θ,γ)とを前記取得した三次元構造データと同じ座標系で求める(例えば、非特許文献1参照)。これら三次元構造データと全てのカメラの三次元位置および姿勢を、三次元環境情報管理手段21に予め記憶しておくことにする。 Further, calibration of internal parameters of all (p) cameras arranged, and the three-dimensional position (x, y, z) and posture (φ, θ, γ) are the same coordinate system as the acquired three-dimensional structure data. (For example, refer nonpatent literature 1). These three-dimensional structure data and the three-dimensional positions and orientations of all the cameras are stored in advance in the three-dimensional environment information management means 21.
本実施形態における人物(動体)の形状モデルを図3に基づいて説明する。 A shape model of a person (moving body) in the present embodiment will be described with reference to FIG.
なお、以下の説明における時刻は、特定のサンプリング間隔Δtでサンプリングした回数(または順序数)を示す。そして、初期時刻t0は、動体追跡を開始した時刻(即ち、時刻tが「0」の時点)を示す。前時刻は、初期時刻t0から現在時刻(即ち現時刻)間の時刻であって、現時刻(即ち、処理中の時刻;例えば、t)の直前に動体追跡を行った時刻(即ち、t−1)となる。 The time in the following description indicates the number of times (or the number of orders) sampled at a specific sampling interval Δt. The initial time t 0 indicates the time when moving object tracking is started (that is, the time t is “0”). The previous time is the time between the initial time t 0 and the current time (ie, the current time), and the time when the moving object was tracked immediately before the current time (ie, the time being processed; eg, t) (ie, t -1).
図3では、楕円体eを人物の形状を近似したモデルと考え、人物の位置を床平面上の二次元座標値(x,y)、人物の大きさを楕円体eの半径rと高さhで表す。さらに、対象状態分布推定手段14には、確率統計的状態分布推定法の一種であるMCMC(Markov Chain Monte Carlo)法を用いる。 In FIG. 3, the ellipsoid e is considered as a model approximating the shape of a person, the position of the person is a two-dimensional coordinate value (x, y) on the floor plane, and the size of the person is the radius r and height of the ellipsoid e. Represented by h. Further, the MCMC (Markov Chain Monte Carlo) method, which is a kind of the stochastic statistical state distribution estimation method, is used for the target state distribution estimation means 14.
複数の人物の状態を表す対象状態Sは、各人物の位置,大きさを表すベクトルM(即ち、人物モデル)を並べたものによって表される。対象状態Sの次元数は、最大追跡可能人数Kによって定まる。すなわち、ベクトルMが四次元ベクトルであるため、4K次元ベクトルとなる。例えば、時刻tにおける状態Stは以下の式で表される。 A target state S representing the states of a plurality of persons is represented by a vector M (ie, a person model) representing the position and size of each person. The number of dimensions of the target state S is determined by the maximum number K of people that can be tracked. That is, since the vector M is a four-dimensional vector, it becomes a 4K-dimensional vector. For example, state S t at time t is expressed by the following equation.
また、状態分布Sを構成する人物iの位置、大きさ、形を表す人物モデルMiは、以下の式で表される四次元ベクトルである。 A person model M i representing the position, size, and shape of the person i constituting the state distribution S is a four-dimensional vector represented by the following expression.
ただし、ここでxiおよびyiは床平面状での人物iの位置を示す二次元座標値(x,y)であり、riおよびhiは人物を楕円体で近似した際の楕円体のパラメータ半径rおよび高さhを表す。なお、xi,yi,ri,hiは、例えば、動体追跡装置に備えられた記憶部(例えば、メモリや外部記憶装置)に保存され、アクセスされても良い。 Here, x i and y i are two-dimensional coordinate values (x, y) indicating the position of the person i on the floor plane, and r i and h i are ellipsoids when the person is approximated by an ellipsoid. Represents the parameter radius r and height h. Note that x i , y i , r i , and h i may be stored and accessed in, for example, a storage unit (for example, a memory or an external storage device) provided in the moving object tracking device.
以上のように、本実施形態は、各時刻tにおける対象状態Stを推定することによって、複数人物の状態を逐次推定し、追跡を行うものである。 As described above, the present embodiment, by estimating the target state S t at each time t, sequentially estimating the state of the plurality of persons, and performs tracking.
本実施形態の動体追跡方法の処理手順を図4中のフローチャートに基づいて説明する。なお、以下の説明で、図1中の符号と同じものの説明は省略する。 The processing procedure of the moving body tracking method of the present embodiment will be described based on the flowchart in FIG. In the following description, the same reference numerals as those in FIG. 1 are omitted.
まず、処理が開始されると、対象状態予測手段11により、現時刻での対象状態の予測が行われる(S301)。これは前時刻で計算された対象状態と対象状態の変化ベクトルを用いて行われる線形予測処理である。前時刻で求められた対象状態をSt-1、変化ベクトルを4K次元のベクトルVt-1とすると、現時刻の対象状態の予測値S’t,0は、次の式によって表すことができる。 First, when the process is started, the target state prediction unit 11 predicts the target state at the current time (S301). This is a linear prediction process performed using the target state calculated at the previous time and the change vector of the target state. Assuming that the target state obtained at the previous time is S t−1 and the change vector is a 4K-dimensional vector V t−1 , the predicted value S ′ t, 0 of the target state at the current time can be expressed by the following equation. it can.
ただし、S’のインデックスのtは時刻tを表す。「0」の部分は、予測値の更新回数が「0」であることを示す。後述する対象状態分布の推定(S304)においては、予測値をS’t,0を初期値と見做して、その後、複数回の更新を行って対象状態の分布を求める。
すなわち、インデックスの「0」は更新回数が「0」である初期値であることを示す。
However, t in the index of S ′ represents time t. The portion “0” indicates that the predicted value update count is “0”. In the estimation of the target state distribution (S304), which will be described later, the predicted value is regarded as S ′ t, 0 as the initial value, and then the target state distribution is obtained by performing a plurality of updates.
That is, “0” in the index indicates an initial value whose update count is “0”.
なお、動体追跡の開始(初期時刻t0)直後には前時刻の対象状態、対象状態の変化ベクトルは未知であるため、全てのMiの要素を「0」にしてS0の初期化を行う。 It should be noted that immediately after the start of moving body tracking (initial time t 0 ), since the target state and the change vector of the target state at the previous time are unknown, all elements of M i are set to “0” and S 0 is initialized. Do.
次に、画像取得手段12を用いて、同期撮影された画像データIm1,Im2,…ImpをカメラC1,C2…Cpから取得する(S302)。 Next, using the image acquisition unit 12, the synchronous photography image data Im 1, Im 2, acquires ... Im p from the camera C1, C2 ... Cp (S302) .
次に、シルエット画像作成手段13を用いて、前記カメラC1,C2…Cpから取得した画像データIm1,Im2,…Impに対し、それぞれのシルエット画像Sil1,Sil2,…Silpを作成する(S303)。なお、シルエット画像とは、図5のように撮影した画像の対象を写した領域の輝度値が「1」、他の領域が「0」である2値画像のことであって、画像501は入力画像、画像502が作成されたシルエット画像の一例である。このような画像は、背景差分法やフレーム間差分法などのよく知られた方法を利用することによって簡単に生成できる。 Next, the silhouette images Sil 1 , Sil 2 ,... Sil p are obtained from the image data Im 1 , Im 2 ,... Im p acquired from the cameras C 1, C 2 ,. Create (S303). Note that the silhouette image is a binary image in which the luminance value of the area where the object of the image taken as shown in FIG. 5 is “1” and the other area is “0”. It is an example of a silhouette image in which an input image and an image 502 are created. Such an image can be easily generated by using a well-known method such as a background difference method or an inter-frame difference method.
次に、ステップS301で予測された対象状態S’t,0を対象状態の初期値とし、S’を逐次更新していくことによって、対象状態の確率的分布を推定する(S304)。 Next, the target state S ′ t, 0 predicted in step S301 is set as the initial value of the target state, and S ′ is sequentially updated to estimate the probabilistic distribution of the target state (S304).
ここで、図6に基づいて対象状態の確率的分布を推定する処理手順を説明する。 Here, a processing procedure for estimating the probabilistic distribution of the target state will be described with reference to FIG.
対象状態の確率分布の推定は複数回(即ち、(B+N)回)の状態更新処理によって行われる。最初のB回の更新によって得られた対象状態を捨て、最後のN回に得られた対象状態を状態分布として保存する。このN個の状態は全て等確率で起こりうると考える。 The estimation of the probability distribution of the target state is performed by the state update process a plurality of times (that is, (B + N) times). The target state obtained by the first B updates is discarded, and the target state obtained in the last N times is stored as a state distribution. We consider that all these N states can occur with equal probability.
まず、更新回数nを「0」に初期設定して処理が開始される。 First, the update count n is initially set to “0” and the process is started.
ステップS401では変化タイプの選択を行う。なお、変化タイプとは、状態を変化させる処理のタイプを表すものであって、4種類(第1タイプは人物の追加,第2タイプは人物の消去,第3タイプは人物の位置変更,第4タイプは人物の大きさ変更)から成る。 In step S401, a change type is selected. Note that the change type represents a type of processing to change the state, and four types (first type is person addition, second type is person deletion, third type is person position change, 4 types consist of person size change).
変化タイプの選択の方法は次の通りである。まず、現在の状態として誰も人物を追跡していない場合(全てのMが「0」ベクトル)には、必ず第1タイプが選択される。そして、それ以外の場合には、各タイプが選ばれる確率を予め任意に設定しておき、確率的に4つのタイプから選択を行う。 The method of selecting the change type is as follows. First, when no person is tracked as the current state (all M is a “0” vector), the first type is always selected. In other cases, the probability that each type is selected is set arbitrarily in advance, and the four types are selected probabilistically.
次に、ステップS402では、変化させる対象を選択する。いま、更新回数をn回目とすると、n−1回目に更新された対象状態S’t,n-1を用いて、暫定的な変化状態S*を計算する。 Next, in step S402, an object to be changed is selected. Now, assuming that the number of updates is n, the temporary change state S * is calculated using the target state S ′ t, n−1 updated n−1 .
このときに、一度の更新処理で全ての対象の状態を変化させずに、毎回の更新処理で一つの対象の状態のみを変化させる。まず、変化タイプが人物の追加である場合には、現在「0」ベクトルとなっているMi(即ち、追跡されていないMi)の中からランダムに選択を行う。それ以外の場合には「0」ベクトルとなっていないMi(即ち、追跡されているMi)の中からランダムに選択を行う。 At this time, the state of all the objects is not changed by one update process, but only the state of one object is changed by each update process. First, when the change type is addition of a person, a random selection is made from M i that is currently a “0” vector (that is, M i that is not tracked). M i (i.e., M i being tracked) not "0" vector otherwise performing randomly selected from a.
次に、ステップS403では、選択された人物モデルMiから選択された第1〜第4タイプの各処理に従って暫定的な人物モデルM’iを計算する。以下に、タイプ別の処理を説明する。 Next, in step S403, a temporary person model M ′ i is calculated according to each of the first to fourth types of processing selected from the selected person model M i . Hereinafter, processing by type will be described.
第1タイプ(人物の追加)では、次のような処理を行う。 In the first type (person addition), the following processing is performed.
人物モデルMiが「0」ベクトルのため、人物モデルMiに新たに値の設定を行う必要がある。例えば、以下のようにして値を設定できる。 Since the person model M i is a “0” vector, it is necessary to newly set a value for the person model M i . For example, the value can be set as follows.
三次元環境情報管理手段21によって、人物の空間上で取り得る位置の範囲が既知であるものと仮定し、この範囲を次のように定義する。 It is assumed that the range of positions that can be taken in the person's space is known by the three-dimensional environment information management means 21, and this range is defined as follows.
また、人物を近似する楕円体の大きさを表すパラメータrおよびhに関しては、人物の大きさに関する経験的な事前知識(例えば、3m(メートル)を超える身長の人はいない、など)に基づいて、取り得る値の範囲を同様に制限することができる。ここでは、この範囲を次のように定義する。 The parameters r and h representing the size of an ellipsoid that approximates a person are based on empirical prior knowledge about the size of the person (for example, there is no person with a height exceeding 3 m (meters)). The range of possible values can be similarly limited. Here, this range is defined as follows.
以上のような条件下で、楕円体に関するx,y,r,hのそれぞれのパラメータに関して一様乱数を発生させることによって、M’iを生成することができる。 Under the conditions as described above, M ′ i can be generated by generating uniform random numbers for the respective parameters of x, y, r, and h regarding the ellipsoid.
なお、第1タイプ(人物の追加)の処理は、人物が新たに追跡範囲に入ってきたことを表している。また、追跡範囲内において、予め入退室する場所(例えば、ドアの場所など)の情報が得られていれば、その近辺だけを入退室エリアと見做すことも同様に可能である。 Note that the first type (person addition) processing indicates that a person has newly entered the tracking range. In addition, if information on a place to enter / exit (for example, the location of a door) is obtained in advance within the tracking range, it is also possible to consider only the vicinity as an entrance / exit area.
第2タイプ(人物の消去)では、次のような処理を行う。 In the second type (person deletion), the following processing is performed.
全ての要素を「0」と考え、M’iを「0」ベクトルとする。即ち、第2タイプ(人物の消去)は、追跡していた人物が追跡範囲から消えたことを表している。 All elements are considered “0” and M ′ i is a “0” vector. That is, the second type (person deletion) represents that the person being tracked has disappeared from the tracking range.
第3タイプ(人物の位置変更)では、次のような処理を行う。 In the third type (person position change), the following processing is performed.
選択されたMiの要素の内、人物の二次元平面上での位置(xi,yi)から以下の式に従って変化させた暫定的な位置(x’i,y’i)を計算する。 Of the selected M i elements, a temporary position (x ′ i , y ′ i ) changed from the position (x i , y i ) of the person on the two-dimensional plane according to the following equation is calculated. .
ただし、δx,δyはそれぞれ一次元のガウスノイズであり、そのδx,δyは実験的に任意の値に決めることができる。この暫定的な位置(x’i,y’i)を用いて、以下の式のようにM’iを定義する。 However, δ x and δ y are one-dimensional Gaussian noises, and δ x and δ y can be experimentally determined to arbitrary values. Using this provisional position (x ′ i , y ′ i ), M ′ i is defined as in the following equation.
第4タイプ(人物の大きさ変更)では、次のような処理を行う。 In the fourth type (person size change), the following processing is performed.
選択されたMiの要素の内、人物を近似する楕円体の半径rおよび高さhを表す(ri,hi)から次の式に従って変化させた楕円体の暫定的な形、大きさパラメータ(r’i,h’i)を計算する。 Among the selected elements of M i , the provisional shape and size of the ellipsoid changed from (r i , h i ) representing the radius r and height h of the ellipsoid approximating the person according to the following equation: The parameters (r ′ i , h ′ i ) are calculated.
ただし、δr,δhはそれぞれ一次元のガウスノイズであり、そのδr,δhは実験的に任意の値に決めることができる。この楕円体の暫定的な形、大きさパラメータ(r’i,h’i)を用いて、次の式によってM’iを定義する。 However, δ r and δ h are one-dimensional Gaussian noises, and δ r and δ h can be experimentally determined to arbitrary values. Using the provisional shape and size parameters (r ′ i , h ′ i ) of this ellipsoid, M ′ i is defined by the following equation.
以上の各タイプで生成されたM’iを用いて、暫定的に変化させた対象状態S*を生成する。例えば、S*は、現在時刻tで更新回数をn回目とすれば、n−1回目の更新で得られた状態S’t,n-1のうち選択された人物モデルMiを変化させて生成したM’iに置き換えたものになる。 Using the M ′ i generated in each of the above types, the target state S * that is temporarily changed is generated. For example, S * changes the selected person model M i out of the states S ′ t, n−1 obtained by the (n−1) th update if the number of updates is nth at the current time t. The generated M ′ i is replaced.
次に、暫定的に変化させた対象状態S*を用いて、シルエット画像の作成(S303)で作成されたシルエット画像Sil1,Sil2,…Silpをシミュレートした画像(即ち、シミュレーション画像Sim1,Sim2,…Simp)を作成する(S404)。そのシミュレーション画像の作成(S404)方法は、次の通りである。 Next, using the temporarily changed target state S * , an image simulating the silhouette images Sil 1 , Sil 2 ,... Sil p created in the creation of the silhouette image (S 303) (ie, the simulation image Sim 1 , Sim 2 ,... Sim p ) are created (S 404). The method of creating the simulation image (S404) is as follows.
まず、三次元環境情報管理手段21と対象状態を組み合わせることによって、実世界をシミュレートした仮想シーンを構築する。なお、三次元環境情報管理手段21には、実世界の三次元構造の情報が、床面がXY平面、高さ方向がZ軸となるような座標系を有する三次元の点群(もしくは、ポリゴンデータ)として保存されているものとする。この三次元構造内にステップS403で計算された暫定的な対象状態S*に基づいた楕円体の三次元モデルを複数配置できる。 First, a virtual scene simulating the real world is constructed by combining the three-dimensional environment information management means 21 and the target state. In the three-dimensional environment information management means 21, three-dimensional point information (or a three-dimensional point group having a coordinate system in which the floor surface is the XY plane and the height direction is the Z axis) (or Polygon data). A plurality of three-dimensional ellipsoidal models based on the provisional target state S * calculated in step S403 can be arranged in the three-dimensional structure.
次に、実世界上に配置されたカメラの内部パラメータ(例えば、焦点距離,画像中心など)と外部パラメータ(カメラの三次元位置と姿勢)を用いて、仮想シーンを仮想カメラで投影する(例えば、非特許文献2)ことによって、シミュレーション画像を作成する。なお、前記内部パラメータと外部パラメータは、三次元環境情報管理手段21に保存されているものとする。 Next, a virtual scene is projected by a virtual camera using internal parameters (for example, focal length, image center, etc.) and external parameters (camera three-dimensional position and orientation) arranged in the real world (for example, The non-patent literature 2) creates a simulation image. The internal parameters and external parameters are stored in the three-dimensional environment information management unit 21.
なお、投影の際、画像上の楕円体領域の値を「1」、それ以外の領域の値を「0」とする2値画像とすることによって、シルエット画像Sil1,Sil2,…Silpをシミュレートしたシミュレーション画像Sim1,Sim2,…Simpを作成できる。 During projection, a silhouette image Sil 1 , Sil 2 ,... Sil p is obtained by setting a binary image in which the value of the ellipsoidal region on the image is “1” and the value of the other region is “0”. Sim 1 , Sim 2 ,... Sim p can be created.
以上が、シミュレーション画像の作成方法である。 The above is the method for creating a simulation image.
次に、この暫定的な対象状態S*が、どのくらい尤もらしいかを判断するために、尤度を計算する(S405)。尤度の計算は、事前知識による対象状態自体の確からしさの判定及びステップS303で作成されたシルエット画像Sil1,Sil2,…SilpとステップS404で生成されたシミュレーション画像Sim1,Sim2,…Simpの比較に基づいて計算する。 Next, in order to determine how likely this provisional target state S * is, the likelihood is calculated (S405). Calculation of likelihood, prior knowledge silhouette image created in the determination and step S303 of certainty of the subject state itself by Sil 1, Sil 2, ... simulated generated by Sil p and step S404 image Sim 1, Sim 2, ... calculated based on Sim p comparison.
事前知識の条件による対象状態自体の尤もらしさの判定(即ち、条件に基づく確率的な尤度(即ち、条件尤度)の計算)には、次の2種類の判定が考えられる。 The following two types of determination can be considered for the determination of the likelihood of the target state itself based on the prior knowledge conditions (that is, the calculation of the probabilistic likelihood (that is, the conditional likelihood) based on the condition).
第1判定は、三次元環境に基づく制限を用いた判定である。三次元環境情報管理手段21を用いて、人物状態の位置(x,y)に応じて、存在確率に重みをつけることができる。なお、本実施形態では、人物は床平面上に存在していることを仮定しており、空間中で対象以外に存在している静止物体の上によじ昇ったりすることはない、という条件を仮定している。その仮定の下に、例えば、人物の存在している位置(x,y)における三次元構造の高さに反比例する以下の式で表されるペナルティ関数P(S*)を用意することで、存在確率に重みを付けることが可能である。 The first determination is a determination using a restriction based on a three-dimensional environment. By using the three-dimensional environment information management means 21, the existence probability can be weighted according to the position (x, y) of the person state. In the present embodiment, it is assumed that the person exists on the floor plane, and the condition is that the person does not climb up on a stationary object that exists in the space other than the target. Assumes. Under the assumption, for example, by preparing a penalty function P (S * ) represented by the following equation that is inversely proportional to the height of the three-dimensional structure at the position (x, y) where the person exists, It is possible to weight the existence probability.
ただし、h(Mi)はMiの要素中の位置(xi,yi)における三次元構造のZ値、αは定数であって実験的に任意に設定可能な値である。 However, h (M i ) is the Z value of the three-dimensional structure at the position (x i , y i ) in the element of M i , and α is a constant that can be arbitrarily set experimentally.
第2判定は、追跡している人物同士が三次元空間上で重なることがない、という条件に基づいた判定である。即ち、人物を楕円体で近似しているため、個々の楕円体が重ならない条件(すなわち、異なる二つの楕円体の中心間の距離)が、二つの楕円体の半径の和より大きいことを満たす必要がある。 The second determination is a determination based on a condition that the persons being tracked do not overlap in the three-dimensional space. In other words, since the person is approximated by an ellipsoid, the condition that the individual ellipsoids do not overlap (that is, the distance between the centers of two different ellipsoids) satisfies that the sum of the radii of the two ellipsoids is greater. There is a need.
二人の人物同士が三次元空間上で重ならないようにするために、次の式で表された距離R、二人の人物を表す楕円体の中心同士の距離に応じたペナルティ関数E(S*)を設定する。 In order to prevent two persons from overlapping each other in a three-dimensional space, a penalty function E (S) according to the distance R expressed by the following equation and the distance between the centers of ellipsoids representing the two persons is represented. * ) Is set.
ただし、xn,ynは人物nの位置x座標、y座標を示す。 Here, x n and y n indicate the position x coordinate and y coordinate of the person n.
楕円体の距離が近くなるとペナルティを与える関数Eは、例えば、以下の式のように設定できる。 The function E that gives a penalty when the distance between the ellipsoids becomes short can be set as the following equation, for example.
ただし、βは定数で、実験的に任意に設定可能である。 However, β is a constant and can be arbitrarily set experimentally.
次に、シルエット画像の作成(S303)によって作成されたシルエット画像Sil1,Sil2,…Silpとシミュレーション画像Sim1,Sim2,…Simpの比較について説明する。例えば、以下の評価式によって計算できる(即ち、条件尤度を計算する)。 Then, silhouette images Sil 1 created by the creation of the silhouette image (S303), Sil 2, ... Sil p and simulation image Sim 1, Sim 2, ... comparison of Sim p will be described. For example, it can be calculated by the following evaluation formula (that is, the conditional likelihood is calculated).
ただし、(k,l)は、画像のk行l列成分(画素)を示す。 Here, (k, l) indicates k rows and 1 column components (pixels) of the image.
上記の式では、p台のカメラ全ての情報統合を行っており、複数の視点の情報を使って評価を行っている。 In the above formula, information of all p cameras is integrated, and evaluation is performed using information from a plurality of viewpoints.
最終的に、暫定状態S*の尤度Lは、以下の式のような積演算によって計算される。 Finally, the likelihood L of the provisional state S * is calculated by a product operation like the following equation.
以上の処理が、尤度の計算(S405)である。 The above processing is the likelihood calculation (S405).
次に、ステップS406では、ステップS405で計算された尤度を用いて、暫定状態S*を受け入れて更新するか、もしくは拒否するかを判定する。この判定は、受け入れ拒否判断確率Aの計算に基づいて判定する。受け入れ拒否判断確率Aは、例えば、以下の式により計算できる。 Next, in step S406, it is determined using the likelihood calculated in step S405 whether the provisional state S * is accepted and updated or rejected. This determination is made based on the calculation of the acceptance rejection determination probability A. The acceptance refusal judgment probability A can be calculated by the following equation, for example.
ここで、現在n回目の更新とすると、尤度L’はn−1回目に更新されたS’t,n-1の尤度を表す。つまり、前回の状態よりも今回の状態の方が尤度が高ければ必ず受け入れ、そうでなければ、L/L’の確率(即ち、受け入れ拒否判断確率A)で暫定状態S*を採用する。 Here, assuming that the update is the nth time, the likelihood L ′ represents the likelihood of S ′ t, n−1 updated the n− 1th time. That is, the current state is always accepted if the likelihood is higher than the previous state, and otherwise, the provisional state S * is adopted with the probability of L / L ′ (that is, the acceptance rejection determination probability A).
さらに、暫定状態S*が採用されれば、S’t,nがS*と等しい(S’t,n=S*)ものと見做し、採用が拒否されれば、S’t,nがS’t,n-1と等しい(S’t,n=S’t,n-1)ものと見做して、ステップS407の条件判断ステップへ進む。 Further, if the provisional state S * is adopted, it is assumed that S ′ t, n is equal to S * (S ′ t, n = S * ), and if adoption is rejected, S ′ t, n Is assumed to be equal to S ′ t, n−1 (S ′ t, n = S ′ t, n−1 ), and the process proceeds to the condition determination step of step S407.
ステップS407では、更新処理が規定の回数行われたか否かの判断を行う。更新回数nが、任意に決定できる定数BとNの和で表されるB+N回を超えていれば処理を終了する。 In step S407, it is determined whether the update process has been performed a prescribed number of times. If the number of updates n exceeds B + N times represented by the sum of constants B and N that can be arbitrarily determined, the process is terminated.
また、nがB回を超えていれば、得られた状態S’t,nを対象状態分布記憶手段22に保存しておく。すなわち、N個の状態が対象状態分布記憶手段22に保存されることになり、このN個の状態全てが等確率に起こりうると考え、このN個の状態を対象状態分布とする。 If n exceeds B times, the obtained state S ′ t, n is stored in the target state distribution storage unit 22. That is, N states are stored in the target state distribution storage unit 22, and it is considered that all the N states can occur with equal probability, and these N states are set as a target state distribution.
以上、述べた処理がステップS304である。 The process described above is step S304.
次に、ステップS305では、ステップS304で得られた対象状態分布から最大確率を持つ対象状態の計算を行う。対象状態分布を構成するN個の対象状態は全て等確率で起こると仮定しているため、最大確率を持つ対象状態Stは以下の式によって計算することができる。 Next, in step S305, the target state having the maximum probability is calculated from the target state distribution obtained in step S304. Since it is assumed that N pieces of object state constituting the target state distribution occurs at all equal probability, the target state S t with the maximum probability it can be calculated by the following equation.
また、対象状態予測手段11により、次の時刻の対象状態を予測するために、4K次元の変化ベクトルVを以下の式によって求める。 Further, in order to predict the target state at the next time by the target state prediction means 11, a 4K-dimensional change vector V is obtained by the following equation.
ただし、初期時刻t0においては、上式を計算できないので、Vの全ての要素を「0」とする。このようにして計算したStおよびVを対象状態記憶手段23に保存する。 However, since the above equation cannot be calculated at the initial time t 0 , all elements of V are set to “0”. St and V calculated in this way are stored in the target state storage means 23.
そして、ステップS306では追跡を終了するか否かをチェックする。追跡が終了なら処理を終了とし、まだ追跡を続けるのならば、次の時刻の状態の予測(S301)の処理を行う。例えば、追跡を終了するか否かをチェックするために、追跡停止指示手段(例えば、動体追跡装置に備えられたキーボード装置)を備え、その追跡停止指示手段からの追跡停止指示があった場合に、追跡を停止しても良い。 In step S306, it is checked whether or not to end tracking. If the tracking is completed, the process is terminated. If the tracking is still continued, the process of predicting the state at the next time (S301) is performed. For example, in order to check whether or not to end the tracking, when tracking stop instruction means (for example, a keyboard device provided in the moving object tracking device) is provided and there is a tracking stop instruction from the tracking stop instruction means You may stop tracking.
以上のように、本実施形態における処理を繰り返すことによって、動的に人数の変化する複数の人物の状態を逐次推定できる。 As described above, by repeating the processing in the present embodiment, it is possible to sequentially estimate the states of a plurality of persons whose number of persons dynamically changes.
なお、図1で示した装置における各手段の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、図4、図6で示した処理の手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えばFD(Floppy(登録商標) Disk)や、MO(Magneto−Optical disk)、ROM(Read Only Memory)、メモリカード、CD(Compact Disk)、DVD(Digital Versatile Disk)、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。 It is to be noted that a part or all of the functions of each means in the apparatus shown in FIG. 1 can be configured by a computer program and the program can be executed using the computer to realize the present invention, FIG. 4 and FIG. It is needless to say that the processing procedure shown in FIG. 6 is configured by a computer program and the program can be executed by the computer, and the program for realizing the function by the computer can be read by a computer-readable recording medium, for example, FD (Floppy (registered trademark) Disk), MO (Magneto-Optical disk), ROM (Read Only Memory), memory card, CD (Compact Disk), DVD (Digital Versatile Disk), removable device And recorded in a disk, or stored, it is possible or distribute. It is also possible to provide the above program through a network such as the Internet or electronic mail.
さらに、上述の動体追跡装置に関する方法を記述したコンピュータプログラムを、動体追跡装置に関する方法に必要とされる入出力データを格納したメモリや外部記憶装置等にアクセスするように実装してもよい。 Further, a computer program describing a method related to the moving object tracking device may be mounted so as to access a memory or an external storage device that stores input / output data required for the method related to the moving object tracking device.
なお、本実施形態では、ステップS405の処理において、一例としてシルエット画像とシミュレーション画像の比較に関して対象状態予測手段11を用いたが、画像間の類似度を取る評価関数(例えば、単純な積演算)を利用しても同様に実現できる。 In the present embodiment, in the process of step S405, the target state prediction unit 11 is used as an example for comparison between a silhouette image and a simulation image. However, an evaluation function (for example, a simple product operation) that takes similarity between images. The same can be achieved using.
また、本実施形態では、ステップS405の処理において、一例として環境のペナルティ関数として高さ方向で重みを付けた式8を用いたが、人物の存在位置の重みを表現できる関数を別途に利用できることは当然である。 Further, in the present embodiment, in the process of step S405, as an example, the expression 8 weighted in the height direction is used as the environmental penalty function, but a function that can express the weight of the position of the person can be used separately. Is natural.
そして、本実施形態では、ステップS405の処理において、一例として人物の接近に関するペナルティ関数として式10を用いたが、人物が重なった際にペナルティを与えられる関数を別途に利用できることは当然である。 In this embodiment, in the process of step S405, Expression 10 is used as a penalty function related to the approach of a person as an example, but it is natural that a function that gives a penalty when people overlap can be used separately.
[実施例]
本実施例では、上述の動体追跡装置を用いて、二台のビデオカメラ(カメラC1およびカメラC2)から得られた映像を処理して、追跡範囲に一人ずつ侵入してくる2人の人物を追跡した結果を図4に示した処理フローに基づいて説明する。
[Example]
In this embodiment, the moving object tracking device described above is used to process images obtained from two video cameras (camera C1 and camera C2), and two persons entering the tracking range one by one are detected. The traced result will be described based on the processing flow shown in FIG.
まず、処理が開始されると、対象状態を線形予測する(S301)。 First, when the process is started, the target state is linearly predicted (S301).
次に、カメラから画像を取得する(S302)。なお、図7は、二台のカメラから取得した画像列の一部であり、上段がカメラC1から取得した画像701〜706、下段がカメラC2から取得した画像707〜712である。 Next, an image is acquired from the camera (S302). FIG. 7 is a part of an image sequence acquired from two cameras. The upper row is images 701 to 706 acquired from the camera C1, and the lower row is images 707 to 712 acquired from the camera C2.
次に、得られた画像からシルエット画像を作成する(S303)。背景差分法を用いて作成したシルエット画像を図8に示す。図7と同じように、上段がカメラC1から取得した画像から作成したシルエット画像801〜806、下段がカメラC2から取得した画像から作成したシルエット807〜812である。なお、図8の各シルエット画像は、図7において同じ位置に示されている各画像と対応している。 Next, a silhouette image is created from the obtained image (S303). A silhouette image created using the background subtraction method is shown in FIG. As in FIG. 7, the upper row is a silhouette image 801 to 806 created from an image acquired from the camera C1, and the lower row is a silhouette 807 to 812 created from an image acquired from the camera C2. Each silhouette image in FIG. 8 corresponds to each image shown in the same position in FIG.
次に、ステップS304にて対象状態分布の推定を行う。即ち、ステップS304では、状態を逐次更新させながらその状態をシミュレートしたシミュレーション画像の作成を行って、そのシミュレーション画像の評価を行う。 Next, the target state distribution is estimated in step S304. That is, in step S304, a simulation image simulating the state is created while sequentially updating the state, and the simulation image is evaluated.
図9において、上段はシルエット画像901、下段は上段のシルエット画像をシミュレートしたシミュレーション画像の一部(符号902から904で示されるシミュレーション画像)である。このように様々な状態に変化させながらシミュレーション画像を作成し、尤度の計算、受け入れ拒否演算により対象状態分布を作成する。 In FIG. 9, the upper part is a silhouette image 901, and the lower part is a part of a simulation image simulating the upper silhouette image (simulation images indicated by reference numerals 902 to 904). In this way, a simulation image is created while changing to various states, and a target state distribution is created by likelihood calculation and acceptance rejection calculation.
ステップS305では、ステップS304で計算された対象状態分布より、現在、最大確率を取る対象状態を求め、これを現時刻での対象状態として出力する。また、同時に、前時刻と現時刻での対象状態の変化ベクトルを求める。 In step S305, a target state that currently takes the maximum probability is obtained from the target state distribution calculated in step S304, and this is output as the target state at the current time. At the same time, a change vector of the target state at the previous time and the current time is obtained.
図10に計算された最大確率を取る対象状態を表現した画像を示す。図10は、それぞれ上段がカメラからの画像1001〜1006、中段が最大確率を取る対象状態をシミュレートした画像1007〜1012、下段が俯瞰図として天井にカメラが設置されているとして最大確率を取る対象状態をシミュレートした画像1013〜1018である。 FIG. 10 shows an image representing the target state taking the maximum probability calculated. FIG. 10 shows images 1001 to 1006 from the camera in the upper stage, images 1007 to 1012 in which the middle stage simulates a target state that takes the maximum probability, and takes the maximum probability assuming that the camera is installed on the ceiling as the overhead view. It is the images 1013 to 1018 simulating the target state.
人物H1と人物H2が少し時間を置いて追跡範囲に侵入した後に、すれ違い、最後にまた追跡範囲から退出する様子を明確に追跡できていることを示している。また、追跡する人数が0人→1人→2人→0人のように動的に変化しているが人物の出現と消失を行いながら安定して追跡していることが確認できる。 This shows that after the person H1 and the person H2 have entered the tracking range after a short time, they can clearly trace the situation of passing each other and finally leaving the tracking range. In addition, it can be confirmed that the number of people to be tracked is dynamically changed as 0 → 1 → 2 → 0, but the person is stably tracked while appearing and disappearing.
ステップS306では、現時刻までで、追跡を終了とする場合には、処理を終了とし、そうでない場合には、ステップS301の対象状態の予測へ戻る。 In step S306, if the tracking is to be ended up to the current time, the process is ended, otherwise, the process returns to the prediction of the target state in step S301.
以上の実施例における処理を繰り返すことによって、2人の人物が接近してすれ違うシーンにおいても安定した追跡を行うことができる。即ち、これは複数のカメラの情報が統合されていることを示している。 By repeating the processing in the above embodiment, stable tracking can be performed even in a scene where two persons approach each other and pass each other. That is, this indicates that information of a plurality of cameras is integrated.
また、追跡する人数が動的に変化しているが、人物の出現と消失に対応し、追跡が行えていることを示している。 In addition, although the number of people to be tracked is dynamically changing, it is shown that tracking can be performed in response to the appearance and disappearance of a person.
さらに、このように動的に追跡する人物の人数が変化しても全体の処理量が増えるといった問題がなく、実時間性を確保している。 Furthermore, even if the number of persons to be dynamically tracked changes as described above, there is no problem that the total processing amount increases, and real-time performance is ensured.
そして、2人の体型の違う人物に対しても、予めパラメータを与えることなく、安定した追跡を可能にしている。 Also, stable tracking is possible without giving parameters in advance to two persons with different body shapes.
これらの特徴は、複数のカメラの情報を統合し、体の大きさまで推定できるためである。 These features are because the information of a plurality of cameras can be integrated to estimate the size of the body.
以上、本発明において、記載された具体例に対してのみ詳細に説明したが、本発明の技術思想の範囲で多彩な変形および修正が可能であることは、当業者にとって明白なことであり、このような変形および修正が特許請求の範囲に属することは当然のことである。 Although the present invention has been described in detail only for the specific examples described above, it is obvious to those skilled in the art that various changes and modifications are possible within the scope of the technical idea of the present invention. Such variations and modifications are naturally within the scope of the claims.
例えば、本実施形態の変形として、実験的に任意に設定可能な値(例えば、上述のδx,δy,δr,δh,α,βの値)を入力できる入力手段を備え、その入力手段からの入力値に基づいて、上述の動体追跡に関する処理を行っても良い。即ち、キーボード装置などを含む入力手段によって、値を動体追跡装置に入力し、その入力された値に基づいて、上述の動体追跡に関する処理を行うものである。 For example, as a modification of the present embodiment, an input unit that can input values that can be arbitrarily set experimentally (for example, the values of δ x , δ y , δ r , δ h , α, and β described above) is provided. Based on the input value from the input means, the above-described processing related to moving object tracking may be performed. That is, a value is input to the moving object tracking device by input means including a keyboard device and the above-described processing related to moving object tracking is performed based on the input value.
11…対象状態予測手段
12…画像取得手段
13…シルエット画像作成手段
14…対象状態分布推定手段
15…対象状態計算手段
21…三次元環境情報管理手段
22…対象状態分布記憶手段
23…対象状態記憶手段
501…入力画像
502,801〜812,901…シルエット画像
701〜712,1001〜1006…カメラからの画像
902〜904…シミュレーション画像
1007〜1018…対象状態をシミュレートした画像
B…非対象物体
C1,C2,Cp…カメラ
H1,H2,Hk…人物
e…楕円体
DESCRIPTION OF SYMBOLS 11 ... Target state prediction means 12 ... Image acquisition means 13 ... Silhouette image creation means 14 ... Target state distribution estimation means 15 ... Target state calculation means 21 ... Three-dimensional environment information management means 22 ... Target state distribution storage means 23 ... Target state storage Means 501 ... Input image 502, 801 to 812, 901 ... Silhouette image 701 to 712, 1001 to 1006 ... Image from camera 902 to 904 ... Simulation image 1007 to 1018 ... Image simulating the target state B ... Non-target object C1 , C2, Cp ... camera H1, H2, Hk ... person e ... ellipsoid
Claims (5)
複数の前記動体に対して前時刻に得られた対象状態と対象状態の変化ベクトルとを用いて現時点における対象状態を予測する対象状態予測手段と、
前記画像データを取得する画像取得手段と、
前記画像データから前記動体を写した領域を抽出したシルエット画像を作成するシルエット画像作成手段と、
対象状態予測手段よって得られた対象状態を初期状態と見做し、シルエット画像作成手段によって作成されたシルエット画像と、三次元環境情報管理手段に保存された実世界の三次元構造と、三次元環境情報管理手段に保存された焦点距離・画像中心に関する撮像装置の内部パラメータおよび撮像装置自体の三次元位置および姿勢情報に関する撮像装置の外部パラメータと、を用いて、対象状態分布を推定し、対象状態分布記憶手段に保存されている前時刻の対象状態分布を現時刻の対象状態分布に更新する対象状態分布推定手段と、
対象状態分布記憶手段に保存された現時刻の対象状態分布に基づいて、最大確率となる対象状態を計算し、その現時刻において最大確率となる対象状態と前時刻において最大確率となる対象状態に基づいて変化ベクトルを計算し、その計算された変化ベクトルを対象状態記憶手段に記憶させる対象状態計算手段と、
予め計測しておいた実世界の三次元構造と前記撮像装置の内部パラメータ及び外部パラメータを保存する三次元環境情報管理手段と、
各時刻に推定された対象状態の確率的分布を記憶する対象状態分布記憶手段と、
各時刻の前記変化ベクトルを記憶する対象状態記憶手段と、を備え、
前記対象状態分布推定手段が、予め用意された変化タイプから任意の確率に従って変化タイプを選択する手段と、
前記変化タイプを適応して変化させる動体を選択する手段と、
前記選択された変化タイプに基づいて、選択された動体の対象状態を変化させる手段と、
前記撮像装置と同じ外部パラメータ及び内部パラメータを有する仮想撮像手段で、前記変化させた対象状態を投影して作成された画像を、前記シルエット画像をシミュレートしたシミュレーション画像と見做す手段と、
前記三次元構造に関する事前知識の条件に基づいた対象状態の確率的な第1条件尤度と、動体同士の重なりに関する事前知識の条件に基づいた対象状態の確率的な第2条件尤度と、
前記シルエット画像とシミュレーション画像の比較による第3条件尤度と、を計算し、その第1乃至第3条件尤度の積を、前記変化させた対象状態の尤度と見做す手段と、
前記変化させた対象状態の尤度を用いてシミュレーション画像の暫定状態に更新した回数に応じた対象状態分布を推定する手段と、
を有することを特徴とする動体追跡装置。 Assuming the three-dimensional position and size of the moving object as the target state of the moving object, the moving object is imaged at a specific time interval using one or a plurality of imaging devices, and a plurality of images obtained by the imaging A moving object tracking device that tracks the moving object based on image data,
Target state prediction means for predicting a target state at the present time using a target state obtained at a previous time and a change vector of the target state for the plurality of moving objects;
Image acquisition means for acquiring the image data;
Silhouette image creating means for creating a silhouette image obtained by extracting an area in which the moving object is copied from the image data;
Considering the target state obtained by the target state prediction means as the initial state, the silhouette image created by the silhouette image creation means, the three-dimensional structure of the real world stored in the three-dimensional environment information management means, and the three-dimensional Estimate the target state distribution using the internal parameters of the imaging device related to the focal length and image center stored in the environmental information management means and the external parameters of the imaging device related to the 3D position and orientation information of the imaging device itself, and the target Target state distribution estimating means for updating the target state distribution at the previous time stored in the state distribution storage means to the target state distribution at the current time;
Based on the target state distribution at the current time stored in the target state distribution storage means, the target state having the maximum probability is calculated, and the target state having the maximum probability at the current time and the target state having the maximum probability at the previous time are calculated. A target state calculation unit that calculates a change vector based on the calculated change vector and stores the calculated change vector in a target state storage unit;
Three-dimensional environment information management means for storing the real-world three-dimensional structure measured in advance and the internal and external parameters of the imaging device;
Object state distribution storage means for storing a probabilistic distribution of the object state estimated at each time;
Object state storage means for storing the change vector at each time ,
Means for selecting a change type according to an arbitrary probability from a change type prepared in advance, the target state distribution estimating means;
Means for adaptively changing the moving type to change the moving type;
Means for changing the target state of the selected moving object based on the selected change type;
A virtual imaging unit having the same external parameters and internal parameters as the imaging device, a unit that regards an image created by projecting the changed target state as a simulation image simulating the silhouette image;
A probabilistic first condition likelihood of a target state based on a prior knowledge condition relating to the three-dimensional structure, and a probabilistic second condition likelihood of the target state based on a prior knowledge condition relating to overlapping of moving objects;
Means for calculating a third condition likelihood by comparing the silhouette image and the simulation image, and considering a product of the first to third condition likelihoods as the likelihood of the changed target state;
Means for estimating a target state distribution according to the number of times the simulation image is updated to the provisional state using the likelihood of the changed target state ;
A moving body tracking device comprising:
前記動体の対象状態を楕円体モデルの集合と見做し、各動体の位置を任意の平面上の位置(x,y)、動体の大きさを該楕円体モデルの半径rと高さh、で表し、
それらパラメータx,y,r,hの値の組み合わせを複数記憶する、
ことを特徴とする動体追跡装置。 In the moving object tracking device of claim 1 Symbol placement,
The target state of the moving object is regarded as a set of ellipsoid models, the position of each moving object is a position (x, y) on an arbitrary plane, the size of the moving object is the radius r and height h of the ellipsoid model, Represented by
Storing a plurality of combinations of values of these parameters x, y, r, h,
A moving body tracking device characterized by that.
複数の前記動体に対して前時刻に得られた対象状態と対象状態の変化ベクトルとを用いて現時点における対象状態を予測する対象状態予測ステップと、
前記画像データを取得する画像取得ステップと、
前記画像データから前記動体を写した領域を抽出したシルエット画像を作成するシルエット画像作成ステップと、
対象状態予測手段よって得られた対象状態を初期状態と見做し、シルエット画像作成手段によって作成されたシルエット画像と、三次元環境情報管理手段に保存された実世界の三次元構造と、三次元環境情報管理手段に保存された焦点距離・画像中心に関する撮像装置の内部パラメータ及び撮像装置自体の三次元位置および姿勢情報に関する撮像装置の外部パラメータと、を用いて、対象状態分布を推定し、対象状態分布記憶手段に保存されている前時刻の対象状態分布を現時刻の対象状態分布に更新する対象状態分布推定ステップと、
対象状態分布記憶手段に保存された現時刻の対象状態分布に基づいて最大確率となる対象状態を計算し、その現時刻において最大確率となる対象状態と前時刻において最大確率となる対象状態に基づいて変化ベクトルを計算し、その計算された変化ベクトルを対象状態記憶手段に記憶させる対象状態計算ステップと、
予め計測しておいた実世界の三次元構造と前記撮像装置の内部パラメータ及び外部パラメータを保存する三次元環境情報管理ステップと、
各時刻に推定された対象状態の確率的分布を記憶する対象状態分布記憶ステップと、
各時刻の前記変化ベクトルを記憶する対象状態記憶ステップと、を有し、
前記対象状態分布推定ステップが、予め用意された変化タイプから任意の確率に従って変化タイプを選択するステップと、
前記変化タイプを適応して変化させる動体を選択するステップと、
前記選択された変化タイプに基づいて、選択された動体の対象状態を変化させるステップと、
前記撮像装置と同じ外部パラメータ及び内部パラメータを有する仮想撮像手段で、前記変化させた対象状態を投影して作成された画像を、前記シルエット画像をシミュレートしたシミュレーション画像と見做すステップと、
前記三次元構造に関する事前知識に基づいた対象状態の確率的な第1条件尤度と、動体同士の重なりに関する事前知識に基づいた対象状態の確率的な第2条件尤度と、
前記シルエット画像とシミュレーション画像の比較による第3条件尤度と、を計算し、その第1乃至第3条件尤度の積を、前記変化させた対象状態の尤度と見做すステップと、
前記変化させた対象状態の尤度を用いてシミュレーション画像の暫定状態に更新した回数に応じた対象状態分布を推定するステップと、
を有することを特徴とする動体追跡方法。 Assuming the three-dimensional position and size of the moving object as the target state of the moving object, the moving object is imaged at a specific time interval using one or a plurality of imaging devices, and a plurality of images obtained by the imaging A moving body tracking method for tracking a moving body based on image data,
A target state prediction step of predicting a current target state using a target state and a change vector of the target state obtained at a previous time for the plurality of moving objects;
An image acquisition step of acquiring the image data;
A silhouette image creating step for creating a silhouette image obtained by extracting an area in which the moving object is copied from the image data;
Considering the target state obtained by the target state prediction means as the initial state, the silhouette image created by the silhouette image creation means, the three-dimensional structure of the real world stored in the three-dimensional environment information management means, and the three-dimensional Estimate the target state distribution using the internal parameters of the imaging device related to the focal length / image center stored in the environmental information management means and the external parameters of the imaging device related to the 3D position and orientation information of the imaging device itself, and A target state distribution estimating step of updating the target state distribution at the previous time stored in the state distribution storage means to the target state distribution at the current time;
Based on the target state distribution having the maximum probability based on the target state distribution at the current time stored in the target state distribution storage means, and based on the target state having the maximum probability at the current time and the target state having the maximum probability at the previous time A target state calculating step of calculating a change vector and storing the calculated change vector in a target state storage means;
A three-dimensional environment information management step for storing the real-world three-dimensional structure measured in advance and the internal and external parameters of the imaging device;
A target state distribution storage step for storing a probabilistic distribution of the target state estimated at each time;
A target state storage step for storing the change vector at each time ,
The target state distribution estimating step selects a change type according to an arbitrary probability from previously prepared change types;
Selecting a moving body to adapt and change the change type;
Changing the target state of the selected moving object based on the selected change type;
A virtual imaging means having the same external parameters and internal parameters as the imaging device, and considering an image created by projecting the changed target state as a simulation image simulating the silhouette image;
A probabilistic first condition likelihood of the target state based on prior knowledge regarding the three-dimensional structure, and a probabilistic second condition likelihood of the target state based on prior knowledge regarding overlapping of moving objects,
Calculating a third condition likelihood by comparing the silhouette image and the simulation image, and considering a product of the first to third condition likelihoods as the likelihood of the changed target state;
Estimating a target state distribution according to the number of times of updating to the provisional state of the simulation image using the likelihood of the changed target state ;
A moving body tracking method characterized by comprising:
前記動体の対象状態を楕円体モデルの集合と見做し、各動体の位置を任意の平面上の位置(x,y)、動体の大きさを該楕円体モデルの半径rと高さh、で表し、
それらパラメータx,y,r,hの値の組み合わせを複数記憶する、
ことを特徴とする動体追跡方法。 The moving body tracking method according to claim 3 ,
The target state of the moving object is regarded as a set of ellipsoid models, the position of each moving object is a position (x, y) on an arbitrary plane, the size of the moving object is the radius r and height h of the ellipsoid model, Represented by
Storing a plurality of combinations of values of these parameters x, y, r, h,
The moving body tracking method characterized by this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006158007A JP4759447B2 (en) | 2006-06-07 | 2006-06-07 | Moving object tracking device, moving object tracking method, and recording medium storing a program describing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006158007A JP4759447B2 (en) | 2006-06-07 | 2006-06-07 | Moving object tracking device, moving object tracking method, and recording medium storing a program describing the method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007328479A JP2007328479A (en) | 2007-12-20 |
JP4759447B2 true JP4759447B2 (en) | 2011-08-31 |
Family
ID=38928917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006158007A Expired - Fee Related JP4759447B2 (en) | 2006-06-07 | 2006-06-07 | Moving object tracking device, moving object tracking method, and recording medium storing a program describing the method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4759447B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4923000B2 (en) * | 2008-06-11 | 2012-04-25 | 日本電信電話株式会社 | MULTI-OBJECT TRACKING METHOD, MULTI-OBJECT TRACKING DEVICE, MULTI-OBJECT TRACKING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM |
KR101480410B1 (en) | 2008-12-04 | 2015-01-08 | 삼성전자주식회사 | Apparatus and method for correcting sports posture in digital image processing device |
JP4879257B2 (en) * | 2008-12-12 | 2012-02-22 | 日本電信電話株式会社 | Moving object tracking device, moving object tracking method, and moving object tracking program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4070618B2 (en) * | 2003-01-15 | 2008-04-02 | 日本電信電話株式会社 | Object tracking method, object tracking apparatus, object tracking method program, and recording medium recording the program |
US7212665B2 (en) * | 2004-11-05 | 2007-05-01 | Honda Motor Co. | Human pose estimation with data driven belief propagation |
-
2006
- 2006-06-07 JP JP2006158007A patent/JP4759447B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007328479A (en) | 2007-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7940957B2 (en) | Object tracker for visually tracking object motion | |
JP4951490B2 (en) | Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program | |
JP4625129B2 (en) | Monocular tracking of 3D human motion using coordinated mixed factor analysis | |
JP6816058B2 (en) | Parameter optimization device, parameter optimization method, program | |
Gao et al. | Object tracking using firefly algorithm | |
AU2018379393B2 (en) | Monitoring systems, and computer implemented methods for processing data in monitoring systems, programmed to enable identification and tracking of human targets in crowded environments | |
JP5555207B2 (en) | 3D posture estimation apparatus, 3D posture estimation method, and program | |
CN107980150A (en) | Three dimensions is modeled | |
Ye et al. | Faster voxelpose: Real-time 3d human pose estimation by orthographic projection | |
US20120114173A1 (en) | Image processing device, object tracking device, and image processing method | |
KR20120014106A (en) | Motion blur modeling for image formation | |
WO2021044122A1 (en) | Scene representation using image processing | |
KR101925879B1 (en) | Method of tracking motion using depth image and device thereof | |
EP3998582A1 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
JP2005174353A (en) | Object detection | |
JP2008134939A (en) | Moving object tracking apparatus, moving object tracking method, moving object tracking program with the method described therein, and recording medium with the program stored therein | |
JP4070618B2 (en) | Object tracking method, object tracking apparatus, object tracking method program, and recording medium recording the program | |
JP4759447B2 (en) | Moving object tracking device, moving object tracking method, and recording medium storing a program describing the method | |
JP2007025863A (en) | Photographing system, photographing method, and image processing program | |
JP4673241B2 (en) | Moving object tracking device, moving object tracking method, and recording medium storing program realizing the method | |
KR100635883B1 (en) | System for real-time objects tracking | |
JP2021149687A (en) | Device, method and program for object recognition | |
JP2010187130A (en) | Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein | |
US20230419507A1 (en) | Systems and methods for motion estimation and view prediction | |
JP2005242646A (en) | People flow measuring system, people flow measuring method and people flow measuring program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080905 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090605 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110531 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4759447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140610 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |