JP5751996B2 - Subject three-dimensional region estimation method and program - Google Patents
Subject three-dimensional region estimation method and program Download PDFInfo
- Publication number
- JP5751996B2 JP5751996B2 JP2011196928A JP2011196928A JP5751996B2 JP 5751996 B2 JP5751996 B2 JP 5751996B2 JP 2011196928 A JP2011196928 A JP 2011196928A JP 2011196928 A JP2011196928 A JP 2011196928A JP 5751996 B2 JP5751996 B2 JP 5751996B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- coordinates
- plane
- estimating
- likelihood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
本発明は、自由視点映像の合成において最も重要な処理である、被写体の3次位置を推定する方法およびプログラムに関する。 The present invention relates to a method and a program for estimating a tertiary position of a subject, which is the most important process in the synthesis of a free viewpoint video.
大空間を対象に、カメラの強校正を前提とせず、画像情報のみを用いて任意視点画像を合成する手法が提案された。しかしながら、サッカー等の屋外大空間で実施されるスポーツ映像を対象に、選手の3次元位置を高精度に推定する従来技術は、単一カメラ情報のみを用いるものがほとんどである。 A method for synthesizing an arbitrary viewpoint image using only image information without using strong camera calibration as a target has been proposed. However, most of the conventional techniques for estimating a player's three-dimensional position with high accuracy for sports images performed in a large outdoor space such as soccer use only single camera information.
また、非特許文献1は、一般状態空間モデルにおける高次元の状態ベクトルの推定手法として、実装の容易さから様々な応用分野へ急速に普及しつつある粒子フィルタの概説を行っている。 Non-Patent Document 1 outlines a particle filter that is rapidly spreading to various application fields from the ease of implementation as a high-dimensional state vector estimation method in a general state space model.
しかしながら、単一カメラ情報のみを用いる従来技術では、被写体どうしが重なるオクルージョン領域の発生により、推定精度が低下するという課題があった。 However, the conventional technique using only single camera information has a problem that the estimation accuracy is lowered due to the occurrence of an occlusion region where subjects overlap each other.
以上の問題点を踏まえ、本発明では、単一のカメラ映像だけでなく、同期撮影された複数のカメラ映像を統合的に扱うことで、被写体3次元位置推定の精度を向上させる被写体3次元領域推定方法およびプログラムを提供することを目的とする。 In view of the above problems, the present invention integrates not only a single camera image but also a plurality of camera images taken synchronously, thereby improving the accuracy of the subject 3D position estimation. An object is to provide an estimation method and a program.
上記目的を実現するため本発明による被写体の3次元世界座標を推定する方法は、初期フレームにおける被写体の3次元世界座標と、複数のカメラで撮影された複数フレームの、前記被写体を含むカメラ画像とから、後続フレームにおける被写体の3次元世界座標を推定する方法であって、前記初期フレームにおける被写体の3次元世界座標を特定平面上のXY座標に射影するステップと、前記後続フレームにおける前記特定平面上の被写体のXY座標を時間軸情報に基づき推定するステップと、前記特定平面上の被写体のXY座標を評価するステップと、を含み、前記特定平面上のXY座標に射影するステップは、前記被写体の3次元世界座標を、前記被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面を前記特定平面として該俯瞰平面上のXY座標に射影し、前記被写体を俯瞰平面上に存在する複数の粒子として近似し、前記被写体のXY座標を評価するステップは、前記俯瞰平面上の被写体のXY座標が被写体らしいかどうかを示す尤度を、前記被写体が前記粒子として近似された各カメラ画像から算出し、全カメラ画像から算出された被写体ごとの該尤度の総和から、前記俯瞰平面上の当該被写体のXY座標が被写体のものらしいかどうかを被写体ごとに評価し、前記後続フレームにおける被写体の3次元世界座標を、被写体のものらしいと評価されたXY座標でマップ化して推定する。 In order to achieve the above object, a method for estimating the three-dimensional world coordinates of a subject according to the present invention includes a three-dimensional world coordinate of a subject in an initial frame, a plurality of frames taken by a plurality of cameras, and a camera image including the subject. A method for estimating a three-dimensional world coordinate of a subject in a subsequent frame , the step of projecting the three-dimensional world coordinate of the subject in the initial frame to an XY coordinate on a specific plane; and on the specific plane in the subsequent frame estimating on the basis of XY coordinates of the object on the time axis information, the steps to evaluate the XY coordinates of an object on a specific plane, only including the step of projecting the XY coordinates on the specific plane, the The 3D world coordinates of the subject are specified as the bird's-eye view plane obtained when the field surface where the subject is present is seen from directly above. The step of projecting onto the XY coordinates on the overhead view plane as a plane, approximating the subject as a plurality of particles existing on the overhead view plane, and evaluating the XY coordinates of the subject is as follows: Likelihood indicating whether or not it seems to be a subject is calculated from each camera image in which the subject is approximated as the particle, and the subject on the overhead plane is calculated from the sum of the likelihood for each subject calculated from all camera images. The XY coordinates of the subject are evaluated for each subject, and the three-dimensional world coordinates of the subject in the subsequent frame are estimated by mapping with the XY coordinates evaluated to be the subject .
また、前記時間軸情報に基づき推定するステップは、前記被写体を形成する粒子に関して、俯瞰平面上の移動方向をフレーム間のXY座標差分に基づく速度により定式化することも好ましい。 In the step of estimating based on the time axis information, it is also preferable to formulate the moving direction on the bird's eye plane with respect to the particles forming the subject based on the speed based on the XY coordinate difference between frames.
また、前記被写体のXY座標を評価するステップは、各カメラの前記俯瞰平面に対する平面射影行列を推定するサブステップと、前記平面射影行列により射影された各カメラ画像から、被写体を形成する各粒子の尤度を算出するサブステップと、前記被写体を形成する各粒子の尤度から、前記後続フレームで被写体を形成する粒子群のXY座標を推定するサブステップとを含むことも好ましい。
を含むこと
The step of evaluating the XY coordinates of the subject includes a sub-step of estimating a plane projection matrix with respect to the overhead plane of each camera, and each camera image projected by the plane projection matrix of each particle forming the subject. a sub-step of calculating the likelihood, the likelihoods of the particles forming the subject, it is also preferred to include a sub-step of estimating the XY coordinates of the particles forming the subject with the subsequent frame.
Including
また、前記カメラの前記俯瞰平面に対する平面射影行列を推定するサブステップは、前記俯瞰平面上のXY座標が既知の特徴点について、前記カメラ画像中で観測される画素を4点以上与え、最小2乗法により前記俯瞰平面に対する平面射影行列を推定することも好ましい。 Further, the sub-step of estimating a plane projection matrix for the overhead plane of the camera gives four or more pixels observed in the camera image for feature points whose XY coordinates on the overhead plane are known, and a minimum of 2 It is also preferable to estimate a plane projection matrix with respect to the overhead view plane by multiplication.
また、前記各粒子の尤度を算出するサブステップは、前記粒子のXY座標を前記俯瞰平面に対する平面射影行列により各カメラ画像へ射影し、前記各カメラ画像において、前記粒子のXY座標が射影された画素を底辺の中心とする長方形領域を設定し、前記長方形領域内部に含まれる各画素の被写体らしさを算出し、前記被写体らしさの平均から前記粒子の尤度を算出することも好ましい。 The sub-step of calculating the likelihood of each particle projects the XY coordinates of the particles onto each camera image using a plane projection matrix with respect to the overhead view plane , and the XY coordinates of the particles are projected on each camera image. It is also preferable to set a rectangular area with the bottom pixel as the center of the base, calculate the subjectivity of each pixel included in the rectangular area, and calculate the likelihood of the particle from the average of the subjectness.
また、前記各画素の被写体らしさは、現時刻のフレーム直前までに構築される動的背景モデルに基づく尤度と、被写体のユニフォーム色に基づく情報と、背景パターン色に基づく情報とから算出されることも好ましい。 Further, the subjectivity of each pixel is calculated from the likelihood based on the dynamic background model constructed immediately before the frame at the current time, information based on the uniform color of the subject, and information based on the background pattern color. It is also preferable.
また、前記後続フレームで被写体を形成する粒子群のXY座標を推定するサブステップは、一定の尤度以下の粒子を消滅させ、一定尤度より大きい粒子近傍に、新たな粒子を再配置する処理を含むことも好ましい。 Also, sub-step of estimating the XY coordinates of the particles forming the subject with the subsequent frame, extinguished particles below a certain likelihood, the larger particles near than a certain likelihood, to reposition the new grain processing It is also preferable to contain .
上記目的を実現するため本発明による被写体の3次元世界座標を推定することを特徴とするプログラムは、初期フレームにおける被写体の3次元世界座標と、複数のカメラで撮影された複数フレームの、前記被写体を含むカメラ画像とから、後続フレームにおける被写体の3次元世界座標を推定するためのコンピュータを、前記初期フレームにおける被写体の3次元世界座標を特定平面上のXY座標に射影する手段と、前記後続フレームにおける前記特定平面上の被写体のXY座標を時間軸情報に基づき推定する手段と、前記特定平面上の被写体のXY座標を評価する手段として機能させ、前記特定平面上のXY座標に射影する手段は、前記被写体の3次元世界座標を、前記被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面を前記特定平面として該俯瞰平面上のXY座標に射影し、前記被写体を俯瞰平面上に存在する複数の粒子として近似し、前記被写体のXY座標を評価する手段は、前記俯瞰平面上の被写体のXY座標が被写体らしいかどうかを示す尤度を、前記被写体が前記粒子として近似された各カメラ画像から算出し、全カメラ画像から算出された被写体ごとの該尤度の総和から、前記俯瞰平面上の当該被写体のXY座標が被写体のものらしいかどうかを被写体ごとに評価し、前記後続フレームにおける被写体の3次元世界座標を、被写体のものらしいと評価されたXY座標でマップ化して推定する被写体の3次元世界座標を推定する。 A program characterized by estimating a three-dimensional world coordinates of an object according to the present invention for achieving the above object, a three-dimensional world coordinates of the object in the initial frame, a plurality of frames taken by a plurality of cameras, the subject A computer for estimating the three-dimensional world coordinates of the subject in the subsequent frame from the camera image including the image, and means for projecting the three-dimensional world coordinates of the subject in the initial frame to XY coordinates on a specific plane; and the subsequent frame said means for estimating, based the XY coordinates of an object on a particular plane in the time axis information, to function as a commentary worth means XY coordinates of the object on the particular plane, means for projecting the XY coordinates on the particular plane in Is obtained when the three-dimensional world coordinates of the subject are viewed from directly above the field surface on which the subject exists. Projecting onto the XY coordinates on the overhead plane using the viewpoint plane as the specific plane, approximating the subject as a plurality of particles existing on the overhead plane, and evaluating the XY coordinates of the subject on the overhead plane A likelihood indicating whether or not the XY coordinates of the subject are likely to be a subject is calculated from each camera image in which the subject is approximated as the particle, and the overhead is calculated from the sum of the likelihood for each subject calculated from all camera images. Whether the XY coordinates of the subject on the plane are likely to be the subject is evaluated for each subject, and the three-dimensional world coordinates of the subject in the subsequent frame are mapped and estimated with the XY coordinates evaluated as likely to be the subject. Estimate the 3D world coordinates of the subject.
本発明により、被写体3次元領域の推定精度を大幅に改善することができ、自由視点映像の合成画質を向上することができる。 According to the present invention, it is possible to greatly improve the estimation accuracy of the subject three-dimensional region and improve the composite image quality of the free viewpoint video.
本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。提案手法は、時間軸情報と複数カメラ間の情報を統合的に扱うことを特徴とする。具体的には、ある特定フレームにおいて、各選手の3次元位置を真上から見下ろした場合に得られるXY座標でマップ化し、後続フレームでは、同マップのフレーム間情報に基づく動き予測と、カメラ間での対応を考慮した選手らしさの評価(候補点をカメラ視点に投影し、選手かどうかを評価)によってマップを自動生成する。以下、本フローチャートに基づいて説明する。なお、本実施例では、非固定ズームカメラの3次元位置は変化しないことを前提とする。 The best mode for carrying out the present invention will be described in detail below with reference to the drawings. The proposed method is characterized by handling time axis information and information between multiple cameras in an integrated manner. Specifically, in a specific frame, map with the XY coordinates obtained when the three-dimensional position of each player is looked down from directly above, and in the subsequent frame, motion prediction based on inter-frame information of the map, and between cameras A map is automatically generated by evaluating the player's characteristics (projecting candidate points to the camera viewpoint and evaluating whether or not the player is a player) in consideration of the correspondence in Hereinafter, description will be given based on this flowchart. In this embodiment, it is assumed that the three-dimensional position of the non-fixed zoom camera does not change.
開始:複数フレーム分の多視点映像を入力する。つまり、2台以上のカメラで撮影された複数フレームのカメラ画像が入力される。 Start: Input multi-view video for multiple frames. That is, camera images of a plurality of frames taken by two or more cameras are input.
ステップ1:各カメラのフィールド面に対する平面射影行列を推定する。例えば、フィールド上ライン等、予め3次元座標が既知の特徴点について、カメラ画像中での画素座標を複数組与えることで、平面射影行列Hcを推定することができる(参考:特願2010−032136)。また、空間内のユークリッド座標系とカメラ座標系との射影関係を推定するカメラの強校正を予め行って、平面射影行列Hcを事前に求めておくこともできる。 Step 1: Estimate a planar projection matrix for the field plane of each camera. For example, the plane projection matrix Hc can be estimated by giving a plurality of pixel coordinates in the camera image for feature points whose three-dimensional coordinates are known in advance, such as a line on the field (reference: Japanese Patent Application No. 2010-032136). ). It is also possible to perform a strong camera calibration to estimate the projection relationship between the Euclidean coordinate system in the space and the camera coordinate system in advance, and to obtain the planar projection matrix Hc in advance.
平面射影行列Hcは、3行3列の行列であり、対象フィールドの2次元座標中の点(u、v)をカメラ画素座標(u’、v’)に射影する。つまり、
s(u’、v’、1)T=Hc(u、v、1)T
である。なお、sは規格化のためのスカラーである。
The planar projection matrix Hc is a 3 × 3 matrix, and projects the point (u, v) in the two-dimensional coordinates of the target field to the camera pixel coordinates (u ′, v ′). That means
s (u ′, v ′, 1) T = Hc (u, v, 1) T
It is. Note that s is a scalar for normalization.
ステップ2:各被写体を複数の粒子で近似する。3次元世界座標を、各被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面上のXY座標に射影し、各被写体を俯瞰平面上に存在する複数の粒子として近似する。この被写体は、N個の粒子から構成されるものとして、時刻tにおける被写体の状態を、多数の離散的な粒子群として定式化する。時刻tの被写体は、
ステップ3:粒子の状態遷移モデルを定式化する。各被写体を形成する粒子に関して、俯瞰平面上の移動方向をフレーム間のXY座標差分に基づく速度(U,V)により定式化する。 Step 3: Formulate a particle state transition model. For the particles forming each subject, the moving direction on the overhead view plane is formulated by the velocity (U, V) based on the XY coordinate difference between frames.
フレームtで粒子の速度を表す移動ベクトル(Ut,Vt)は、
(Ut,Vt)=(Xt−Xt−1,Yt−Yt−1)
と定式化される。
The movement vector (U t , V t ) representing the velocity of the particles at frame t is
(U t , V t ) = (X t −X t−1 , Y t −Y t−1 )
Is formulated.
この式により、2フレーム分(t=0、1)の粒子の位置が入力された場合、(U1,V1)が求まり、この速度を用いてt=2での粒子の位置(U2,V2)が求まる。t=3以上も同様にして粒子の位置を求めることができる。 When the position of the particle for two frames (t = 0, 1) is input according to this equation, (U 1 , V 1 ) is obtained, and the position of the particle at t = 2 (U 2 ) is obtained using this velocity. , V 2 ). The position of the particles can be obtained in the same manner for t = 3 or more.
ステップ4:粒子の尤度を算出する。被写体のXY座標での位置を推定するフレームをtとする。ステップ3の式により、初期フレーム(t=0)の粒子のXY座標(X0 (n)、Y0 (n))から、フレームtでの粒子のXY座標(Xt (n)、Yt (n))が求まる。求めた(Xt (n)、Yt (n))を、平面射影行列Hcにより各カメラ画像中の画素(xt,c (n)、yt,c (n))に射影する。
s(xt,c (n)、yt,c (n)、1)T=Hc(Xt (n)、Yt (n)、1)T
なお、n=1,・・・,Nであり、cは、カメラを示す。例えばカメラがC台あるとき、c=1,・・・,Cとなる。
Step 4: Calculate the likelihood of particles. Let t be the frame for estimating the position of the subject in the XY coordinates. From the XY coordinates (X 0 (n) , Y 0 (n) ) of the particles in the initial frame (t = 0), the XY coordinates (X t (n) , Y t of the particles in the frame t are obtained from the equation of Step 3. (N) ) is obtained. The obtained (X t (n) , Y t (n) ) is projected onto the pixel (x t, c (n) , y t, c (n) ) in each camera image by the plane projection matrix Hc.
s (x t, c (n) , y t, c (n) , 1) T = Hc (X t (n) , Y t (n) , 1) T
Note that n = 1,..., N, and c indicates a camera. For example, when there are C cameras, c = 1,.
次に、カメラ画像において、画素(xt,c (n)、yt,c (n))を底辺の中心点とする長方形領域を設定する。例えば、長方形の幅をw、高さをvとすると画素xyに対して、(x−w/2、y)、(x+w/2、y)、(x−w/2、y+v)、(x+w/2、y+v)の4点の長方形領域が設定される。図2は、画素xyに対して設定された長方形領域を示す。 Next, in the camera image, a rectangular region having the pixel (x t, c (n) , y t, c (n) ) as the center point of the base is set. For example, assuming that the width of the rectangle is w and the height is v, for the pixel xy, (x−w / 2, y), (x + w / 2, y), (x−w / 2, y + v), (x + w) A rectangular area of 4 points of / 2, y + v) is set. FIG. 2 shows a rectangular area set for the pixel xy.
次に、この長方形領域に含まれる各画素について、被写体らしさを示す尤度を算出し、算出された尤度の平均値を、画素xyでの粒子の尤度(Φ(xy))とする。Φ(xy)は、
Φ(xy)=(1/カメラ台数)×(1/長方形内の画素数)ΣΣφc(x’、y’)
と表せる。
ここで、φc(x’、y’)は、カメラcによるカメラ画像での長方形領域内の画素(x’、y’)での被写体らしさを示す尤度であり、最初のΣは全カメラについての総和であり、次のΣは長方形内のすべて画素についての総和である。
Next, for each pixel included in the rectangular area, the likelihood indicating the subjectness is calculated, and the average value of the calculated likelihood is defined as the particle likelihood (Φ (xy)) at the pixel xy. Φ (xy) is
Φ (xy) = (1 / number of cameras) × (1 / number of pixels in rectangle) ΣΣφc (x ′, y ′)
It can be expressed.
Here, φc (x ′, y ′) is a likelihood indicating the subjectness at the pixel (x ′, y ′) in the rectangular area in the camera image by the camera c, and the first Σ is for all the cameras. The next Σ is the sum for all pixels in the rectangle.
なお、各画素での被写体らしさを示す尤度は、時刻t−1までに構築される動的背景モデルをもとに尤度を算出する。なお、動的背景モデルは、画素ごとに、複数フレーム分の平均、分散をもとにガウス分布を仮定することで定式化される。 Note that the likelihood indicating the likelihood of the subject in each pixel is calculated based on the dynamic background model built up to time t-1. The dynamic background model is formulated by assuming a Gaussian distribution based on the average and variance of a plurality of frames for each pixel.
さらに、被写体の人物のユニフォームの色が事前に分かっている場合、長方形領域の被写体の色とこのユニフォームの色を比較して、差分情報を被写体らしさを示す尤度に加えることができる。さらに、背景の色が事前に分かっている場合、長方形領域の背景の色とこの背景の色を比較して、差分情報を被写体らしさを示す尤度に加えることができる。 Furthermore, when the color of the uniform of the person who is the subject is known in advance, the color of the subject in the rectangular area is compared with the color of the uniform, and the difference information can be added to the likelihood indicating the likelihood of the subject. Further, when the background color is known in advance, the background color of the rectangular area is compared with the color of the background, and the difference information can be added to the likelihood indicating the subjectness.
ステップ5:一定尤度以上の粒子近傍に再配置する。上記ステップで画素(xt (n)、yt (n))に対して、粒子の尤度が算出される。ここで、尤度が一定以下の粒子を消滅させ、消滅させた粒子数と同じ数の粒子を、尤度が一定より大きい粒子の周りに再配置する。例えば、画素(xt (n)、yt (n))において、n=1から100の尤度が一定以下の場合、(xt (1)、yt (1))から(xt (100)、yt (100))の粒子は、消滅させられ、(xt (101)、yt (101))から(xt (N)、yt (N))の近傍に新たな(xt (1)、yt (1))から(xt (100)、yt (100))の新たな粒子が再配置される。 Step 5: Rearrange in the vicinity of particles having a certain likelihood or more. In the above step, the likelihood of the particle is calculated for the pixel (x t (n) , y t (n) ). Here, particles having a likelihood less than or equal to a certain amount are eliminated, and the same number of particles as the number of particles that have been eliminated are rearranged around particles having a likelihood that is greater than a certain value. For example, in the pixel (x t (n) , y t (n) ), when the likelihood of n = 1 to 100 is below a certain value, (x t (1) , y t (1) ) to (x t ( 1) 100) , y t (100) ) particles are extinguished and new (x t (N) , y t (N) ) in the vicinity of (x t (101) , y t (101) ) ( x t (1), from y t (1)) (x t (100), a new particle of y t (100)) are rearranged.
以上のようにして、フレームtにおいて、被写体を近似する複数の粒子が推定され、この複数の粒子から、俯瞰平面上でのフレームtにおける被写体のXY座標が推定される。 As described above, a plurality of particles that approximate the subject are estimated in the frame t, and the XY coordinates of the subject in the frame t on the overhead view plane are estimated from the plurality of particles.
次に、本発明の実施例を示す。図3は、初期フレームでのカメラ画像と被写体XY座標マップ画像を示す。図3(a)は、カメラ1の画像を示し、図3(b)は、カメラ2の画像を示し、図3(c)は、被写体XY座標マップ画像を示す。図3(c)の各点が、被写体(本実施例では選手)を示す。この被写体を構成する複数の粒子のXY座標が初期値として入力される。 Next, examples of the present invention will be described. FIG. 3 shows a camera image and a subject XY coordinate map image in the initial frame. 3A shows an image of the camera 1, FIG. 3B shows an image of the camera 2, and FIG. 3C shows an object XY coordinate map image. Each point in FIG. 3C indicates a subject (a player in this embodiment). The XY coordinates of a plurality of particles constituting the subject are input as initial values.
図4は、フレーム30でのカメラ画像と被写体XY座標マップ画像を示す。図4(a)は、カメラ1の画像を示し、図4(b)は、カメラ2の画像を示し、図4(c)は、被写体XY座標マップ画像を示す。それぞれ、t=30での画像を示す。本実施例は、1秒間30フレームであるため、図4のカメラ画像は、図3のカメラ画像から1秒後の画像である。図4(c)が、フレーム30において、本発明の方法により推定された被写体の粒子の画像である。 FIG. 4 shows a camera image and a subject XY coordinate map image in the frame 30. 4A shows an image of the camera 1, FIG. 4B shows an image of the camera 2, and FIG. 4C shows a subject XY coordinate map image. Each shows an image at t = 30. Since the present embodiment has 30 frames per second, the camera image in FIG. 4 is an image one second after the camera image in FIG. FIG. 4C is an image of a subject particle estimated in the frame 30 by the method of the present invention.
以上のように、本発明は、ある特定フレームにおいて、各選手の3次元位置を真上から見下ろした場合に得られるXY座標でマップ化し、後続フレームで、同マップのフレーム間情報に基づく動き予測と、カメラ間での対応を考慮した選手らしさの評価によって被写体領域を推定する。 As described above, the present invention maps the XY coordinates obtained when looking down on the three-dimensional position of each player from directly above in a specific frame, and performs motion prediction based on the inter-frame information of the map in subsequent frames. Then, the subject area is estimated by evaluating the player likeness considering the correspondence between the cameras.
また、以上述べた実施形態は全て本発明を例示的に示すものであって限定的に示すものではなく、本発明は他の種々の変形態様および変更態様で実施することができる。従って本発明の範囲は特許請求の範囲およびその均等範囲によってのみ規定されるものである。 Moreover, all the embodiments described above are illustrative of the present invention and are not intended to limit the present invention, and the present invention can be implemented in other various modifications and changes. Therefore, the scope of the present invention is defined only by the claims and their equivalents.
Claims (8)
前記初期フレームにおける被写体の3次元世界座標を特定平面上のXY座標に射影するステップと、
前記後続フレームにおける前記特定平面上の被写体のXY座標を時間軸情報に基づき推定するステップと、
前記特定平面上の被写体のXY座標を評価するステップと、
を含み、
前記特定平面上のXY座標に射影するステップは、前記被写体の3次元世界座標を、前記被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面を前記特定平面として該俯瞰平面上のXY座標に射影し、前記被写体を俯瞰平面上に存在する複数の粒子として近似し、
前記被写体のXY座標を評価するステップは、前記俯瞰平面上の被写体のXY座標が被写体らしいかどうかを示す尤度を、前記被写体が前記粒子として近似された各カメラ画像から算出し、全カメラ画像から算出された被写体ごとの該尤度の総和から、前記俯瞰平面上の当該被写体のXY座標が被写体のものらしいかどうかを被写体ごとに評価し、前記後続フレームにおける被写体の3次元世界座標を、被写体のものらしいと評価されたXY座標でマップ化して推定することを特徴とする被写体の3次元世界座標を推定する方法。 A method for estimating a three-dimensional world coordinate of a subject in a subsequent frame from a three-dimensional world coordinate of the subject in an initial frame and a camera image including the subject of a plurality of frames taken by a plurality of cameras,
Projecting the three-dimensional world coordinates of the subject in the initial frame to XY coordinates on a specific plane;
Estimating XY coordinates of the subject on the specific plane in the subsequent frame based on time axis information;
A step of evaluating the XY coordinates of the object on the particular plane,
Only including,
The step of projecting to the XY coordinates on the specific plane includes the three-dimensional world coordinates of the subject on the bird's-eye view plane with the bird's-eye view plane obtained when the field surface on which the subject exists is viewed from directly above as the specific plane XY coordinates of the object, approximating the subject as a plurality of particles present on the overhead view plane,
The step of evaluating the XY coordinates of the subject calculates a likelihood indicating whether the XY coordinates of the subject on the overhead view plane are likely to be a subject from each camera image in which the subject is approximated as the particles, From the sum of the likelihood for each subject calculated from the above, it is evaluated for each subject whether or not the XY coordinates of the subject on the overhead view plane are those of the subject, and the three-dimensional world coordinates of the subject in the subsequent frame are A method of estimating the three-dimensional world coordinates of a subject, characterized by mapping and estimating with XY coordinates evaluated as likely to be the subject.
前記被写体を形成する粒子に関して、俯瞰平面上の移動方向をフレーム間のXY座標差分に基づく速度により定式化することを特徴とする請求項1に記載の方法。 The step of estimating based on the time axis information includes:
The method according to claim 1 , wherein the moving direction on the bird's eye plane is formulated by a speed based on an XY coordinate difference between frames for the particles forming the subject.
各カメラの前記俯瞰平面に対する平面射影行列を推定するサブステップと、
前記平面射影行列により射影された各カメラ画像から、被写体を形成する各粒子の尤度を算出するサブステップと、
前記被写体を形成する各粒子の尤度から、前記後続フレームで被写体を形成する粒子群のXY座標を推定するサブステップと、
を含むことを特徴とする請求項1または2に記載の方法。 The step of evaluating the XY coordinates of the subject includes
A sub-step of estimating a plane projection matrix for the overhead plane of each camera;
A sub-step of calculating the likelihood of each particle forming the subject from each camera image projected by the planar projection matrix ;
From the likelihood of each particle forming the subject, the sub-steps of estimating the XY coordinates of the particles forming the subject with the subsequent frame,
The method according to claim 1 or 2 , comprising:
前記俯瞰平面上のXY座標が既知の特徴点について、前記カメラ画像中で観測される画素を4点以上与え、最小2乗法により前記俯瞰平面に対する平面射影行列を推定することを特徴とする請求項3に記載の方法。 The sub-step of estimating a plane projection matrix for the overhead plane of the camera is as follows:
The feature point whose XY coordinates on the overhead plane are known has four or more pixels observed in the camera image, and a plane projection matrix for the overhead plane is estimated by a least square method. 3. The method according to 3 .
前記粒子のXY座標を前記俯瞰平面に対する平面射影行列により各カメラ画像へ射影し、
前記各カメラ画像において、前記粒子のXY座標が射影された画素を底辺の中心とする長方形領域を設定し、
前記長方形領域内部に含まれる各画素の被写体らしさを算出し、
前記被写体らしさの平均から前記粒子の尤度を算出することを特徴とする請求項3または4に記載の方法。 The sub-step of calculating the likelihood of each particle includes
Projecting the XY coordinates of the particles onto each camera image by a plane projection matrix for the overhead plane,
In each of the camera images, a rectangular region whose center is the pixel on which the XY coordinates of the particles are projected is set.
Calculating the subjectivity of each pixel contained within the rectangular area;
The method according to claim 3 or 4 and calculates the likelihood of the particles from an average of the object ness.
現時刻のフレーム直前までに構築される動的背景モデルに基づく尤度と、
被写体のユニフォーム色に基づく情報と、
背景パターン色に基づく情報と、
から算出されることを特徴とする請求項5に記載の方法。 The subjectivity of each pixel is
Likelihood based on a dynamic background model built up to just before the current frame,
Information based on the subject's uniform color,
Information based on background pattern color,
The method according to claim 5 , wherein the method is calculated from:
一定の尤度以下の粒子を消滅させ、一定尤度より大きい粒子近傍に、新たな粒子を再配置する処理を含むことを特徴とする請求項3から6のいずれか1項に記載の方法。 The sub-step of estimating the XY coordinates of the particle group forming the subject in the subsequent frame is as follows:
The method according to any one of claims 3 to 6 , further comprising a process of eliminating particles having a certain likelihood or less and rearranging new particles in the vicinity of the particles having a certain likelihood.
前記初期フレームにおける被写体の3次元世界座標を特定平面上のXY座標に射影する手段と、
前記後続フレームにおける前記特定平面上の被写体のXY座標を時間軸情報に基づき推定する手段と、
前記特定平面上の被写体のXY座標を評価する手段と、
して機能させ、
前記特定平面上のXY座標に射影する手段は、前記被写体の3次元世界座標を、前記被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面を前記特定平面として該俯瞰平面上のXY座標に射影し、前記被写体を俯瞰平面上に存在する複数の粒子として近似し、
前記被写体のXY座標を評価する手段は、前記俯瞰平面上の被写体のXY座標が被写体らしいかどうかを示す尤度を、前記被写体が前記粒子として近似された各カメラ画像から算出し、全カメラ画像から算出された被写体ごとの該尤度の総和から、前記俯瞰平面上の当該被写体のXY座標が被写体のものらしいかどうかを被写体ごとに評価し、前記後続フレームにおける被写体の3次元世界座標を、被写体のものらしいと評価されたXY座標でマップ化して推定する被写体の3次元世界座標を推定することを特徴とするプログラム。 A computer for estimating the three-dimensional world coordinates of the subject in the subsequent frame from the three-dimensional world coordinates of the subject in the initial frame and the camera images including the subject of the plurality of frames taken by a plurality of cameras.
Means for projecting the three-dimensional world coordinates of the subject in the initial frame to XY coordinates on a specific plane;
Means for estimating XY coordinates of the subject on the specific plane in the subsequent frame based on time axis information;
It means for evaluating the XY coordinates of the object on the particular plane,
To function ,
The means for projecting onto the XY coordinates on the specific plane has the three-dimensional world coordinates of the subject as the specific plane as an overhead plane obtained when the field plane on which the subject exists is viewed from directly above the overhead plane. XY coordinates of the object, approximating the subject as a plurality of particles present on the overhead view plane,
The means for evaluating the XY coordinates of the subject calculates a likelihood indicating whether the XY coordinates of the subject on the overhead view plane are likely to be a subject from each camera image in which the subject is approximated as the particle, From the sum of the likelihood for each subject calculated from the above, it is evaluated for each subject whether or not the XY coordinates of the subject on the overhead view plane are those of the subject, and the three-dimensional world coordinates of the subject in the subsequent frame are A program characterized by estimating a three-dimensional world coordinate of a subject to be estimated by mapping with XY coordinates evaluated as being likely to be the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011196928A JP5751996B2 (en) | 2011-09-09 | 2011-09-09 | Subject three-dimensional region estimation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011196928A JP5751996B2 (en) | 2011-09-09 | 2011-09-09 | Subject three-dimensional region estimation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013058132A JP2013058132A (en) | 2013-03-28 |
JP5751996B2 true JP5751996B2 (en) | 2015-07-22 |
Family
ID=48133958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011196928A Active JP5751996B2 (en) | 2011-09-09 | 2011-09-09 | Subject three-dimensional region estimation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5751996B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
JP4991595B2 (en) * | 2008-02-21 | 2012-08-01 | 株式会社東芝 | Tracking system using particle filter |
JP5180733B2 (en) * | 2008-08-19 | 2013-04-10 | セコム株式会社 | Moving object tracking device |
JP5366258B2 (en) * | 2010-02-17 | 2013-12-11 | Kddi株式会社 | Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement |
-
2011
- 2011-09-09 JP JP2011196928A patent/JP5751996B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013058132A (en) | 2013-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3698323B1 (en) | Depth from motion for augmented reality for handheld user devices | |
CN104980651B (en) | Image processing equipment and control method | |
US7003136B1 (en) | Plan-view projections of depth image data for object tracking | |
KR100721536B1 (en) | Method for restoring 3-dimension image using silhouette information in 2-dimension image | |
US10957068B2 (en) | Information processing apparatus and method of controlling the same | |
CN111243071A (en) | Texture rendering method, system, chip, device and medium for real-time three-dimensional human body reconstruction | |
KR101820673B1 (en) | Video processing method for 3d display based on multi-thread scheme | |
KR101669840B1 (en) | Disparity estimation system and method for estimating consistent disparity from multi-viewpoint video | |
JP2016095849A (en) | Method and device for dividing foreground image, program, and recording medium | |
CN107798704B (en) | Real-time image superposition method and device for augmented reality | |
JP6676562B2 (en) | Image synthesizing apparatus, image synthesizing method, and computer program | |
KR20110032157A (en) | Method for producing high definition video from low definition video | |
CN110567441B (en) | Particle filter-based positioning method, positioning device, mapping and positioning method | |
CN110660076A (en) | Face exchange method | |
JP7032871B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
WO2015188666A1 (en) | Three-dimensional video filtering method and device | |
US20140050392A1 (en) | Method and apparatus for detecting and tracking lips | |
JP2012185772A (en) | Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera | |
EP3186788A1 (en) | Method and device for editing a facial image | |
CN113724155A (en) | Self-boosting learning method, device and equipment for self-supervision monocular depth estimation | |
JP6272071B2 (en) | Image processing apparatus, image processing method, and program | |
Takai et al. | Harmonised texture mapping | |
JP2010231350A (en) | Person identifying apparatus, its program, and its method | |
CN111275610B (en) | Face aging image processing method and system | |
JP5751996B2 (en) | Subject three-dimensional region estimation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130418 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130531 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141217 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5751996 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |