JP5751996B2 - Subject three-dimensional region estimation method and program - Google Patents

Subject three-dimensional region estimation method and program Download PDF

Info

Publication number
JP5751996B2
JP5751996B2 JP2011196928A JP2011196928A JP5751996B2 JP 5751996 B2 JP5751996 B2 JP 5751996B2 JP 2011196928 A JP2011196928 A JP 2011196928A JP 2011196928 A JP2011196928 A JP 2011196928A JP 5751996 B2 JP5751996 B2 JP 5751996B2
Authority
JP
Japan
Prior art keywords
subject
coordinates
plane
estimating
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011196928A
Other languages
Japanese (ja)
Other versions
JP2013058132A (en
Inventor
浩嗣 三功
浩嗣 三功
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011196928A priority Critical patent/JP5751996B2/en
Publication of JP2013058132A publication Critical patent/JP2013058132A/en
Application granted granted Critical
Publication of JP5751996B2 publication Critical patent/JP5751996B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、自由視点映像の合成において最も重要な処理である、被写体の3次位置を推定する方法およびプログラムに関する。   The present invention relates to a method and a program for estimating a tertiary position of a subject, which is the most important process in the synthesis of a free viewpoint video.

大空間を対象に、カメラの強校正を前提とせず、画像情報のみを用いて任意視点画像を合成する手法が提案された。しかしながら、サッカー等の屋外大空間で実施されるスポーツ映像を対象に、選手の3次元位置を高精度に推定する従来技術は、単一カメラ情報のみを用いるものがほとんどである。   A method for synthesizing an arbitrary viewpoint image using only image information without using strong camera calibration as a target has been proposed. However, most of the conventional techniques for estimating a player's three-dimensional position with high accuracy for sports images performed in a large outdoor space such as soccer use only single camera information.

また、非特許文献1は、一般状態空間モデルにおける高次元の状態ベクトルの推定手法として、実装の容易さから様々な応用分野へ急速に普及しつつある粒子フィルタの概説を行っている。   Non-Patent Document 1 outlines a particle filter that is rapidly spreading to various application fields from the ease of implementation as a high-dimensional state vector estimation method in a general state space model.

樋口知之:“粒子フィルタ”, 電子情報通信学会誌,Vol.88, No. 12, pp. 989-994 (2005)Tomoyuki Higuchi: “Particle Filter”, IEICE Journal, Vol.88, No. 12, pp. 989-994 (2005)

しかしながら、単一カメラ情報のみを用いる従来技術では、被写体どうしが重なるオクルージョン領域の発生により、推定精度が低下するという課題があった。   However, the conventional technique using only single camera information has a problem that the estimation accuracy is lowered due to the occurrence of an occlusion region where subjects overlap each other.

以上の問題点を踏まえ、本発明では、単一のカメラ映像だけでなく、同期撮影された複数のカメラ映像を統合的に扱うことで、被写体3次元位置推定の精度を向上させる被写体3次元領域推定方法およびプログラムを提供することを目的とする。   In view of the above problems, the present invention integrates not only a single camera image but also a plurality of camera images taken synchronously, thereby improving the accuracy of the subject 3D position estimation. An object is to provide an estimation method and a program.

上記目的を実現するため本発明による被写体の3次元世界座標を推定する方法は、初期フレームにおける被写体の3次元世界座標と、複数のカメラで撮影された複数フレームの、前記被写体を含むカメラ画像とから、後続フレームにおける被写体の3次元世界座標を推定する方法であって、前記初期フレームにおける被写体の3次元世界座標を特定平面上のXY座標に射影するステップと、前記後続フレームにおける前記特定平面上の被写体のXY座標を時間軸情報に基づき推定するステップと、前記特定平面上の被写体のXY座標を評価するステップと、を含み、前記特定平面上のXY座標に射影するステップは、前記被写体の3次元世界座標を、前記被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面を前記特定平面として該俯瞰平面上のXY座標に射影し、前記被写体を俯瞰平面上に存在する複数の粒子として近似し、前記被写体のXY座標を評価するステップは、前記俯瞰平面上の被写体のXY座標が被写体らしいかどうかを示す尤度を、前記被写体が前記粒子として近似された各カメラ画像から算出し、全カメラ画像から算出された被写体ごとの該尤度の総和から、前記俯瞰平面上の当該被写体のXY座標が被写体のものらしいかどうかを被写体ごとに評価し、前記後続フレームにおける被写体の3次元世界座標を、被写体のものらしいと評価されたXY座標でマップ化して推定するIn order to achieve the above object, a method for estimating the three-dimensional world coordinates of a subject according to the present invention includes a three-dimensional world coordinate of a subject in an initial frame, a plurality of frames taken by a plurality of cameras, and a camera image including the subject. A method for estimating a three-dimensional world coordinate of a subject in a subsequent frame , the step of projecting the three-dimensional world coordinate of the subject in the initial frame to an XY coordinate on a specific plane; and on the specific plane in the subsequent frame estimating on the basis of XY coordinates of the object on the time axis information, the steps to evaluate the XY coordinates of an object on a specific plane, only including the step of projecting the XY coordinates on the specific plane, the The 3D world coordinates of the subject are specified as the bird's-eye view plane obtained when the field surface where the subject is present is seen from directly above. The step of projecting onto the XY coordinates on the overhead view plane as a plane, approximating the subject as a plurality of particles existing on the overhead view plane, and evaluating the XY coordinates of the subject is as follows: Likelihood indicating whether or not it seems to be a subject is calculated from each camera image in which the subject is approximated as the particle, and the subject on the overhead plane is calculated from the sum of the likelihood for each subject calculated from all camera images. The XY coordinates of the subject are evaluated for each subject, and the three-dimensional world coordinates of the subject in the subsequent frame are estimated by mapping with the XY coordinates evaluated to be the subject .

また、前記時間軸情報に基づき推定するステップは、前記被写体を形成する粒子に関して、俯瞰平面上の移動方向をフレーム間のXY座標差分に基づく速度により定式化することも好ましい。   In the step of estimating based on the time axis information, it is also preferable to formulate the moving direction on the bird's eye plane with respect to the particles forming the subject based on the speed based on the XY coordinate difference between frames.

また、前記被写体のXY座標を評価するステップは、各カメラの前記俯瞰平面に対する平面射影行列を推定するサブステップと、前記平面射影行列により射影された各カメラ画像から、被写体を形成する各粒子の尤度を算出するサブステップと、前記被写体を形成する各粒子の尤度から、前記後続フレームで被写体を形成する粒子群のXY座標を推定するサブステップとを含むことも好ましい。
を含むこと
The step of evaluating the XY coordinates of the subject includes a sub-step of estimating a plane projection matrix with respect to the overhead plane of each camera, and each camera image projected by the plane projection matrix of each particle forming the subject. a sub-step of calculating the likelihood, the likelihoods of the particles forming the subject, it is also preferred to include a sub-step of estimating the XY coordinates of the particles forming the subject with the subsequent frame.
Including

また、前記カメラの前記俯瞰平面に対する平面射影行列を推定するサブステップは、前記俯瞰平面上のXY座標が既知の特徴点について、前記カメラ画像中で観測される画素を4点以上与え、最小2乗法により前記俯瞰平面に対する平面射影行列を推定することも好ましい。 Further, the sub-step of estimating a plane projection matrix for the overhead plane of the camera gives four or more pixels observed in the camera image for feature points whose XY coordinates on the overhead plane are known, and a minimum of 2 It is also preferable to estimate a plane projection matrix with respect to the overhead view plane by multiplication.

また、前記各粒子の尤度を算出するサブステップは、前記粒子のXY座標を前記俯瞰平面に対する平面射影行列により各カメラ画像へ射影し、前記各カメラ画像において、前記粒子のXY座標が射影された画素を底辺の中心とする長方形領域を設定し、前記長方形領域内部に含まれる各画素の被写体らしさを算出し、前記被写体らしさの平均から前記粒子の尤度を算出することも好ましい。 The sub-step of calculating the likelihood of each particle projects the XY coordinates of the particles onto each camera image using a plane projection matrix with respect to the overhead view plane , and the XY coordinates of the particles are projected on each camera image. It is also preferable to set a rectangular area with the bottom pixel as the center of the base, calculate the subjectivity of each pixel included in the rectangular area, and calculate the likelihood of the particle from the average of the subjectness.

また、前記各画素の被写体らしさは、現時刻のフレーム直前までに構築される動的背景モデルに基づく尤度と、被写体のユニフォーム色に基づく情報と、背景パターン色に基づく情報とから算出されることも好ましい。 Further, the subjectivity of each pixel is calculated from the likelihood based on the dynamic background model constructed immediately before the frame at the current time, information based on the uniform color of the subject, and information based on the background pattern color. It is also preferable.

また、前記後続フレームで被写体を形成する粒子群のXY座標を推定するサブステップは、一定の尤度以下の粒子を消滅させ、一定尤度より大きい粒子近傍に、新たな粒子を再配置する処理を含むことも好ましい。 Also, sub-step of estimating the XY coordinates of the particles forming the subject with the subsequent frame, extinguished particles below a certain likelihood, the larger particles near than a certain likelihood, to reposition the new grain processing It is also preferable to contain .

上記目的を実現するため本発明による被写体の3次元世界座標を推定することを特徴とするプログラムは、初期フレームにおける被写体の3次元世界座標と、複数のカメラで撮影された複数フレームの、前記被写体を含むカメラ画像とから、後続フレームにおける被写体の3次元世界座標を推定するためのコンピュータを、前記初期フレームにおける被写体の3次元世界座標を特定平面上のXY座標に射影する手段と、前記後続フレームにおける前記特定平面上の被写体のXY座標を時間軸情報に基づき推定する手段と、前記特定平面上の被写体のXY座標を評価する手段として機能させ、前記特定平面上のXY座標に射影する手段は、前記被写体の3次元世界座標を、前記被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面を前記特定平面として該俯瞰平面上のXY座標に射影し、前記被写体を俯瞰平面上に存在する複数の粒子として近似し、前記被写体のXY座標を評価する手段は、前記俯瞰平面上の被写体のXY座標が被写体らしいかどうかを示す尤度を、前記被写体が前記粒子として近似された各カメラ画像から算出し、全カメラ画像から算出された被写体ごとの該尤度の総和から、前記俯瞰平面上の当該被写体のXY座標が被写体のものらしいかどうかを被写体ごとに評価し、前記後続フレームにおける被写体の3次元世界座標を、被写体のものらしいと評価されたXY座標でマップ化して推定する被写体の3次元世界座標を推定する。 A program characterized by estimating a three-dimensional world coordinates of an object according to the present invention for achieving the above object, a three-dimensional world coordinates of the object in the initial frame, a plurality of frames taken by a plurality of cameras, the subject A computer for estimating the three-dimensional world coordinates of the subject in the subsequent frame from the camera image including the image, and means for projecting the three-dimensional world coordinates of the subject in the initial frame to XY coordinates on a specific plane; and the subsequent frame said means for estimating, based the XY coordinates of an object on a particular plane in the time axis information, to function as a commentary worth means XY coordinates of the object on the particular plane, means for projecting the XY coordinates on the particular plane in Is obtained when the three-dimensional world coordinates of the subject are viewed from directly above the field surface on which the subject exists. Projecting onto the XY coordinates on the overhead plane using the viewpoint plane as the specific plane, approximating the subject as a plurality of particles existing on the overhead plane, and evaluating the XY coordinates of the subject on the overhead plane A likelihood indicating whether or not the XY coordinates of the subject are likely to be a subject is calculated from each camera image in which the subject is approximated as the particle, and the overhead is calculated from the sum of the likelihood for each subject calculated from all camera images. Whether the XY coordinates of the subject on the plane are likely to be the subject is evaluated for each subject, and the three-dimensional world coordinates of the subject in the subsequent frame are mapped and estimated with the XY coordinates evaluated as likely to be the subject. Estimate the 3D world coordinates of the subject.

本発明により、被写体3次元領域の推定精度を大幅に改善することができ、自由視点映像の合成画質を向上することができる。   According to the present invention, it is possible to greatly improve the estimation accuracy of the subject three-dimensional region and improve the composite image quality of the free viewpoint video.

本発明によるフローチャートを示す。2 shows a flowchart according to the invention. カメラ画像における長方形領域を示す。A rectangular area in a camera image is shown. 初期フレームでのカメラ画像と被写体XY座標マップ画像を示す。The camera image and subject XY coordinate map image in an initial frame are shown. フレーム30でのカメラ画像と被写体XY座標マップ画像を示す。A camera image and a subject XY coordinate map image in the frame 30 are shown.

本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。提案手法は、時間軸情報と複数カメラ間の情報を統合的に扱うことを特徴とする。具体的には、ある特定フレームにおいて、各選手の3次元位置を真上から見下ろした場合に得られるXY座標でマップ化し、後続フレームでは、同マップのフレーム間情報に基づく動き予測と、カメラ間での対応を考慮した選手らしさの評価(候補点をカメラ視点に投影し、選手かどうかを評価)によってマップを自動生成する。以下、本フローチャートに基づいて説明する。なお、本実施例では、非固定ズームカメラの3次元位置は変化しないことを前提とする。   The best mode for carrying out the present invention will be described in detail below with reference to the drawings. The proposed method is characterized by handling time axis information and information between multiple cameras in an integrated manner. Specifically, in a specific frame, map with the XY coordinates obtained when the three-dimensional position of each player is looked down from directly above, and in the subsequent frame, motion prediction based on inter-frame information of the map, and between cameras A map is automatically generated by evaluating the player's characteristics (projecting candidate points to the camera viewpoint and evaluating whether or not the player is a player) in consideration of the correspondence in Hereinafter, description will be given based on this flowchart. In this embodiment, it is assumed that the three-dimensional position of the non-fixed zoom camera does not change.

開始:複数フレーム分の多視点映像を入力する。つまり、2台以上のカメラで撮影された複数フレームのカメラ画像が入力される。   Start: Input multi-view video for multiple frames. That is, camera images of a plurality of frames taken by two or more cameras are input.

ステップ1:各カメラのフィールド面に対する平面射影行列を推定する。例えば、フィールド上ライン等、予め3次元座標が既知の特徴点について、カメラ画像中での画素座標を複数組与えることで、平面射影行列Hcを推定することができる(参考:特願2010−032136)。また、空間内のユークリッド座標系とカメラ座標系との射影関係を推定するカメラの強校正を予め行って、平面射影行列Hcを事前に求めておくこともできる。   Step 1: Estimate a planar projection matrix for the field plane of each camera. For example, the plane projection matrix Hc can be estimated by giving a plurality of pixel coordinates in the camera image for feature points whose three-dimensional coordinates are known in advance, such as a line on the field (reference: Japanese Patent Application No. 2010-032136). ). It is also possible to perform a strong camera calibration to estimate the projection relationship between the Euclidean coordinate system in the space and the camera coordinate system in advance, and to obtain the planar projection matrix Hc in advance.

平面射影行列Hcは、3行3列の行列であり、対象フィールドの2次元座標中の点(u、v)をカメラ画素座標(u’、v’)に射影する。つまり、
s(u’、v’、1)=Hc(u、v、1)
である。なお、sは規格化のためのスカラーである。
The planar projection matrix Hc is a 3 × 3 matrix, and projects the point (u, v) in the two-dimensional coordinates of the target field to the camera pixel coordinates (u ′, v ′). That means
s (u ′, v ′, 1) T = Hc (u, v, 1) T
It is. Note that s is a scalar for normalization.

ステップ2:各被写体を複数の粒子で近似する。3次元世界座標を、各被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面上のXY座標に射影し、各被写体を俯瞰平面上に存在する複数の粒子として近似する。この被写体は、N個の粒子から構成されるものとして、時刻tにおける被写体の状態を、多数の離散的な粒子群として定式化する。時刻tの被写体は、
のN個のベクトルによって表される。カメラ画像中にM個の被写体があれば、N×M個のベクトルでカメラ画像中の全被写体が複数の粒子で近似される。なお、このベクトルの初期値として、最低2フレーム分(t=0、1)が事前に入力され、以下のステップで、これ以降のフレームにおける被写体を形成する粒子の位置を推定し、被写体のXY座標での位置を推定する。
Step 2: Approximate each subject with a plurality of particles. The three-dimensional world coordinates are projected onto XY coordinates on the bird's-eye view plane obtained when the field surface on which each subject exists is viewed from directly above, and each subject is approximated as a plurality of particles existing on the bird's-eye view plane. The subject is composed of N particles, and the state of the subject at time t is formulated as a large number of discrete particle groups. The subject at time t is
Of N vectors. If there are M subjects in the camera image, all subjects in the camera image are approximated by a plurality of particles with N × M vectors. As the initial value of this vector, at least two frames (t = 0, 1) are input in advance, and in the following steps, the positions of the particles forming the subject in the subsequent frames are estimated, and the XY of the subject is determined. Estimate the position in coordinates.

ステップ3:粒子の状態遷移モデルを定式化する。各被写体を形成する粒子に関して、俯瞰平面上の移動方向をフレーム間のXY座標差分に基づく速度(U,V)により定式化する。   Step 3: Formulate a particle state transition model. For the particles forming each subject, the moving direction on the overhead view plane is formulated by the velocity (U, V) based on the XY coordinate difference between frames.

フレームtで粒子の速度を表す移動ベクトル(U,V)は、
(U,V)=(X−Xt−1,Y−Yt−1
と定式化される。
The movement vector (U t , V t ) representing the velocity of the particles at frame t is
(U t , V t ) = (X t −X t−1 , Y t −Y t−1 )
Is formulated.

この式により、2フレーム分(t=0、1)の粒子の位置が入力された場合、(U,V)が求まり、この速度を用いてt=2での粒子の位置(U,V)が求まる。t=3以上も同様にして粒子の位置を求めることができる。 When the position of the particle for two frames (t = 0, 1) is input according to this equation, (U 1 , V 1 ) is obtained, and the position of the particle at t = 2 (U 2 ) is obtained using this velocity. , V 2 ). The position of the particles can be obtained in the same manner for t = 3 or more.

ステップ4:粒子の尤度を算出する。被写体のXY座標での位置を推定するフレームをtとする。ステップ3の式により、初期フレーム(t=0)の粒子のXY座標(X (n)、Y (n))から、フレームtでの粒子のXY座標(X (n)、Y (n))が求まる。求めた(X (n)、Y (n))を、平面射影行列Hcにより各カメラ画像中の画素(xt,c (n)、yt,c (n))に射影する。
s(xt,c (n)、yt,c (n)、1)=Hc(X (n)、Y (n)、1)
なお、n=1,・・・,Nであり、cは、カメラを示す。例えばカメラがC台あるとき、c=1,・・・,Cとなる。
Step 4: Calculate the likelihood of particles. Let t be the frame for estimating the position of the subject in the XY coordinates. From the XY coordinates (X 0 (n) , Y 0 (n) ) of the particles in the initial frame (t = 0), the XY coordinates (X t (n) , Y t of the particles in the frame t are obtained from the equation of Step 3. (N) ) is obtained. The obtained (X t (n) , Y t (n) ) is projected onto the pixel (x t, c (n) , y t, c (n) ) in each camera image by the plane projection matrix Hc.
s (x t, c (n) , y t, c (n) , 1) T = Hc (X t (n) , Y t (n) , 1) T
Note that n = 1,..., N, and c indicates a camera. For example, when there are C cameras, c = 1,.

次に、カメラ画像において、画素(xt,c (n)、yt,c (n))を底辺の中心点とする長方形領域を設定する。例えば、長方形の幅をw、高さをvとすると画素xyに対して、(x−w/2、y)、(x+w/2、y)、(x−w/2、y+v)、(x+w/2、y+v)の4点の長方形領域が設定される。図2は、画素xyに対して設定された長方形領域を示す。 Next, in the camera image, a rectangular region having the pixel (x t, c (n) , y t, c (n) ) as the center point of the base is set. For example, assuming that the width of the rectangle is w and the height is v, for the pixel xy, (x−w / 2, y), (x + w / 2, y), (x−w / 2, y + v), (x + w) A rectangular area of 4 points of / 2, y + v) is set. FIG. 2 shows a rectangular area set for the pixel xy.

次に、この長方形領域に含まれる各画素について、被写体らしさを示す尤度を算出し、算出された尤度の平均値を、画素xyでの粒子の尤度(Φ(xy))とする。Φ(xy)は、
Φ(xy)=(1/カメラ台数)×(1/長方形内の画素数)ΣΣφc(x’、y’)
と表せる。
ここで、φc(x’、y’)は、カメラcによるカメラ画像での長方形領域内の画素(x’、y’)での被写体らしさを示す尤度であり、最初のΣは全カメラについての総和であり、次のΣは長方形内のすべて画素についての総和である。
Next, for each pixel included in the rectangular area, the likelihood indicating the subjectness is calculated, and the average value of the calculated likelihood is defined as the particle likelihood (Φ (xy)) at the pixel xy. Φ (xy) is
Φ (xy) = (1 / number of cameras) × (1 / number of pixels in rectangle) ΣΣφc (x ′, y ′)
It can be expressed.
Here, φc (x ′, y ′) is a likelihood indicating the subjectness at the pixel (x ′, y ′) in the rectangular area in the camera image by the camera c, and the first Σ is for all the cameras. The next Σ is the sum for all pixels in the rectangle.

なお、各画素での被写体らしさを示す尤度は、時刻t−1までに構築される動的背景モデルをもとに尤度を算出する。なお、動的背景モデルは、画素ごとに、複数フレーム分の平均、分散をもとにガウス分布を仮定することで定式化される。   Note that the likelihood indicating the likelihood of the subject in each pixel is calculated based on the dynamic background model built up to time t-1. The dynamic background model is formulated by assuming a Gaussian distribution based on the average and variance of a plurality of frames for each pixel.

さらに、被写体の人物のユニフォームの色が事前に分かっている場合、長方形領域の被写体の色とこのユニフォームの色を比較して、差分情報を被写体らしさを示す尤度に加えることができる。さらに、背景の色が事前に分かっている場合、長方形領域の背景の色とこの背景の色を比較して、差分情報を被写体らしさを示す尤度に加えることができる。   Furthermore, when the color of the uniform of the person who is the subject is known in advance, the color of the subject in the rectangular area is compared with the color of the uniform, and the difference information can be added to the likelihood indicating the likelihood of the subject. Further, when the background color is known in advance, the background color of the rectangular area is compared with the color of the background, and the difference information can be added to the likelihood indicating the subjectness.

ステップ5:一定尤度以上の粒子近傍に再配置する。上記ステップで画素(x (n)、y (n))に対して、粒子の尤度が算出される。ここで、尤度が一定以下の粒子を消滅させ、消滅させた粒子数と同じ数の粒子を、尤度が一定より大きい粒子の周りに再配置する。例えば、画素(x (n)、y (n))において、n=1から100の尤度が一定以下の場合、(x (1)、y (1))から(x (100)、y (100))の粒子は、消滅させられ、(x (101)、y (101))から(x (N)、y (N))の近傍に新たな(x (1)、y (1))から(x (100)、y (100))の新たな粒子が再配置される。 Step 5: Rearrange in the vicinity of particles having a certain likelihood or more. In the above step, the likelihood of the particle is calculated for the pixel (x t (n) , y t (n) ). Here, particles having a likelihood less than or equal to a certain amount are eliminated, and the same number of particles as the number of particles that have been eliminated are rearranged around particles having a likelihood that is greater than a certain value. For example, in the pixel (x t (n) , y t (n) ), when the likelihood of n = 1 to 100 is below a certain value, (x t (1) , y t (1) ) to (x t ( 1) 100) , y t (100) ) particles are extinguished and new (x t (N) , y t (N) ) in the vicinity of (x t (101) , y t (101) ) ( x t (1), from y t (1)) (x t (100), a new particle of y t (100)) are rearranged.

以上のようにして、フレームtにおいて、被写体を近似する複数の粒子が推定され、この複数の粒子から、俯瞰平面上でのフレームtにおける被写体のXY座標が推定される。   As described above, a plurality of particles that approximate the subject are estimated in the frame t, and the XY coordinates of the subject in the frame t on the overhead view plane are estimated from the plurality of particles.

次に、本発明の実施例を示す。図3は、初期フレームでのカメラ画像と被写体XY座標マップ画像を示す。図3(a)は、カメラ1の画像を示し、図3(b)は、カメラ2の画像を示し、図3(c)は、被写体XY座標マップ画像を示す。図3(c)の各点が、被写体(本実施例では選手)を示す。この被写体を構成する複数の粒子のXY座標が初期値として入力される。   Next, examples of the present invention will be described. FIG. 3 shows a camera image and a subject XY coordinate map image in the initial frame. 3A shows an image of the camera 1, FIG. 3B shows an image of the camera 2, and FIG. 3C shows an object XY coordinate map image. Each point in FIG. 3C indicates a subject (a player in this embodiment). The XY coordinates of a plurality of particles constituting the subject are input as initial values.

図4は、フレーム30でのカメラ画像と被写体XY座標マップ画像を示す。図4(a)は、カメラ1の画像を示し、図4(b)は、カメラ2の画像を示し、図4(c)は、被写体XY座標マップ画像を示す。それぞれ、t=30での画像を示す。本実施例は、1秒間30フレームであるため、図4のカメラ画像は、図3のカメラ画像から1秒後の画像である。図4(c)が、フレーム30において、本発明の方法により推定された被写体の粒子の画像である。   FIG. 4 shows a camera image and a subject XY coordinate map image in the frame 30. 4A shows an image of the camera 1, FIG. 4B shows an image of the camera 2, and FIG. 4C shows a subject XY coordinate map image. Each shows an image at t = 30. Since the present embodiment has 30 frames per second, the camera image in FIG. 4 is an image one second after the camera image in FIG. FIG. 4C is an image of a subject particle estimated in the frame 30 by the method of the present invention.

以上のように、本発明は、ある特定フレームにおいて、各選手の3次元位置を真上から見下ろした場合に得られるXY座標でマップ化し、後続フレームで、同マップのフレーム間情報に基づく動き予測と、カメラ間での対応を考慮した選手らしさの評価によって被写体領域を推定する。   As described above, the present invention maps the XY coordinates obtained when looking down on the three-dimensional position of each player from directly above in a specific frame, and performs motion prediction based on the inter-frame information of the map in subsequent frames. Then, the subject area is estimated by evaluating the player likeness considering the correspondence between the cameras.

また、以上述べた実施形態は全て本発明を例示的に示すものであって限定的に示すものではなく、本発明は他の種々の変形態様および変更態様で実施することができる。従って本発明の範囲は特許請求の範囲およびその均等範囲によってのみ規定されるものである。   Moreover, all the embodiments described above are illustrative of the present invention and are not intended to limit the present invention, and the present invention can be implemented in other various modifications and changes. Therefore, the scope of the present invention is defined only by the claims and their equivalents.

Claims (8)

初期フレームにおける被写体の3次元世界座標と、複数のカメラで撮影された複数フレームの、前記被写体を含むカメラ画像とから、後続フレームにおける被写体の3次元世界座標を推定する方法であって、
前記初期フレームにおける被写体の3次元世界座標を特定平面上のXY座標に射影するステップと、
前記後続フレームにおける前記特定平面上の被写体のXY座標を時間軸情報に基づき推定するステップと、
前記特定平面上の被写体のXY座標を評価するステップと、
を含み、
前記特定平面上のXY座標に射影するステップは、前記被写体の3次元世界座標を、前記被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面を前記特定平面として該俯瞰平面上のXY座標に射影し、前記被写体を俯瞰平面上に存在する複数の粒子として近似し、
前記被写体のXY座標を評価するステップは、前記俯瞰平面上の被写体のXY座標が被写体らしいかどうかを示す尤度を、前記被写体が前記粒子として近似された各カメラ画像から算出し、全カメラ画像から算出された被写体ごとの該尤度の総和から、前記俯瞰平面上の当該被写体のXY座標が被写体のものらしいかどうかを被写体ごとに評価し、前記後続フレームにおける被写体の3次元世界座標を、被写体のものらしいと評価されたXY座標でマップ化して推定することを特徴とする被写体の3次元世界座標を推定する方法。
A method for estimating a three-dimensional world coordinate of a subject in a subsequent frame from a three-dimensional world coordinate of the subject in an initial frame and a camera image including the subject of a plurality of frames taken by a plurality of cameras,
Projecting the three-dimensional world coordinates of the subject in the initial frame to XY coordinates on a specific plane;
Estimating XY coordinates of the subject on the specific plane in the subsequent frame based on time axis information;
A step of evaluating the XY coordinates of the object on the particular plane,
Only including,
The step of projecting to the XY coordinates on the specific plane includes the three-dimensional world coordinates of the subject on the bird's-eye view plane with the bird's-eye view plane obtained when the field surface on which the subject exists is viewed from directly above as the specific plane XY coordinates of the object, approximating the subject as a plurality of particles present on the overhead view plane,
The step of evaluating the XY coordinates of the subject calculates a likelihood indicating whether the XY coordinates of the subject on the overhead view plane are likely to be a subject from each camera image in which the subject is approximated as the particles, From the sum of the likelihood for each subject calculated from the above, it is evaluated for each subject whether or not the XY coordinates of the subject on the overhead view plane are those of the subject, and the three-dimensional world coordinates of the subject in the subsequent frame are A method of estimating the three-dimensional world coordinates of a subject, characterized by mapping and estimating with XY coordinates evaluated as likely to be the subject.
前記時間軸情報に基づき推定するステップは、
前記被写体を形成する粒子に関して、俯瞰平面上の移動方向をフレーム間のXY座標差分に基づく速度により定式化することを特徴とする請求項に記載の方法。
The step of estimating based on the time axis information includes:
The method according to claim 1 , wherein the moving direction on the bird's eye plane is formulated by a speed based on an XY coordinate difference between frames for the particles forming the subject.
前記被写体のXY座標を評価するステップは、
各カメラの前記俯瞰平面に対する平面射影行列を推定するサブステップと、
前記平面射影行列により射影された各カメラ画像から、被写体を形成する各粒子の尤度を算出するサブステップと、
前記被写体を形成する各粒子の尤度から、前記後続フレームで被写体を形成する粒子群のXY座標を推定するサブステップと、
を含むことを特徴とする請求項またはに記載の方法。
The step of evaluating the XY coordinates of the subject includes
A sub-step of estimating a plane projection matrix for the overhead plane of each camera;
A sub-step of calculating the likelihood of each particle forming the subject from each camera image projected by the planar projection matrix ;
From the likelihood of each particle forming the subject, the sub-steps of estimating the XY coordinates of the particles forming the subject with the subsequent frame,
The method according to claim 1 or 2 , comprising:
前記カメラの前記俯瞰平面に対する平面射影行列を推定するサブステップは、
前記俯瞰平面上のXY座標が既知の特徴点について、前記カメラ画像中で観測される画素を4点以上与え、最小2乗法により前記俯瞰平面に対する平面射影行列を推定することを特徴とする請求項に記載の方法。
The sub-step of estimating a plane projection matrix for the overhead plane of the camera is as follows:
The feature point whose XY coordinates on the overhead plane are known has four or more pixels observed in the camera image, and a plane projection matrix for the overhead plane is estimated by a least square method. 3. The method according to 3 .
前記各粒子の尤度を算出するサブステップは、
前記粒子のXY座標を前記俯瞰平面に対する平面射影行列により各カメラ画像へ射影し、
前記各カメラ画像において、前記粒子のXY座標が射影された画素を底辺の中心とする長方形領域を設定し、
前記長方形領域内部に含まれる各画素の被写体らしさを算出し、
前記被写体らしさの平均から前記粒子の尤度を算出することを特徴とする請求項またはに記載の方法。
The sub-step of calculating the likelihood of each particle includes
Projecting the XY coordinates of the particles onto each camera image by a plane projection matrix for the overhead plane,
In each of the camera images, a rectangular region whose center is the pixel on which the XY coordinates of the particles are projected is set.
Calculating the subjectivity of each pixel contained within the rectangular area;
The method according to claim 3 or 4 and calculates the likelihood of the particles from an average of the object ness.
前記各画素の被写体らしさは
現時刻のフレーム直前までに構築される動的背景モデルに基づく尤度と、
被写体のユニフォーム色に基づく情報と、
背景パターン色に基づく情報と、
から算出されることを特徴とする請求項に記載の方法。
The subjectivity of each pixel is
Likelihood based on a dynamic background model built up to just before the current frame,
Information based on the subject's uniform color,
Information based on background pattern color,
The method according to claim 5 , wherein the method is calculated from:
前記後続フレームで被写体を形成する粒子群のXY座標を推定するサブステップは、
一定の尤度以下の粒子を消滅させ、一定尤度より大きい粒子近傍に、新たな粒子を再配置する処理を含むことを特徴とする請求項からのいずれか1項に記載の方法。
The sub-step of estimating the XY coordinates of the particle group forming the subject in the subsequent frame is as follows:
The method according to any one of claims 3 to 6 , further comprising a process of eliminating particles having a certain likelihood or less and rearranging new particles in the vicinity of the particles having a certain likelihood.
初期フレームにおける被写体の3次元世界座標と、複数のカメラで撮影された複数フレームの、前記被写体を含むカメラ画像とから、後続フレームにおける被写体の3次元世界座標を推定するためのコンピュータを、
前記初期フレームにおける被写体の3次元世界座標を特定平面上のXY座標に射影する手段と、
前記後続フレームにおける前記特定平面上の被写体のXY座標を時間軸情報に基づき推定する手段と、
前記特定平面上の被写体のXY座標を評価する手段と、
して機能させ
前記特定平面上のXY座標に射影する手段は、前記被写体の3次元世界座標を、前記被写体が存在するフィールド面を真上から俯瞰した場合に得られる俯瞰平面を前記特定平面として該俯瞰平面上のXY座標に射影し、前記被写体を俯瞰平面上に存在する複数の粒子として近似し、
前記被写体のXY座標を評価する手段は、前記俯瞰平面上の被写体のXY座標が被写体らしいかどうかを示す尤度を、前記被写体が前記粒子として近似された各カメラ画像から算出し、全カメラ画像から算出された被写体ごとの該尤度の総和から、前記俯瞰平面上の当該被写体のXY座標が被写体のものらしいかどうかを被写体ごとに評価し、前記後続フレームにおける被写体の3次元世界座標を、被写体のものらしいと評価されたXY座標でマップ化して推定する被写体の3次元世界座標を推定することを特徴とするプログラム。
A computer for estimating the three-dimensional world coordinates of the subject in the subsequent frame from the three-dimensional world coordinates of the subject in the initial frame and the camera images including the subject of the plurality of frames taken by a plurality of cameras.
Means for projecting the three-dimensional world coordinates of the subject in the initial frame to XY coordinates on a specific plane;
Means for estimating XY coordinates of the subject on the specific plane in the subsequent frame based on time axis information;
It means for evaluating the XY coordinates of the object on the particular plane,
To function ,
The means for projecting onto the XY coordinates on the specific plane has the three-dimensional world coordinates of the subject as the specific plane as an overhead plane obtained when the field plane on which the subject exists is viewed from directly above the overhead plane. XY coordinates of the object, approximating the subject as a plurality of particles present on the overhead view plane,
The means for evaluating the XY coordinates of the subject calculates a likelihood indicating whether the XY coordinates of the subject on the overhead view plane are likely to be a subject from each camera image in which the subject is approximated as the particle, From the sum of the likelihood for each subject calculated from the above, it is evaluated for each subject whether or not the XY coordinates of the subject on the overhead view plane are those of the subject, and the three-dimensional world coordinates of the subject in the subsequent frame are A program characterized by estimating a three-dimensional world coordinate of a subject to be estimated by mapping with XY coordinates evaluated as being likely to be the subject.
JP2011196928A 2011-09-09 2011-09-09 Subject three-dimensional region estimation method and program Active JP5751996B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011196928A JP5751996B2 (en) 2011-09-09 2011-09-09 Subject three-dimensional region estimation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011196928A JP5751996B2 (en) 2011-09-09 2011-09-09 Subject three-dimensional region estimation method and program

Publications (2)

Publication Number Publication Date
JP2013058132A JP2013058132A (en) 2013-03-28
JP5751996B2 true JP5751996B2 (en) 2015-07-22

Family

ID=48133958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011196928A Active JP5751996B2 (en) 2011-09-09 2011-09-09 Subject three-dimensional region estimation method and program

Country Status (1)

Country Link
JP (1) JP5751996B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
JP4991595B2 (en) * 2008-02-21 2012-08-01 株式会社東芝 Tracking system using particle filter
JP5180733B2 (en) * 2008-08-19 2013-04-10 セコム株式会社 Moving object tracking device
JP5366258B2 (en) * 2010-02-17 2013-12-11 Kddi株式会社 Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement

Also Published As

Publication number Publication date
JP2013058132A (en) 2013-03-28

Similar Documents

Publication Publication Date Title
EP3698323B1 (en) Depth from motion for augmented reality for handheld user devices
CN104980651B (en) Image processing equipment and control method
US7003136B1 (en) Plan-view projections of depth image data for object tracking
KR100721536B1 (en) Method for restoring 3-dimension image using silhouette information in 2-dimension image
US10957068B2 (en) Information processing apparatus and method of controlling the same
CN111243071A (en) Texture rendering method, system, chip, device and medium for real-time three-dimensional human body reconstruction
KR101820673B1 (en) Video processing method for 3d display based on multi-thread scheme
KR101669840B1 (en) Disparity estimation system and method for estimating consistent disparity from multi-viewpoint video
JP2016095849A (en) Method and device for dividing foreground image, program, and recording medium
CN107798704B (en) Real-time image superposition method and device for augmented reality
JP6676562B2 (en) Image synthesizing apparatus, image synthesizing method, and computer program
KR20110032157A (en) Method for producing high definition video from low definition video
CN110567441B (en) Particle filter-based positioning method, positioning device, mapping and positioning method
CN110660076A (en) Face exchange method
JP7032871B2 (en) Image processing equipment and image processing methods, programs, storage media
WO2015188666A1 (en) Three-dimensional video filtering method and device
US20140050392A1 (en) Method and apparatus for detecting and tracking lips
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
EP3186788A1 (en) Method and device for editing a facial image
CN113724155A (en) Self-boosting learning method, device and equipment for self-supervision monocular depth estimation
JP6272071B2 (en) Image processing apparatus, image processing method, and program
Takai et al. Harmonised texture mapping
JP2010231350A (en) Person identifying apparatus, its program, and its method
CN111275610B (en) Face aging image processing method and system
JP5751996B2 (en) Subject three-dimensional region estimation method and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130418

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150519

R150 Certificate of patent or registration of utility model

Ref document number: 5751996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150