JP2011170487A - Virtual point of view image generation method and program based on geometric information of camera placement in large space - Google Patents

Virtual point of view image generation method and program based on geometric information of camera placement in large space Download PDF

Info

Publication number
JP2011170487A
JP2011170487A JP2010032136A JP2010032136A JP2011170487A JP 2011170487 A JP2011170487 A JP 2011170487A JP 2010032136 A JP2010032136 A JP 2010032136A JP 2010032136 A JP2010032136 A JP 2010032136A JP 2011170487 A JP2011170487 A JP 2011170487A
Authority
JP
Japan
Prior art keywords
image
viewpoint
area
virtual viewpoint
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010032136A
Other languages
Japanese (ja)
Other versions
JP5366258B2 (en
Inventor
Hiroshi Sanko
浩嗣 三功
Hitoshi Naito
整 内藤
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2010032136A priority Critical patent/JP5366258B2/en
Publication of JP2011170487A publication Critical patent/JP2011170487A/en
Application granted granted Critical
Publication of JP5366258B2 publication Critical patent/JP5366258B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To compose a human region with a high degree of accuracy by estimating a projection matrix of each camera based on the information of a target field and roughly calculating human position information. <P>SOLUTION: The image generation method divides a plurality of viewpoint images into one or a plurality of moving regions and a background region. Then, the method forms a model coordination space based on geometric information in the plurality of viewpoint images, calculates a coordinate of the moving region at each viewpoint image, calculates, by using the coordinate, a coordinate of the moving region in the model coordination space, and generates an image of the moving region at a virtual point of a view based on the coordinate information. Then, the method generates an image of the background region at the virtual point of the view from the image of the background region. Then, the method composes the generated image of the moving region and the generated image of the background region to generate an image at the virtual point of view. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、カメラ間の仮想視点画像を生成する方法およびプログラムに関するものである。より詳細には、大規模な空間で行われるイベントを撮影した多視点画像をもとに仮想視点における画像を生成する方法およびプログラムに関する。   The present invention relates to a method and a program for generating a virtual viewpoint image between cameras. More specifically, the present invention relates to a method and a program for generating an image at a virtual viewpoint based on a multi-viewpoint image obtained by capturing an event performed in a large space.

仮想視点画像生成を生成する代表的な合成方法であるモデルベース手法は、3次元のボクセルモデルを作成することにより行われる。この方法は、空間内のユークリッド座標系とカメラ座標系との射影関係を推定するカメラの強校正を予め行う必要がある。しかしながら、大規模な空間において、カメラの強校正を正確に行うことは極めて困難である。   A model-based method, which is a typical synthesis method for generating virtual viewpoint image generation, is performed by creating a three-dimensional voxel model. In this method, it is necessary to perform strong calibration of the camera in advance to estimate the projection relationship between the Euclidean coordinate system in the space and the camera coordinate system. However, it is extremely difficult to accurately perform strong camera calibration in a large space.

そのため、非特許文献1では、大規模な空間において、仮想視点画像を生成する方法として、カメラ間に成り立つ射影幾何的関係のみを用い、実カメラの中間に視点を移動させた画像を合成する手法を提案している。ここでは、画像を時間とともに位置や形状の変化する移動領域と、カメラからの距離が遠い遠景領域と、それ以外のフィールド領域の三領域に分割して、それぞれに対する合成画像を生成し、それらを重ね合わせることで仮想視点画像を生成している。   Therefore, in Non-Patent Document 1, as a method for generating a virtual viewpoint image in a large-scale space, a method for synthesizing an image in which the viewpoint is moved to the middle of a real camera using only the projective geometric relationship established between the cameras. Has proposed. Here, the image is divided into three areas: a moving area whose position and shape change with time, a far-field area far from the camera, and the other field areas, and generates a composite image for each of them. A virtual viewpoint image is generated by superimposing the images.

上記の移動領域は、複数の移動領域に分割して処理される。まず、隣接する2視点で得られた画像に対して背景差分・2値化を行い、全移動領域が抽出されたシルエット画像を2枚作成する。それぞれの画像に対してラベリングを行い、各移動領域に分割する。分割された各シルエット画像に対して視点間で対応付けを行い、対応のとれた各シルエットに対してエピポーラ線を投影して対応点を算出する。得られた対応点情報をもとにモーフィングを行い仮想視点での画像を合成している。   The moving area is processed by being divided into a plurality of moving areas. First, background difference / binarization is performed on images obtained from two adjacent viewpoints to create two silhouette images from which all moving regions are extracted. Each image is labeled and divided into moving regions. Each divided silhouette image is associated between viewpoints, and an epipolar line is projected to each corresponding silhouette to calculate a corresponding point. Morphing is performed based on the obtained corresponding point information to synthesize an image at a virtual viewpoint.

また、フィールド領域は、平面近似を行い移動領域と同様に対応点を求め、モーフィングにより仮想視点の合成画像を生成している。遠景領域は、イメージモザイキングによって連結し、パノラマ画像からその中間領域を切り出すことで視点の内挿を行っている。   In the field area, a plane approximation is performed to obtain corresponding points as in the movement area, and a composite image of the virtual viewpoint is generated by morphing. The distant view areas are connected by image mosaicing, and the viewpoint is interpolated by cutting out the intermediate area from the panoramic image.

稲本奈穂,斎藤英雄,「サッカーシーンにおける自由視点映像生成のための視点内挿法」 TVRSJ vol.7, no.4, 2002年Naho Inamoto, Hideo Saito, “Viewpoint Interpolation Method for Free Viewpoint Video Generation in Soccer Scene” TVRSJ vol. 7, no. 4, 2002

しかしながら、移動領域の合成は、視点間における人物どうしの対応付けが重要であるが、従来技術においては、人物どうしが重なるオクルージョンの影響や、背景差分時に生じるシルエット画像中のノイズ等の影響により精度が大きく低下してしまうという問題があった。   However, in the composition of moving regions, it is important to associate people between viewpoints. However, in the conventional technology, the accuracy is increased due to the effect of occlusion where people overlap each other and the noise in the silhouette image that occurs during background subtraction. There was a problem that would be greatly reduced.

したがって、本発明は、対象フィールドの幾何的情報をもとに各カメラの射影行列を推定し、人物の位置情報を大まかに算出することで、人物領域の合成を高精度に実現する仮想視点画像生成方法およびプログラムを提供することを目的とする。   Therefore, the present invention estimates the projection matrix of each camera based on the geometric information of the target field and roughly calculates the position information of the person, thereby realizing a virtual viewpoint image that realizes the synthesis of the person region with high accuracy. An object is to provide a generation method and a program.

上記目的を実現するため本発明による仮想視点での画像を生成する方法は、複数の視点画像から、仮想視点での画像を生成する方法であって、前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割するステップと、前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築するステップと、視点画像毎に前記移動領域の座標を算出し、該座標から前期モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成するステップと、前記背景領域の画像から、仮想視点での背景領域の画像を生成するステップと、前記生成された移動領域の画像と前記生成された背景領域の画像を合成するステップとを含む。   In order to achieve the above object, a method for generating an image at a virtual viewpoint according to the present invention is a method for generating an image at a virtual viewpoint from a plurality of viewpoint images, wherein one or a plurality of the plurality of viewpoint images are selected. Dividing the movement area and the background area of the image, a step of constructing a model coordinate space based on the geometric information in the plurality of viewpoint images, and calculating coordinates of the movement area for each viewpoint image, Calculating the coordinates of the moving area in the previous model coordinate space from the image, generating an image of the moving area at the virtual viewpoint based on the coordinate information, and from the image of the background area, Generating an image; and synthesizing the generated image of the moving area and the generated image of the background area.

また、前記移動領域の画像を生成するステップは、視点画像毎に、該視点画像と前記モデル座標空間との間で成立する平面射影行列を算出するサブステップと、前記平面射影行列により、視点画像毎に前記移動領域の座標を前記モデル座標空間における床平面に射影するサブステップと、前記射影された座標から、前記移動領域のモデル座標空間における座標を算出するサブステップと、仮想視点において前記モデル座標空間との間で成立する空間射影行列を算出し、該空間射影行列により、前記モデル座標空間中の座標をもとに仮想視点での移動領域の画像を生成するサブステップとを含むことも好ましい。   Further, the step of generating an image of the moving region includes, for each viewpoint image, a sub-step of calculating a plane projection matrix established between the viewpoint image and the model coordinate space, and the viewpoint image by the plane projection matrix. A sub-step of projecting the coordinates of the moving region onto the floor plane in the model coordinate space, a sub-step of calculating coordinates in the model coordinate space of the moving region from the projected coordinates, and the model at a virtual viewpoint A sub-step of calculating a spatial projection matrix established between the coordinate space and generating an image of a moving region at a virtual viewpoint based on the coordinates in the model coordinate space based on the spatial projection matrix. preferable.

また、前記移動領域のモデル座標空間における座標の算出は、各座標間の距離をもとに該座標をグループ化して、同一グループ内の重心を算出することも好ましい。   In calculating the coordinates of the moving area in the model coordinate space, it is also preferable to calculate the center of gravity within the same group by grouping the coordinates based on the distance between the coordinates.

また、前記仮想視点での移動領域の画像を生成するサブステップは、モデル座標空間中の移動領域ごとに、適当な大きさの長方形領域を設定し、該長方形領域の仮想視点での対応領域および実視点での対応領域を算出し、仮想視点での対応領域のテクスチャを仮想視点に近い実視点での対応領域から抽出することも好ましい。   Further, the sub-step of generating an image of the moving area at the virtual viewpoint sets a rectangular area of an appropriate size for each moving area in the model coordinate space, and the corresponding area at the virtual viewpoint of the rectangular area and It is also preferable to calculate the corresponding area at the real viewpoint and extract the texture of the corresponding area at the virtual viewpoint from the corresponding area at the real viewpoint close to the virtual viewpoint.

また、前記仮想視点での対応領域および実視点での対応領域の算出は、前記仮想視点および実視点において前記モデル座標空間との間で成立する中心射影行列を算出し、該中心射影行列により、前記モデル空間中の移動領域ごとに設定された長方形領域を各仮想画像および実視点に射影することで画像領域を決定することも好ましい。   Further, the calculation of the corresponding area at the virtual viewpoint and the corresponding area at the real viewpoint calculates a central projection matrix established between the virtual viewpoint and the real viewpoint with the model coordinate space, and the central projection matrix It is also preferable to determine an image region by projecting a rectangular region set for each moving region in the model space onto each virtual image and a real viewpoint.

また、前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記仮想視点での対応領域と前記実視点での対応領域間の平面射影行列を算出し、実視点での対応領域のテクスチャを仮想視点での対応領域に射影することも好ましい。   Further, the method of extracting the texture of the corresponding area at the virtual viewpoint from the corresponding area at the real viewpoint calculates a planar projection matrix between the corresponding area at the virtual viewpoint and the corresponding area at the real viewpoint, It is also preferable to project the texture of the corresponding area at 1 to the corresponding area at the virtual viewpoint.

また、前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記実視点での対応領域においてオクルージョンが生じているか否かを判定する機能を有し、生じている場合は、他の実視点での対応領域をもとに合成することも好ましい。   Further, the method of extracting the texture of the corresponding area at the virtual viewpoint from the corresponding area at the real viewpoint has a function of determining whether or not occlusion occurs in the corresponding area at the actual viewpoint. In such a case, it is also preferable to synthesize based on the corresponding area from another real viewpoint.

また、前記幾何情報は、前記視点画像内の線分の長さおよび対応点であり、前記座標空間を構築するステップは、原点を定め、前記線分の長さをもとに対応点に座標を割り当てることも好ましい。   Further, the geometric information is the length of the line segment and the corresponding point in the viewpoint image, and the step of constructing the coordinate space determines the origin and coordinates the corresponding point based on the length of the line segment. Is also preferred.

また、前記幾何情報は、前記視点画像内の平行線であり、前記座標空間を構築するステップは、前記平行線が同一方向になるように各視点画像を回転させ、該視点画像の平行線上の点を距離をもとにグループ化して、同一グループ内の重心を対応点として、該対応点に座標を割り当てることも好ましい。   Further, the geometric information is parallel lines in the viewpoint image, and the step of constructing the coordinate space rotates each viewpoint image so that the parallel lines are in the same direction, and on the parallel lines of the viewpoint image It is also preferable that the points are grouped based on the distance, and the coordinates are assigned to the corresponding points with the center of gravity in the same group as the corresponding point.

また、前記平面射影行列は、前記対応点から算出されることも好ましい。   The planar projection matrix is preferably calculated from the corresponding points.

上記目的を実現するため本発明によるプログラムは、複数の視点画像から、仮想視点での画像を生成するためのコンピュータを、前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割する手段と、前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築する手段と、視点画像毎に前記移動領域の座標を算出し、該座標から前期モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成する手段と、前記背景領域の画像から、仮想視点での背景領域の画像を生成する手段と、前記生成された移動領域の画像と前記生成された背景領域の画像を合成する手段として機能させ、仮想視点での画像を生成する。   In order to achieve the above object, a program according to the present invention divides a computer for generating an image at a virtual viewpoint from a plurality of viewpoint images, and divides the plurality of viewpoint images into one or a plurality of moving areas and a background area. Means for constructing a model coordinate space based on geometric information in the plurality of viewpoint images, calculating coordinates of the moving region for each viewpoint image, and moving the movement in the previous model coordinate space from the coordinates Means for calculating the coordinates of the area and generating an image of the moving area at the virtual viewpoint based on the coordinate information; means for generating an image of the background area at the virtual viewpoint from the image of the background area; It functions as a means for synthesizing the generated moving area image and the generated background area image to generate an image at a virtual viewpoint.

本発明により,従来手法で問題となっていたオクルージョンの影響および背景差分時に生じるシルエット画像中のノイズ等の影響に対してロバストな結果を得ることができ、高精度の仮想視点画像を生成することが可能になった。   According to the present invention, it is possible to obtain a robust result with respect to the influence of occlusion, which has been a problem in the conventional method, and the influence of noise or the like in a silhouette image generated during background subtraction, and to generate a highly accurate virtual viewpoint image Became possible.

本発明による仮想視点画像を構築する方法を示すフローチャートである。3 is a flowchart illustrating a method for constructing a virtual viewpoint image according to the present invention. 本発明による対応点の位置を決定する処理を示すフローチャートである。It is a flowchart which shows the process which determines the position of the corresponding point by this invention. フットサルコートの縦横のラインから、消失点V,V算出の例を示す。An example of vanishing points V 1 and V 2 calculation from the vertical and horizontal lines of the futsal court will be shown. フットサルコートの画像をフィールド平面が正面に来るように変換した画像を示す。The image which converted the image of the futsal court so that the field plane may be in front is shown. フットサルコートの画像内の直線上の対応点を平面にマッピングした例を示す。The example which mapped the corresponding point on the straight line in the image of a futsal court to a plane is shown. フットサルコートにおける平面座標での選手位置の算出の例を示す。The example of calculation of the player position in the plane coordinate in a futsal court is shown. フットサルコートにおける平面座標での全視点分のマッピング結果の例を示す。The example of the mapping result for all the viewpoints in the plane coordinate in a futsal court is shown. 視点画像および背景画像に射影された長方形領域を示す。The rectangular area projected on the viewpoint image and the background image is shown. フットサルコートにおける視点1、視点2のカメラ画像と、該カメラ画像から生成された仮想視点画像の例を示す。The example of the camera image of the viewpoint 1 in the futsal court, the viewpoint 2, and the virtual viewpoint image produced | generated from this camera image is shown.

本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。図1は、本発明による仮想視点画像を構築する方法を示すフローチャートである。以下、本フローチャートに基づいて説明する。   The best mode for carrying out the present invention will be described in detail below with reference to the drawings. FIG. 1 is a flowchart illustrating a method for constructing a virtual viewpoint image according to the present invention. Hereinafter, description will be given based on this flowchart.

本発明は、カメラの強校正を前提としない、画像情報のみを用いた合成方式として、対象フィールドの幾何的情報をもとに、対象フィールドに座標空間を構築し、各カメラ画像の射影行列を推定し、移動領域の位置情報を算出し、仮想視点における射影行列により、移動領域の位置に移動領域の画像を作成することで、仮想視点の画像を高精度に生成する。   The present invention is a composition method that uses only image information and does not require strong calibration of the camera. Based on the geometric information of the target field, a coordinate space is constructed in the target field, and a projection matrix of each camera image is obtained. The position information of the moving area is estimated, the moving area image is generated at the position of the moving area by the projection matrix at the virtual viewpoint, and the image of the virtual viewpoint is generated with high accuracy.

ステップ1:複数台のカメラにより、対象フィールドの視点画像と背景画像を複数枚取得する。なお、背景画像は、移動領域が写っていない画像である。本カメラの強校正は予め行う必要はない。また、対象フィールドの幾何的情報として、対象フィールド内の線分の長さ、対応点を予め測定しておく。少なくとも、視点画像毎に4点以上の平面座標、2点以上の空間座標が分かるように測定しておく。また、対象フィールドの幾何的情報として、視点画像内に平行線が2組以上含まれるように撮影することも可能である。平行線とは、例えば、競技コートのラインである。この場合、平行線から対応点を求める。   Step 1: A plurality of viewpoint images and background images of the target field are acquired by a plurality of cameras. The background image is an image in which the moving area is not shown. Strong calibration of this camera is not necessary. Further, as geometric information of the target field, the length of the line segment in the target field and the corresponding point are measured in advance. At least, four or more plane coordinates and two or more spatial coordinates are measured for each viewpoint image. Further, as the geometric information of the target field, it is possible to photograph so that two or more sets of parallel lines are included in the viewpoint image. A parallel line is a line of a competition court, for example. In this case, the corresponding points are obtained from the parallel lines.

ステップ2:対象フィールドの視点画像を移動領域と背景領域に分割する。移動領域は、時間とともに位置や形状の変化する領域であり、対象フィールドがフットサルコートである場合、人物領域に該当する。   Step 2: The viewpoint image of the target field is divided into a movement area and a background area. The moving region is a region whose position and shape change with time, and corresponds to a person region when the target field is a futsal court.

ステップ3:視点画像間の対応点の位置を決定し、モデル座標空間を構築し、視点画像毎に平面射影行列H、焦点距離f、中心射影行列Pを算出する。   Step 3: The positions of corresponding points between viewpoint images are determined, a model coordinate space is constructed, and a planar projection matrix H, focal length f, and center projection matrix P are calculated for each viewpoint image.

本実施形態は、対応点を予め測定してないため、視点画像内に平行線から対応点を求める。図2は、本発明による対応点の位置を決定する処理を示すフローチャートである。以下、本フローチャートに基づいて説明する。   In the present embodiment, since the corresponding points are not measured in advance, the corresponding points are obtained from the parallel lines in the viewpoint image. FIG. 2 is a flowchart showing a process for determining the position of the corresponding point according to the present invention. Hereinafter, description will be given based on this flowchart.

ステップ21:消失点から焦点距離を計算する。各カメラ視点画像中の2組の平行な2直線の交点座標から消失点V(u,v),V(u,v)を求め、
+v+f=0
から、焦点距離fを求める。図3は、フットサルコートの縦横のラインから、消失点V,V算出の例を示す。
Step 21: Calculate the focal length from the vanishing point. The vanishing points V 1 (u 1 , v 1 ), V 2 (u 2 , v 2 ) are obtained from the intersection coordinates of two parallel straight lines in each camera viewpoint image,
u 1 u 2 + v 1 v 2 + f 2 = 0
From the above, the focal length f is obtained. FIG. 3 shows an example of vanishing points V 1 and V 2 calculation from vertical and horizontal lines of futsal court.

ステップ22:フィールド正面視点へ画像を変換する。基準となる方向の平行線を定め、その消失点に対し方位角θが0°、仰角φが−90°となるように回転し、コートラインが画像上で正面に来るようにし、コートが画像内に来るように平行移動する。図4は、フットサルコートの画像をフィールド平面が正面に来るように変換した画像を示す。   Step 22: Convert the image to the field front view point. A parallel line in a reference direction is determined, and the azimuth angle θ is 0 ° and the elevation angle φ is −90 ° with respect to the vanishing point so that the coat line is in front of the image. Translate to come in. FIG. 4 shows an image obtained by converting the futsal court image so that the field plane is in front.

上記方位角θ、仰角φは、基準となる消失点V(u,v)と、焦点距離fから

Figure 2011170487
により求まる。なお、u、vは、画像中心の座標を表している。例えば、1920×1080の画像の場合、u=960,v=540となる。 The azimuth angle θ and elevation angle φ are determined from the vanishing point V 1 (u 1 , v 1 ) serving as a reference and the focal length f.
Figure 2011170487
It is obtained by. Note that u and v represent the coordinates of the image center. For example, in the case of a 1920 × 1080 image, u = 960 and v = 540.

フィールド平面を正面化する変換行列Hは、

Figure 2011170487
と表される。なお、Aは視点での内部パラメータ行列である。 The transformation matrix H F that makes the field plane front is:
Figure 2011170487
It is expressed. A is an internal parameter matrix at the viewpoint.

ステップ23:直線上の対応点を距離をもとにグループ化し、対応点の位置を決定する。視点画像毎に直線上に対応点を取り、平面にマッピングする。マッピングされた対応点は、ユークリッド距離によるグループ分けされ、グループ内の点を1つの点にまとめる。最初小さな閾値から初め、その閾値内の点を1つにまとめるが、1つにまとまらない場合がある。その場合は、閾値を徐々に大きくしていき、対応点を1つにまとめ、対応点の位置を決定する。 Step 23: The corresponding points on the straight line are grouped based on the distance, and the position of the corresponding point is determined. Corresponding points are taken on a straight line for each viewpoint image and mapped to a plane. The mapped corresponding points are grouped according to the Euclidean distance, and the points in the group are combined into one point. Starting from a small threshold value, the points within the threshold value are combined into one, but may not be combined into one. In that case, the threshold value is gradually increased, the corresponding points are combined into one, and the position of the corresponding point is determined.

図5は、フットサルコートの画像内の直線上の対応点を平面にマッピングした例を示す。3本の直線上にそれぞれ7つの対応点を取った例を示している。図5a、図5b、図5c、図5dと閾値を徐々に大きくして対応点をまとめている。図5dで、直線上の対応点の位置が決定される。   FIG. 5 shows an example in which corresponding points on a straight line in the futsal court image are mapped to a plane. In this example, seven corresponding points are taken on three straight lines. Corresponding points are summarized by gradually increasing the threshold values as in FIGS. 5a, 5b, 5c, and 5d. In FIG. 5d, the position of the corresponding point on the straight line is determined.

上記のようにして、各視点画像に対応点の位置が決定され、この対応点を用いて、各視点画像に座標空間を構築し、平面射影行列H、焦点距離f、中心空間射影行列Pを求めることが可能になる。   As described above, the position of the corresponding point is determined for each viewpoint image, and using this corresponding point, a coordinate space is constructed for each viewpoint image, and the planar projection matrix H, focal length f, and central space projection matrix P are obtained. It becomes possible to ask.

平面射影行列Hは、視点画像の4つ以上の平面上の対応点、例えば、4つのコートラインの座標から算出する。焦点距離fは、視点画像の4つ以上の対応点、例えば、コートラインの頂点座標から消失点V(u,v),V(u,v)を求め、
+v+f=0
から求まる。中心射影行列Pは、視点画像の4つ以上の平面上の対応点、および2つ以上の空間上の対応点の位置と高さから算出する。
The planar projection matrix H is calculated from the corresponding points on four or more planes of the viewpoint image, for example, the coordinates of four coat lines. The focal length f is obtained from four or more corresponding points of the viewpoint image, for example, vanishing points V 1 (u 1 , v 1 ), V 2 (u 2 , v 2 ) from the vertex coordinates of the coat line,
u 1 u 2 + v 1 v 2 + f 2 = 0
Obtained from The central projection matrix P is calculated from the corresponding points on four or more planes of the viewpoint image and the positions and heights of the corresponding points on two or more spaces.

ステップ4:平面射影行列Hにより、各移動領域のモデル座標における床平面での座標を算出する。視点画像と背景画像を用意し、各色成分と色相で差分をとり、2値化し、移動領域(選手位置)を検出する。各移動領域をラベリングし、各移動領域の足元点を検出する。平面射影行列Hにより各移動領域の足元点を、床平面にマッピングする。   Step 4: The coordinates on the floor plane in the model coordinates of each moving region are calculated from the plane projection matrix H. A viewpoint image and a background image are prepared, a difference is obtained between each color component and hue, and binarized to detect a moving area (player position). Each moving area is labeled, and the step point of each moving area is detected. The foot point of each moving area is mapped to the floor plane by the plane projection matrix H.

図6は、フットサルコートにおける平面座標での選手位置の算出の例を示す。図6aは視点画像であり、図6bは2進化した画像であり、図6cは、選手位置をL0からL8にラベリングした図であり、図6dは、足元点を平面にマッピングした画像であり、足元点は+で示されている。   FIG. 6 shows an example of calculating the player position in the plane coordinates in the futsal court. 6a is a viewpoint image, FIG. 6b is a binarized image, FIG. 6c is a diagram in which player positions are labeled from L0 to L8, and FIG. 6d is an image in which foot points are mapped to a plane, The foot point is indicated by +.

ステップ5:全視点分のマッピング結果を用い、モデル座標上の移動領域位置を決定する。各視点からの足元位置のマッピング結果には、
・重なっているところは、一番手前の選手の位置しかマッピングできていない
・同じ選手のマッピングでもH行列の精度で微妙にずれている
・対応していないごみエリアを含んでいる
という状態を含んでいる。図7は、フットサルコートにおける平面座標での全視点分のマッピング結果の例を示す。ここで、図7aは、全視点分がマッピングされた画像である。例えば、矢印1で示されるところは、それぞれ同じ選手のずれている位置であるが、微妙にずれていることがわかる。
Step 5: The moving region position on the model coordinates is determined using the mapping results for all viewpoints. The mapping result of the foot position from each viewpoint is
・ In the overlapping area, only the position of the foremost player can be mapped. ・ The mapping of the same player is slightly deviated with the accuracy of the H matrix. It is out. FIG. 7 shows an example of mapping results for all viewpoints in the plane coordinates in the futsal court. Here, FIG. 7a is an image in which all viewpoints are mapped. For example, the position indicated by the arrow 1 is a position where the same player is displaced, but it can be seen that it is slightly displaced.

移動領域位置は、ユークリッド距離によるグループ分けにより、決定される。
・モデル座標上にマッピングされたn個の点P(x,y,0),・・・,P(x,y,0)に対し、全ての点間でのユークリッド2乗距離
ij =(x−x+(y−y (i,j=1,2,・・・,n)
を求め、
ij<閾値
である場合、点P(x,y,0)と点P(x,y,0)は同じグループに属すると判断される。逆に、
ij≧閾値
である場合、点P(x,y,0)と点P(x,y,0)は同じグループに属さないと判断される。
The moving region position is determined by grouping based on the Euclidean distance.
Euclidean 2 between all points for n points P 1 (x 1 , y 1 , 0),..., P n (x n , y n , 0) mapped on the model coordinates Riding distance d ij 2 = (x i −x j ) 2 + (y i −y j ) 2 (i, j = 1, 2,..., N)
Seeking
When d ij <threshold, it is determined that the point P i (x i , y i , 0) and the point P j (x j , y j , 0) belong to the same group. vice versa,
When d ij ≧ threshold, it is determined that the point P i (x i , y i , 0) and the point P j (x j , y j , 0) do not belong to the same group.

次に、グループ内の要素数が1の場合は、ゴミであると判断して、その点を消去する。要素数が2以上の場合は、グループ内の点の重心を求め、その点を選手の位置とする。図7bは、グループ分けにより、移動領域位置が決定された図である。矢印1で示す点は、それぞれ1つにまとめられたことがわかる。   Next, when the number of elements in the group is 1, it is determined that it is dust and the point is deleted. When the number of elements is 2 or more, the center of gravity of the point in the group is obtained, and that point is set as the player's position. FIG. 7B is a diagram in which the moving region position is determined by grouping. It can be seen that the points indicated by arrows 1 are grouped together.

ステップ6:モデル座標上の移動領域位置に長方形領域を設定し、各視点画像に射影する。床平面座標上の選手位置の座標を中心にして、選手エリアを想定する。選手エリアは長方形と仮定し、鉛直方向2m(20px)、幅1m(10px)を割り当て、向きは、各カメラ視点方向正面とする。カメラ位置と各移動領域との距離を求め、奥行き情報を得る。次に、中心射影行列Pを用いて、長方形領域を視点画像および背景画像に射影する。投影された長方形領域内に、選手領域(移動領域)が含まれている。図8は、視点画像および背景画像に射影された長方形領域を示す。   Step 6: A rectangular area is set at the moving area position on the model coordinates, and projected onto each viewpoint image. A player area is assumed centering on the coordinates of the player position on the floor plane coordinates. The player area is assumed to be rectangular, and a vertical direction of 2 m (20 px) and a width of 1 m (10 px) are assigned, and the direction is the front direction of each camera viewpoint. The distance between the camera position and each moving area is obtained to obtain depth information. Next, the rectangular region is projected onto the viewpoint image and the background image using the central projection matrix P. A player area (moving area) is included in the projected rectangular area. FIG. 8 shows a rectangular area projected on the viewpoint image and the background image.

ステップ7:長方形領域のテクスチャを切り出す。各視点に射影された長方形領域に含まれる部分を、視点画像から切り出す。背景差分により選手領域の部分以外は取り除く。視点の向き情報とともにビルボードとして、全視点分のテクスチャを集める。   Step 7: Cut out the texture of the rectangular area. A portion included in the rectangular area projected to each viewpoint is cut out from the viewpoint image. All parts except the player area are removed by background difference. Collects textures for all viewpoints as a billboard along with viewpoint direction information.

ステップ8:長方形領域の重なりを判定し、オクルージョン処理を行う。カメラ位置に対して、フィールド平面上での各選手位置とのユークリッド距離を求める。このユークリッド距離を元に重なり順をもとめる。各視点画像において長方形領域の全ての組に対して、重なり判定を行なう。他の長方形領域と重なっていてかつ手前にある場合、抜き出したテクスチャ領域に対して次の処理を行なう。
・隣の視点でオクルージョンを起こしていない場合:隣の視点の背景領域を、オクルージョンしている視点に射影する。射影した背景領域を用いて人物領域のテクスチャを抜き出す。
・隣の視点でもオクルージョンを起こしている場合:この場合、抜き出したテクスチャをそのまま利用する。
Step 8: Determine the overlap of the rectangular areas and perform an occlusion process. The Euclidean distance between each player position on the field plane is obtained with respect to the camera position. Based on this Euclidean distance, the overlapping order is obtained. Overlap determination is performed for all pairs of rectangular regions in each viewpoint image. If it overlaps with the other rectangular area and is in front, the following processing is performed on the extracted texture area.
-When the occlusion is not caused by the adjacent viewpoint: The background area of the adjacent viewpoint is projected to the occluding viewpoint. The texture of the person area is extracted using the projected background area.
-When the occlusion has occurred in the adjacent viewpoint: In this case, the extracted texture is used as it is.

ステップ9:2視点のカメラパラメータ行列と、内挿比αを用いて、仮想視点cでの空間射影行列Pを算出する。仮想視点cでの空間射影行列Pは、以下のように求められる。
・視点1、視点2の内部パラメータ行列A,Aから仮想視点cでの内部パラメータ行列Aを求める。内部パラメータ行列A,Aは、

Figure 2011170487
と表せる。ここで、fA1,fA2は、視点1、2における焦点距離fであり、xA1,xA2は、画像の縦の長さであり、yA1,yA2は、画像の横の長さである。 Step 9: 2-viewpoint and the camera parameter matrix, using the interpolation ratio alpha, and calculates the spatial projection matrix P C of the virtual viewpoint c. Space projection matrix P C of the virtual viewpoint c is determined as follows.
· View 1, the internal parameter matrix A 1, A 2 of the viewpoint 2 and calculates an internal parameter matrix A c of the virtual viewpoint c. The internal parameter matrices A 1 and A 2 are
Figure 2011170487
It can be expressed. Here, f A1 and f A2 are the focal lengths f at the viewpoints 1 and 2, x A1 and x A2 are the vertical lengths of the images, and y A1 and y A2 are the horizontal lengths of the images. It is.

画像中心は不変であり、仮想視点cでの焦点距離は視点1と2での焦点距離と内挿比αを用いて、次のように表せる。
Ac=(1−α)fA1+αfA2
このfAcを用いて、仮想視点cでの内部パラメータ行列Aは、

Figure 2011170487
と表せる。
・視点1、視点2の回転行列R,Rから仮想視点cでの回転行列Rを求める。回転行列R,Rに対して、方位角θ、仰角φ、チルト角τに分解する(ただし、本実施形態では水平線に対して傾いていることは想定しないのでτ=0とする)。回転行列R,Rの方位角θ,θ、仰角φ,φ、すると、仮想視点cの方位角θ、φは、
θ=(1−α)θ+αθ
φ=(1−α)φ+αφ
と表せる。このθ、φとを組み合わせて、Rが求まる。
・視点1、視点2の並進ベクトルT,Tから仮想視点cでの並進ベクトルTを求める。視点1、視点2、仮想視点cのモデル座標上での位置を、それぞれ
Figure 2011170487
とすると、
Figure 2011170487
であるため、仮想視点cのモデル座標上での位置は、
Figure 2011170487
と表せる。並進ベクトルTは、
Figure 2011170487
より求めることができる。
・空間射影行列Pは、A、R、Tから、
=A[R|T
で求められる。ここで、[R|T]は、3×3の行列Rと1×3のベクトルTを、あわせた3×4の行列である。Aとこの行列の積により、空間射影行列Pが求まる。 The center of the image is unchanged, and the focal length at the virtual viewpoint c can be expressed as follows using the focal lengths at the viewpoints 1 and 2 and the interpolation ratio α.
f Ac = (1-α) f A1 + αf A2
Using this f Ac , the internal parameter matrix Ac at the virtual viewpoint c is
Figure 2011170487
It can be expressed.
· View 1 obtains a rotation matrix R c of the virtual viewpoint c from the rotation matrix R 1, R 2 viewpoints 2. The rotation matrices R 1 and R 2 are decomposed into an azimuth angle θ, an elevation angle φ, and a tilt angle τ (however, in the present embodiment, τ = 0 is assumed since it is not assumed to be inclined with respect to the horizontal line). The azimuth angles θ 1 , θ 2 of the rotation matrices R 1 , R 2 , the elevation angles φ 1 , φ 2 , and the azimuth angles θ c , φ c of the virtual viewpoint c are
θ c = (1−α) θ 1 + αθ 2
φ c = (1−α) φ 1 + αφ 2
It can be expressed. R c is obtained by combining θ c and φ c .
· View 1 obtains a translation vector T c of the virtual viewpoint c from translation vector T 1, T 2 of view 2. The positions of viewpoint 1, viewpoint 2, and virtual viewpoint c on the model coordinates are
Figure 2011170487
Then,
Figure 2011170487
Therefore, the position of the virtual viewpoint c on the model coordinates is
Figure 2011170487
It can be expressed. The translation vector T c is
Figure 2011170487
It can be obtained more.
The spatial projection matrix P c is obtained from A c , R c , and T c
P c = A c [R c | T c ]
Is required. Here, [R c | T c ] is a 3 × 4 matrix including a 3 × 3 matrix R c and a 1 × 3 vector T c . A spatial projection matrix P c is obtained by the product of A c and this matrix.

ステップ10:モデル座標上の移動領域位置に長方形領域を設定し、仮想視点に射影する。床平面座標上の選手位置の座標を中心にして、選手エリアを想定する。選手エリアは長方形と仮定し、鉛直方向2m(20px)、幅1m(10px)を割り当て、向きは、各カメラ視点方向正面とする。カメラ位置と各移動領域との距離を求め、奥行き情報を得る。次に、空間射影行列Pを用いて、長方形領域を仮想視点に射影する。 Step 10: A rectangular area is set at the moving area position on the model coordinates and projected onto the virtual viewpoint. A player area is assumed centering on the coordinates of the player position on the floor plane coordinates. The player area is assumed to be rectangular, and a vertical direction of 2 m (20 px) and a width of 1 m (10 px) are assigned, and the direction is the front direction of each camera viewpoint. The distance between the camera position and each moving area is obtained to obtain depth information. Next, the rectangular region is projected onto the virtual viewpoint using the spatial projection matrix Pc .

ステップ11:ビルボードを選択し、テクスチャマッピングを行い内挿画像を合成する。各長方形領域において、仮想視点方向に最も近い向きのビルボードを選択する。ただし、選択したビルボードがオクルージョンしている場合、オクルージョンしていない最も近い向きのビルボードを選択する。選択されたビルボードのテクスチャを仮想視点の長方形領域の大きさに合わせてマッピングし内挿画像を合成する。   Step 11: A billboard is selected, texture mapping is performed, and an interpolated image is synthesized. In each rectangular area, the billboard with the direction closest to the virtual viewpoint direction is selected. However, if the selected billboard is occluded, the closest billboard that is not occluded is selected. The texture of the selected billboard is mapped according to the size of the rectangular area of the virtual viewpoint, and the interpolated image is synthesized.

ステップ12:背景領域の画像から、仮想視点での背景領域の画像を生成する。仮想視点での背景領域の画像は、既存の手法により生成される。例えば、背景領域を遠景領域およびフィールド領域に分割して、非特許文献1に記載の方法により作成することができる。   Step 12: Generate an image of the background area at the virtual viewpoint from the image of the background area. The image of the background area at the virtual viewpoint is generated by an existing method. For example, the background area can be divided into a distant view area and a field area, and can be created by the method described in Non-Patent Document 1.

ステップ13:生成された移動領域の画像と生成された背景領域の画像を合成し、仮想視点の画像を生成する。本合成も既存の手法により行われる。   Step 13: The generated moving area image and the generated background area image are combined to generate a virtual viewpoint image. This synthesis is also performed by existing methods.

次に本発明の効果を実際に生成された仮想視点での画像により示す。図9は、フットサルコートにおける視点1、視点2のカメラ画像と、該カメラ画像から生成された仮想視点画像の例を示す。図9aは、視点1のカメラ画像の例であり、図9bは、視点2のカメラ画像の例であり、図9cは、図9aと図9bから、従来技術により生成された仮想視点画像の例であり、図9dは、図9aと図9bから、本発明の方法により生成された仮想視点画像の例である。図9cおよび図9dは、視点1と視点2の中間(α=0.5)の仮想視点の画像である。なお、それぞれ元の画像は、1920×1080のフルHDの画像であるが、比較のため、一部を抽出している。   Next, the effect of the present invention is shown by an actually generated image at a virtual viewpoint. FIG. 9 shows an example of camera images of viewpoints 1 and 2 in futsal court and a virtual viewpoint image generated from the camera images. 9a is an example of a camera image at viewpoint 1, FIG. 9b is an example of a camera image at viewpoint 2, and FIG. 9c is an example of a virtual viewpoint image generated by the prior art from FIGS. 9a and 9b. FIG. 9d is an example of a virtual viewpoint image generated by the method of the present invention from FIGS. 9a and 9b. FIGS. 9c and 9d are images of a virtual viewpoint that is intermediate between viewpoint 1 and viewpoint 2 (α = 0.5). Each original image is a 1920 × 1080 full HD image, but a part is extracted for comparison.

図9cおよび図9dを比較すると、図9cでは、画像間の対応がとれないため、人物の画像が除去されてしまい、映っていない場合があるが、図9dでは、削除されることがない。また、人物画像同士を比較すると、図9dの方が鮮明に写っており、画像の精度が高いことが分かる。   Comparing FIG. 9c and FIG. 9d, in FIG. 9c, the correspondence between the images cannot be taken, so the human image may be removed and may not be shown, but in FIG. 9d, it is not deleted. Further, comparing human images, it can be seen that the image of FIG. 9d is clearer and the accuracy of the image is higher.

以上に述べた実施形態は、全て本発明を例示的に示すものであって、限定的に示すものではない、本発明は、他の種々の変形形態及び変更態様で実施できる。従って本発明の範囲は、特許請求の範囲及びその均等範囲によってのみ規定されるものである。   The above-described embodiments are all illustrative of the present invention and are not intended to limit the present invention, and the present invention can be implemented in various other variations and modifications. Therefore, the scope of the present invention is defined only by the claims and their equivalents.

Claims (11)

複数の視点画像から、仮想視点での画像を生成する方法であって、
前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割するステップと、
前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築するステップと、
視点画像毎に前記移動領域の座標を算出し、該座標から前期モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成するステップと、
前記背景領域の画像から、仮想視点での背景領域の画像を生成するステップと、
前記生成された移動領域の画像と前記生成された背景領域の画像を合成するステップと、
を含むことを特徴とする仮想視点での画像を生成する方法。
A method for generating an image at a virtual viewpoint from a plurality of viewpoint images,
Dividing the plurality of viewpoint images into one or more moving regions and a background region;
Building a model coordinate space based on geometric information in the plurality of viewpoint images;
Calculating the coordinates of the moving area for each viewpoint image, calculating the coordinates of the moving area in the previous model coordinate space from the coordinates, and generating an image of the moving area at the virtual viewpoint based on the coordinate information; ,
Generating a background region image at a virtual viewpoint from the background region image;
Combining the generated image of the moving area and the generated image of the background area;
A method for generating an image at a virtual viewpoint characterized by including:
前記移動領域の画像を生成するステップは、
視点画像毎に、該視点画像と前記モデル座標空間との間で成立する平面射影行列を算出するサブステップと、
前記平面射影行列により、視点画像毎に前記移動領域の座標を前記モデル座標空間における床平面に射影するサブステップと、
前記射影された座標から、前記移動領域のモデル座標空間における座標を算出するサブステップと、
仮想視点において前記モデル座標空間との間で成立する空間射影行列を算出し、該空間射影行列により、前記モデル座標空間中の座標をもとに仮想視点での移動領域の画像を生成するサブステップと、
を含むことを特徴とする請求項1に記載の仮想視点での画像を生成する方法。
The step of generating an image of the moving area includes:
Substep for calculating a plane projection matrix established between the viewpoint image and the model coordinate space for each viewpoint image;
A sub-step of projecting the coordinates of the moving region to the floor plane in the model coordinate space for each viewpoint image by the plane projection matrix;
A sub-step of calculating coordinates in the model coordinate space of the moving region from the projected coordinates;
A sub-step of calculating a spatial projection matrix established between the virtual coordinate point and the model coordinate space, and generating an image of a moving region at the virtual viewpoint based on the coordinates in the model coordinate space based on the spatial projection matrix When,
The method of generating an image at a virtual viewpoint according to claim 1, comprising:
前記移動領域のモデル座標空間における座標の算出は、各座標間の距離をもとに該座標をグループ化して、同一グループ内の重心を算出することを特徴とする請求項2に記載の仮想視点での画像を生成する方法。   3. The virtual viewpoint according to claim 2, wherein the calculation of the coordinates of the moving area in the model coordinate space is performed by grouping the coordinates based on a distance between the coordinates and calculating a center of gravity within the same group. How to generate an image with 前記仮想視点での移動領域の画像を生成するサブステップは、モデル座標空間中の移動領域ごとに、適当な大きさの長方形領域を設定し、該長方形領域の仮想視点での対応領域および実視点での対応領域を算出し、仮想視点での対応領域のテクスチャを仮想視点に近い実視点での対応領域から抽出することを特徴とする請求項2または3に記載の仮想視点での画像を生成する方法。   The sub-step of generating an image of the moving area at the virtual viewpoint sets a rectangular area of an appropriate size for each moving area in the model coordinate space, and the corresponding area and the actual viewpoint at the virtual viewpoint of the rectangular area 4. The image at the virtual viewpoint according to claim 2, wherein the corresponding area at the virtual viewpoint is calculated, and the texture of the corresponding area at the virtual viewpoint is extracted from the corresponding area at the real viewpoint close to the virtual viewpoint. how to. 前記仮想視点での対応領域および実視点での対応領域の算出は、前記仮想視点および実視点において前記モデル座標空間との間で成立する中心射影行列を算出し、該中心射影行列により、前記モデル空間中の移動領域ごとに設定された長方形領域を各仮想画像および実視点に射影することで画像領域を決定することを特徴とする請求項4に記載の仮想視点での画像を生成する方法。   The calculation of the corresponding region at the virtual viewpoint and the corresponding region at the real viewpoint is performed by calculating a central projection matrix established between the virtual viewpoint and the real viewpoint with the model coordinate space, and using the central projection matrix, the model 5. The method for generating an image at a virtual viewpoint according to claim 4, wherein the image area is determined by projecting a rectangular area set for each moving area in the space onto each virtual image and the actual viewpoint. 前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記仮想視点での対応領域と前記実視点での対応領域間の平面射影行列を算出し、実視点での対応領域のテクスチャを仮想視点での対応領域に射影することを特徴とする請求項4または5に記載の仮想視点での画像を生成する方法。   The method of extracting the texture of the corresponding area at the virtual viewpoint from the corresponding area at the real viewpoint is to calculate a planar projection matrix between the corresponding area at the virtual viewpoint and the corresponding area at the real viewpoint, and 6. The method for generating an image at a virtual viewpoint according to claim 4, wherein the texture of the corresponding area is projected onto the corresponding area at the virtual viewpoint. 前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記実視点での対応領域においてオクルージョンが生じているか否かを判定する機能を有し、生じている場合は、他の実視点での対応領域をもとに合成することを特徴とする請求項4から6のいずれか1項に記載の仮想視点での画像を生成する方法。   The method of extracting the texture of the corresponding area at the virtual viewpoint from the corresponding area at the real viewpoint has a function of determining whether or not occlusion has occurred in the corresponding area at the real viewpoint. The method for generating an image at a virtual viewpoint according to any one of claims 4 to 6, wherein the image is synthesized based on a corresponding region at another real viewpoint. 前記幾何情報は、前記視点画像内の線分の長さおよび対応点であり、
前記座標空間を構築するステップは、原点を定め、前記線分の長さをもとに対応点に座標を割り当てることを特徴とする請求項1から7のいずれか1項に記載の仮想視点での画像を生成する方法。
The geometric information is a length of a line segment in the viewpoint image and a corresponding point,
The virtual viewpoint according to any one of claims 1 to 7, wherein the step of constructing the coordinate space determines an origin and assigns coordinates to corresponding points based on a length of the line segment. How to generate images.
前記幾何情報は、前記視点画像内の平行線であり、
前記座標空間を構築するステップは、前記平行線が同一方向になるように各視点画像を回転させ、該視点画像の平行線上の点を距離をもとにグループ化して、同一グループ内の重心を対応点として、該対応点に座標を割り当てることを特徴とする請求項1から7のいずれか1項に記載の仮想視点での画像を生成する方法。
The geometric information is parallel lines in the viewpoint image,
In the step of constructing the coordinate space, each viewpoint image is rotated so that the parallel lines are in the same direction, and points on the parallel lines of the viewpoint image are grouped based on the distance, and the center of gravity in the same group is obtained. The method for generating an image at a virtual viewpoint according to claim 1, wherein coordinates are assigned to the corresponding points as corresponding points.
前記平面射影行列は、前記対応点から算出されることを特徴とする請求項8または9に記載の仮想視点での画像を生成する方法。   The method for generating an image at a virtual viewpoint according to claim 8 or 9, wherein the planar projection matrix is calculated from the corresponding points. 複数の視点画像から、仮想視点での画像を生成するためのコンピュータを、
前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割する手段と、
前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築する手段と、
視点画像毎に前記移動領域の座標を算出し、該座標から前期モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成する手段と、
前記背景領域の画像から、仮想視点での背景領域の画像を生成する手段と、
前記生成された移動領域の画像と前記生成された背景領域の画像を合成する手段と、
して機能させ、仮想視点での画像を生成することを特徴とするプログラム。
A computer for generating an image at a virtual viewpoint from a plurality of viewpoint images,
Means for dividing the plurality of viewpoint images into one or more moving regions and a background region;
Means for constructing a model coordinate space based on geometric information in the plurality of viewpoint images;
Means for calculating coordinates of the moving area for each viewpoint image, calculating coordinates of the moving area in the previous model coordinate space from the coordinates, and generating an image of the moving area at the virtual viewpoint based on the coordinate information; ,
Means for generating an image of a background area at a virtual viewpoint from the image of the background area;
Means for synthesizing the generated image of the moving region and the image of the generated background region;
And a program for generating an image at a virtual viewpoint.
JP2010032136A 2010-02-17 2010-02-17 Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement Active JP5366258B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010032136A JP5366258B2 (en) 2010-02-17 2010-02-17 Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010032136A JP5366258B2 (en) 2010-02-17 2010-02-17 Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement

Publications (2)

Publication Number Publication Date
JP2011170487A true JP2011170487A (en) 2011-09-01
JP5366258B2 JP5366258B2 (en) 2013-12-11

Family

ID=44684572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010032136A Active JP5366258B2 (en) 2010-02-17 2010-02-17 Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement

Country Status (1)

Country Link
JP (1) JP5366258B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058132A (en) * 2011-09-09 2013-03-28 Kddi Corp Subject three-dimensional region estimation method and program
JP2015114716A (en) * 2013-12-09 2015-06-22 シャープ株式会社 Image data reproducing apparatus and image data generation apparatus
JP2016126425A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Free viewpoint image generation device, method and program
JP2017097800A (en) * 2015-11-27 2017-06-01 日本電信電話株式会社 Image processing device, image processing method, and computer program
JP2017156880A (en) * 2016-02-29 2017-09-07 Kddi株式会社 Image processing device and image processing method
JP2018026064A (en) * 2016-08-12 2018-02-15 キヤノン株式会社 Image processor, image processing method, system
JP2018125642A (en) * 2017-01-31 2018-08-09 Kddi株式会社 Region extraction device and program
JP2020046944A (en) * 2018-09-19 2020-03-26 キヤノン株式会社 Image processing apparatus, control method, and program
JP7395189B2 (en) 2018-11-22 2023-12-11 国立大学法人 東京大学 Motion capture camera system and calibration method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539155A (en) * 2006-06-02 2009-11-12 イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ Method and system for generating a 3D representation of a dynamically changing 3D scene

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539155A (en) * 2006-06-02 2009-11-12 イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ Method and system for generating a 3D representation of a dynamically changing 3D scene

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
CSNG200401785011; 古山孝好,外2名: '"仮想化現実技術を用いた大規模空間自由視点映像のライブ配信と提示"' 電子情報通信学会技術研究報告 Vol.103,No.96, 2003, p.61-66, 社団法人電子情報通信学会 *
CSNG200600144005; 有澤博,外1名: '"多視点カメラを用いたスポーツ映像からの被写体情報抽出"' 電子情報通信学会技術研究報告 Vol.105,No.415, 2005, p.27-32, 社団法人電子情報通信学会 *
CSNG200600724022; 林邦彦,外1名: '"多視点サッカー映像からの自由視点映像生成"' 情報処理学会研究報告 Vol.2006,No.51, 2006, p.173-180, 社団法人情報処理学会 *
CSNG200801034019; 榎本暁人,外1名: '"フィールドパターンを用いたカメラトラッキングに基づく多視点スポーツ映像の拡張現実感表示"' 電子情報通信学会技術研究報告 Vol.108,No.363, 2008, p.111-116, 社団法人電子情報通信学会 *
JPN6013026924; 林邦彦,外1名: '"多視点サッカー映像からの自由視点映像生成"' 情報処理学会研究報告 Vol.2006,No.51, 2006, p.173-180, 社団法人情報処理学会 *
JPN6013026927; 榎本暁人,外1名: '"フィールドパターンを用いたカメラトラッキングに基づく多視点スポーツ映像の拡張現実感表示"' 電子情報通信学会技術研究報告 Vol.108,No.363, 2008, p.111-116, 社団法人電子情報通信学会 *
JPN6013026930; 古山孝好,外2名: '"仮想化現実技術を用いた大規模空間自由視点映像のライブ配信と提示"' 電子情報通信学会技術研究報告 Vol.103,No.96, 2003, p.61-66, 社団法人電子情報通信学会 *
JPN6013026934; 有澤博,外1名: '"多視点カメラを用いたスポーツ映像からの被写体情報抽出"' 電子情報通信学会技術研究報告 Vol.105,No.415, 2005, p.27-32, 社団法人電子情報通信学会 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058132A (en) * 2011-09-09 2013-03-28 Kddi Corp Subject three-dimensional region estimation method and program
JP2015114716A (en) * 2013-12-09 2015-06-22 シャープ株式会社 Image data reproducing apparatus and image data generation apparatus
JP2016126425A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Free viewpoint image generation device, method and program
JP2017097800A (en) * 2015-11-27 2017-06-01 日本電信電話株式会社 Image processing device, image processing method, and computer program
JP2017156880A (en) * 2016-02-29 2017-09-07 Kddi株式会社 Image processing device and image processing method
JP2018026064A (en) * 2016-08-12 2018-02-15 キヤノン株式会社 Image processor, image processing method, system
EP3285484A1 (en) 2016-08-12 2018-02-21 Canon Kabushiki Kaisha Image processing apparatus, image generation method, and program
US10244163B2 (en) 2016-08-12 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus that generates a virtual viewpoint image, image generation method, and non-transitory computer-readable storage medium
JP2018125642A (en) * 2017-01-31 2018-08-09 Kddi株式会社 Region extraction device and program
JP2020046944A (en) * 2018-09-19 2020-03-26 キヤノン株式会社 Image processing apparatus, control method, and program
JP7395189B2 (en) 2018-11-22 2023-12-11 国立大学法人 東京大学 Motion capture camera system and calibration method

Also Published As

Publication number Publication date
JP5366258B2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
JP5366258B2 (en) Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement
JP5011168B2 (en) Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program
US9117310B2 (en) Virtual camera system
US8447099B2 (en) Forming 3D models using two images
US11348267B2 (en) Method and apparatus for generating a three-dimensional model
US20130095920A1 (en) Generating free viewpoint video using stereo imaging
JP6818606B2 (en) Free-viewpoint image generation and display methods, devices and programs
JP2016537901A (en) Light field processing method
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
CN110490967A (en) Image procossing and object-oriented modeling method and equipment, image processing apparatus and medium
Poullis et al. 3d reconstruction of urban areas
WO2020075252A1 (en) Information processing device, program, and information processing method
Starck et al. Virtual view synthesis of people from multiple view video sequences
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
JP4354708B2 (en) Multi-view camera system
JP5373931B2 (en) Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, and virtual viewpoint image generation program
JP5422538B2 (en) Image processing apparatus, display apparatus, method and program thereof
Yaguchi et al. Arbitrary viewpoint video synthesis from multiple uncalibrated cameras
JP5667846B2 (en) Object image determination device
Grammatikopoulos et al. Automatic multi-image photo-texturing of 3d surface models obtained with laser scanning
JP2003271928A (en) Three-dimensional modeling device, and method and program thereof
JP2013069026A (en) Device, method, and program for restoring three-dimensional shape of subject
Graciá et al. A system for real-time multi-view 3d reconstruction
JP6595878B2 (en) Element image group generation apparatus and program thereof
JP2004013869A (en) Apparatus for generating three-dimensional shape, method therefor, and its program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120816

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130408

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130509

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130906

R150 Certificate of patent or registration of utility model

Ref document number: 5366258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150