JP2011170487A - Virtual point of view image generation method and program based on geometric information of camera placement in large space - Google Patents
Virtual point of view image generation method and program based on geometric information of camera placement in large space Download PDFInfo
- Publication number
- JP2011170487A JP2011170487A JP2010032136A JP2010032136A JP2011170487A JP 2011170487 A JP2011170487 A JP 2011170487A JP 2010032136 A JP2010032136 A JP 2010032136A JP 2010032136 A JP2010032136 A JP 2010032136A JP 2011170487 A JP2011170487 A JP 2011170487A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- area
- virtual viewpoint
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、カメラ間の仮想視点画像を生成する方法およびプログラムに関するものである。より詳細には、大規模な空間で行われるイベントを撮影した多視点画像をもとに仮想視点における画像を生成する方法およびプログラムに関する。 The present invention relates to a method and a program for generating a virtual viewpoint image between cameras. More specifically, the present invention relates to a method and a program for generating an image at a virtual viewpoint based on a multi-viewpoint image obtained by capturing an event performed in a large space.
仮想視点画像生成を生成する代表的な合成方法であるモデルベース手法は、3次元のボクセルモデルを作成することにより行われる。この方法は、空間内のユークリッド座標系とカメラ座標系との射影関係を推定するカメラの強校正を予め行う必要がある。しかしながら、大規模な空間において、カメラの強校正を正確に行うことは極めて困難である。 A model-based method, which is a typical synthesis method for generating virtual viewpoint image generation, is performed by creating a three-dimensional voxel model. In this method, it is necessary to perform strong calibration of the camera in advance to estimate the projection relationship between the Euclidean coordinate system in the space and the camera coordinate system. However, it is extremely difficult to accurately perform strong camera calibration in a large space.
そのため、非特許文献1では、大規模な空間において、仮想視点画像を生成する方法として、カメラ間に成り立つ射影幾何的関係のみを用い、実カメラの中間に視点を移動させた画像を合成する手法を提案している。ここでは、画像を時間とともに位置や形状の変化する移動領域と、カメラからの距離が遠い遠景領域と、それ以外のフィールド領域の三領域に分割して、それぞれに対する合成画像を生成し、それらを重ね合わせることで仮想視点画像を生成している。
Therefore, in
上記の移動領域は、複数の移動領域に分割して処理される。まず、隣接する2視点で得られた画像に対して背景差分・2値化を行い、全移動領域が抽出されたシルエット画像を2枚作成する。それぞれの画像に対してラベリングを行い、各移動領域に分割する。分割された各シルエット画像に対して視点間で対応付けを行い、対応のとれた各シルエットに対してエピポーラ線を投影して対応点を算出する。得られた対応点情報をもとにモーフィングを行い仮想視点での画像を合成している。 The moving area is processed by being divided into a plurality of moving areas. First, background difference / binarization is performed on images obtained from two adjacent viewpoints to create two silhouette images from which all moving regions are extracted. Each image is labeled and divided into moving regions. Each divided silhouette image is associated between viewpoints, and an epipolar line is projected to each corresponding silhouette to calculate a corresponding point. Morphing is performed based on the obtained corresponding point information to synthesize an image at a virtual viewpoint.
また、フィールド領域は、平面近似を行い移動領域と同様に対応点を求め、モーフィングにより仮想視点の合成画像を生成している。遠景領域は、イメージモザイキングによって連結し、パノラマ画像からその中間領域を切り出すことで視点の内挿を行っている。 In the field area, a plane approximation is performed to obtain corresponding points as in the movement area, and a composite image of the virtual viewpoint is generated by morphing. The distant view areas are connected by image mosaicing, and the viewpoint is interpolated by cutting out the intermediate area from the panoramic image.
しかしながら、移動領域の合成は、視点間における人物どうしの対応付けが重要であるが、従来技術においては、人物どうしが重なるオクルージョンの影響や、背景差分時に生じるシルエット画像中のノイズ等の影響により精度が大きく低下してしまうという問題があった。 However, in the composition of moving regions, it is important to associate people between viewpoints. However, in the conventional technology, the accuracy is increased due to the effect of occlusion where people overlap each other and the noise in the silhouette image that occurs during background subtraction. There was a problem that would be greatly reduced.
したがって、本発明は、対象フィールドの幾何的情報をもとに各カメラの射影行列を推定し、人物の位置情報を大まかに算出することで、人物領域の合成を高精度に実現する仮想視点画像生成方法およびプログラムを提供することを目的とする。 Therefore, the present invention estimates the projection matrix of each camera based on the geometric information of the target field and roughly calculates the position information of the person, thereby realizing a virtual viewpoint image that realizes the synthesis of the person region with high accuracy. An object is to provide a generation method and a program.
上記目的を実現するため本発明による仮想視点での画像を生成する方法は、複数の視点画像から、仮想視点での画像を生成する方法であって、前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割するステップと、前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築するステップと、視点画像毎に前記移動領域の座標を算出し、該座標から前期モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成するステップと、前記背景領域の画像から、仮想視点での背景領域の画像を生成するステップと、前記生成された移動領域の画像と前記生成された背景領域の画像を合成するステップとを含む。 In order to achieve the above object, a method for generating an image at a virtual viewpoint according to the present invention is a method for generating an image at a virtual viewpoint from a plurality of viewpoint images, wherein one or a plurality of the plurality of viewpoint images are selected. Dividing the movement area and the background area of the image, a step of constructing a model coordinate space based on the geometric information in the plurality of viewpoint images, and calculating coordinates of the movement area for each viewpoint image, Calculating the coordinates of the moving area in the previous model coordinate space from the image, generating an image of the moving area at the virtual viewpoint based on the coordinate information, and from the image of the background area, Generating an image; and synthesizing the generated image of the moving area and the generated image of the background area.
また、前記移動領域の画像を生成するステップは、視点画像毎に、該視点画像と前記モデル座標空間との間で成立する平面射影行列を算出するサブステップと、前記平面射影行列により、視点画像毎に前記移動領域の座標を前記モデル座標空間における床平面に射影するサブステップと、前記射影された座標から、前記移動領域のモデル座標空間における座標を算出するサブステップと、仮想視点において前記モデル座標空間との間で成立する空間射影行列を算出し、該空間射影行列により、前記モデル座標空間中の座標をもとに仮想視点での移動領域の画像を生成するサブステップとを含むことも好ましい。 Further, the step of generating an image of the moving region includes, for each viewpoint image, a sub-step of calculating a plane projection matrix established between the viewpoint image and the model coordinate space, and the viewpoint image by the plane projection matrix. A sub-step of projecting the coordinates of the moving region onto the floor plane in the model coordinate space, a sub-step of calculating coordinates in the model coordinate space of the moving region from the projected coordinates, and the model at a virtual viewpoint A sub-step of calculating a spatial projection matrix established between the coordinate space and generating an image of a moving region at a virtual viewpoint based on the coordinates in the model coordinate space based on the spatial projection matrix. preferable.
また、前記移動領域のモデル座標空間における座標の算出は、各座標間の距離をもとに該座標をグループ化して、同一グループ内の重心を算出することも好ましい。 In calculating the coordinates of the moving area in the model coordinate space, it is also preferable to calculate the center of gravity within the same group by grouping the coordinates based on the distance between the coordinates.
また、前記仮想視点での移動領域の画像を生成するサブステップは、モデル座標空間中の移動領域ごとに、適当な大きさの長方形領域を設定し、該長方形領域の仮想視点での対応領域および実視点での対応領域を算出し、仮想視点での対応領域のテクスチャを仮想視点に近い実視点での対応領域から抽出することも好ましい。 Further, the sub-step of generating an image of the moving area at the virtual viewpoint sets a rectangular area of an appropriate size for each moving area in the model coordinate space, and the corresponding area at the virtual viewpoint of the rectangular area and It is also preferable to calculate the corresponding area at the real viewpoint and extract the texture of the corresponding area at the virtual viewpoint from the corresponding area at the real viewpoint close to the virtual viewpoint.
また、前記仮想視点での対応領域および実視点での対応領域の算出は、前記仮想視点および実視点において前記モデル座標空間との間で成立する中心射影行列を算出し、該中心射影行列により、前記モデル空間中の移動領域ごとに設定された長方形領域を各仮想画像および実視点に射影することで画像領域を決定することも好ましい。 Further, the calculation of the corresponding area at the virtual viewpoint and the corresponding area at the real viewpoint calculates a central projection matrix established between the virtual viewpoint and the real viewpoint with the model coordinate space, and the central projection matrix It is also preferable to determine an image region by projecting a rectangular region set for each moving region in the model space onto each virtual image and a real viewpoint.
また、前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記仮想視点での対応領域と前記実視点での対応領域間の平面射影行列を算出し、実視点での対応領域のテクスチャを仮想視点での対応領域に射影することも好ましい。 Further, the method of extracting the texture of the corresponding area at the virtual viewpoint from the corresponding area at the real viewpoint calculates a planar projection matrix between the corresponding area at the virtual viewpoint and the corresponding area at the real viewpoint, It is also preferable to project the texture of the corresponding area at 1 to the corresponding area at the virtual viewpoint.
また、前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記実視点での対応領域においてオクルージョンが生じているか否かを判定する機能を有し、生じている場合は、他の実視点での対応領域をもとに合成することも好ましい。 Further, the method of extracting the texture of the corresponding area at the virtual viewpoint from the corresponding area at the real viewpoint has a function of determining whether or not occlusion occurs in the corresponding area at the actual viewpoint. In such a case, it is also preferable to synthesize based on the corresponding area from another real viewpoint.
また、前記幾何情報は、前記視点画像内の線分の長さおよび対応点であり、前記座標空間を構築するステップは、原点を定め、前記線分の長さをもとに対応点に座標を割り当てることも好ましい。 Further, the geometric information is the length of the line segment and the corresponding point in the viewpoint image, and the step of constructing the coordinate space determines the origin and coordinates the corresponding point based on the length of the line segment. Is also preferred.
また、前記幾何情報は、前記視点画像内の平行線であり、前記座標空間を構築するステップは、前記平行線が同一方向になるように各視点画像を回転させ、該視点画像の平行線上の点を距離をもとにグループ化して、同一グループ内の重心を対応点として、該対応点に座標を割り当てることも好ましい。 Further, the geometric information is parallel lines in the viewpoint image, and the step of constructing the coordinate space rotates each viewpoint image so that the parallel lines are in the same direction, and on the parallel lines of the viewpoint image It is also preferable that the points are grouped based on the distance, and the coordinates are assigned to the corresponding points with the center of gravity in the same group as the corresponding point.
また、前記平面射影行列は、前記対応点から算出されることも好ましい。 The planar projection matrix is preferably calculated from the corresponding points.
上記目的を実現するため本発明によるプログラムは、複数の視点画像から、仮想視点での画像を生成するためのコンピュータを、前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割する手段と、前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築する手段と、視点画像毎に前記移動領域の座標を算出し、該座標から前期モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成する手段と、前記背景領域の画像から、仮想視点での背景領域の画像を生成する手段と、前記生成された移動領域の画像と前記生成された背景領域の画像を合成する手段として機能させ、仮想視点での画像を生成する。 In order to achieve the above object, a program according to the present invention divides a computer for generating an image at a virtual viewpoint from a plurality of viewpoint images, and divides the plurality of viewpoint images into one or a plurality of moving areas and a background area. Means for constructing a model coordinate space based on geometric information in the plurality of viewpoint images, calculating coordinates of the moving region for each viewpoint image, and moving the movement in the previous model coordinate space from the coordinates Means for calculating the coordinates of the area and generating an image of the moving area at the virtual viewpoint based on the coordinate information; means for generating an image of the background area at the virtual viewpoint from the image of the background area; It functions as a means for synthesizing the generated moving area image and the generated background area image to generate an image at a virtual viewpoint.
本発明により,従来手法で問題となっていたオクルージョンの影響および背景差分時に生じるシルエット画像中のノイズ等の影響に対してロバストな結果を得ることができ、高精度の仮想視点画像を生成することが可能になった。 According to the present invention, it is possible to obtain a robust result with respect to the influence of occlusion, which has been a problem in the conventional method, and the influence of noise or the like in a silhouette image generated during background subtraction, and to generate a highly accurate virtual viewpoint image Became possible.
本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。図1は、本発明による仮想視点画像を構築する方法を示すフローチャートである。以下、本フローチャートに基づいて説明する。 The best mode for carrying out the present invention will be described in detail below with reference to the drawings. FIG. 1 is a flowchart illustrating a method for constructing a virtual viewpoint image according to the present invention. Hereinafter, description will be given based on this flowchart.
本発明は、カメラの強校正を前提としない、画像情報のみを用いた合成方式として、対象フィールドの幾何的情報をもとに、対象フィールドに座標空間を構築し、各カメラ画像の射影行列を推定し、移動領域の位置情報を算出し、仮想視点における射影行列により、移動領域の位置に移動領域の画像を作成することで、仮想視点の画像を高精度に生成する。 The present invention is a composition method that uses only image information and does not require strong calibration of the camera. Based on the geometric information of the target field, a coordinate space is constructed in the target field, and a projection matrix of each camera image is obtained. The position information of the moving area is estimated, the moving area image is generated at the position of the moving area by the projection matrix at the virtual viewpoint, and the image of the virtual viewpoint is generated with high accuracy.
ステップ1:複数台のカメラにより、対象フィールドの視点画像と背景画像を複数枚取得する。なお、背景画像は、移動領域が写っていない画像である。本カメラの強校正は予め行う必要はない。また、対象フィールドの幾何的情報として、対象フィールド内の線分の長さ、対応点を予め測定しておく。少なくとも、視点画像毎に4点以上の平面座標、2点以上の空間座標が分かるように測定しておく。また、対象フィールドの幾何的情報として、視点画像内に平行線が2組以上含まれるように撮影することも可能である。平行線とは、例えば、競技コートのラインである。この場合、平行線から対応点を求める。 Step 1: A plurality of viewpoint images and background images of the target field are acquired by a plurality of cameras. The background image is an image in which the moving area is not shown. Strong calibration of this camera is not necessary. Further, as geometric information of the target field, the length of the line segment in the target field and the corresponding point are measured in advance. At least, four or more plane coordinates and two or more spatial coordinates are measured for each viewpoint image. Further, as the geometric information of the target field, it is possible to photograph so that two or more sets of parallel lines are included in the viewpoint image. A parallel line is a line of a competition court, for example. In this case, the corresponding points are obtained from the parallel lines.
ステップ2:対象フィールドの視点画像を移動領域と背景領域に分割する。移動領域は、時間とともに位置や形状の変化する領域であり、対象フィールドがフットサルコートである場合、人物領域に該当する。 Step 2: The viewpoint image of the target field is divided into a movement area and a background area. The moving region is a region whose position and shape change with time, and corresponds to a person region when the target field is a futsal court.
ステップ3:視点画像間の対応点の位置を決定し、モデル座標空間を構築し、視点画像毎に平面射影行列H、焦点距離f、中心射影行列Pを算出する。 Step 3: The positions of corresponding points between viewpoint images are determined, a model coordinate space is constructed, and a planar projection matrix H, focal length f, and center projection matrix P are calculated for each viewpoint image.
本実施形態は、対応点を予め測定してないため、視点画像内に平行線から対応点を求める。図2は、本発明による対応点の位置を決定する処理を示すフローチャートである。以下、本フローチャートに基づいて説明する。 In the present embodiment, since the corresponding points are not measured in advance, the corresponding points are obtained from the parallel lines in the viewpoint image. FIG. 2 is a flowchart showing a process for determining the position of the corresponding point according to the present invention. Hereinafter, description will be given based on this flowchart.
ステップ21:消失点から焦点距離を計算する。各カメラ視点画像中の2組の平行な2直線の交点座標から消失点V1(u1,v1),V2(u2,v2)を求め、
u1u2+v1v2+f2=0
から、焦点距離fを求める。図3は、フットサルコートの縦横のラインから、消失点V1,V2算出の例を示す。
Step 21: Calculate the focal length from the vanishing point. The vanishing points V 1 (u 1 , v 1 ), V 2 (u 2 , v 2 ) are obtained from the intersection coordinates of two parallel straight lines in each camera viewpoint image,
u 1 u 2 + v 1 v 2 + f 2 = 0
From the above, the focal length f is obtained. FIG. 3 shows an example of vanishing points V 1 and V 2 calculation from vertical and horizontal lines of futsal court.
ステップ22:フィールド正面視点へ画像を変換する。基準となる方向の平行線を定め、その消失点に対し方位角θが0°、仰角φが−90°となるように回転し、コートラインが画像上で正面に来るようにし、コートが画像内に来るように平行移動する。図4は、フットサルコートの画像をフィールド平面が正面に来るように変換した画像を示す。 Step 22: Convert the image to the field front view point. A parallel line in a reference direction is determined, and the azimuth angle θ is 0 ° and the elevation angle φ is −90 ° with respect to the vanishing point so that the coat line is in front of the image. Translate to come in. FIG. 4 shows an image obtained by converting the futsal court image so that the field plane is in front.
上記方位角θ、仰角φは、基準となる消失点V1(u1,v1)と、焦点距離fから
フィールド平面を正面化する変換行列HFは、
ステップ23:直線上の対応点を距離をもとにグループ化し、対応点の位置を決定する。視点画像毎に直線上に対応点を取り、平面にマッピングする。マッピングされた対応点は、ユークリッド距離によるグループ分けされ、グループ内の点を1つの点にまとめる。最初小さな閾値から初め、その閾値内の点を1つにまとめるが、1つにまとまらない場合がある。その場合は、閾値を徐々に大きくしていき、対応点を1つにまとめ、対応点の位置を決定する。 Step 23: The corresponding points on the straight line are grouped based on the distance, and the position of the corresponding point is determined. Corresponding points are taken on a straight line for each viewpoint image and mapped to a plane. The mapped corresponding points are grouped according to the Euclidean distance, and the points in the group are combined into one point. Starting from a small threshold value, the points within the threshold value are combined into one, but may not be combined into one. In that case, the threshold value is gradually increased, the corresponding points are combined into one, and the position of the corresponding point is determined.
図5は、フットサルコートの画像内の直線上の対応点を平面にマッピングした例を示す。3本の直線上にそれぞれ7つの対応点を取った例を示している。図5a、図5b、図5c、図5dと閾値を徐々に大きくして対応点をまとめている。図5dで、直線上の対応点の位置が決定される。 FIG. 5 shows an example in which corresponding points on a straight line in the futsal court image are mapped to a plane. In this example, seven corresponding points are taken on three straight lines. Corresponding points are summarized by gradually increasing the threshold values as in FIGS. 5a, 5b, 5c, and 5d. In FIG. 5d, the position of the corresponding point on the straight line is determined.
上記のようにして、各視点画像に対応点の位置が決定され、この対応点を用いて、各視点画像に座標空間を構築し、平面射影行列H、焦点距離f、中心空間射影行列Pを求めることが可能になる。 As described above, the position of the corresponding point is determined for each viewpoint image, and using this corresponding point, a coordinate space is constructed for each viewpoint image, and the planar projection matrix H, focal length f, and central space projection matrix P are obtained. It becomes possible to ask.
平面射影行列Hは、視点画像の4つ以上の平面上の対応点、例えば、4つのコートラインの座標から算出する。焦点距離fは、視点画像の4つ以上の対応点、例えば、コートラインの頂点座標から消失点V1(u1,v1),V2(u2,v2)を求め、
u1u2+v1v2+f2=0
から求まる。中心射影行列Pは、視点画像の4つ以上の平面上の対応点、および2つ以上の空間上の対応点の位置と高さから算出する。
The planar projection matrix H is calculated from the corresponding points on four or more planes of the viewpoint image, for example, the coordinates of four coat lines. The focal length f is obtained from four or more corresponding points of the viewpoint image, for example, vanishing points V 1 (u 1 , v 1 ), V 2 (u 2 , v 2 ) from the vertex coordinates of the coat line,
u 1 u 2 + v 1 v 2 + f 2 = 0
Obtained from The central projection matrix P is calculated from the corresponding points on four or more planes of the viewpoint image and the positions and heights of the corresponding points on two or more spaces.
ステップ4:平面射影行列Hにより、各移動領域のモデル座標における床平面での座標を算出する。視点画像と背景画像を用意し、各色成分と色相で差分をとり、2値化し、移動領域(選手位置)を検出する。各移動領域をラベリングし、各移動領域の足元点を検出する。平面射影行列Hにより各移動領域の足元点を、床平面にマッピングする。 Step 4: The coordinates on the floor plane in the model coordinates of each moving region are calculated from the plane projection matrix H. A viewpoint image and a background image are prepared, a difference is obtained between each color component and hue, and binarized to detect a moving area (player position). Each moving area is labeled, and the step point of each moving area is detected. The foot point of each moving area is mapped to the floor plane by the plane projection matrix H.
図6は、フットサルコートにおける平面座標での選手位置の算出の例を示す。図6aは視点画像であり、図6bは2進化した画像であり、図6cは、選手位置をL0からL8にラベリングした図であり、図6dは、足元点を平面にマッピングした画像であり、足元点は+で示されている。 FIG. 6 shows an example of calculating the player position in the plane coordinates in the futsal court. 6a is a viewpoint image, FIG. 6b is a binarized image, FIG. 6c is a diagram in which player positions are labeled from L0 to L8, and FIG. 6d is an image in which foot points are mapped to a plane, The foot point is indicated by +.
ステップ5:全視点分のマッピング結果を用い、モデル座標上の移動領域位置を決定する。各視点からの足元位置のマッピング結果には、
・重なっているところは、一番手前の選手の位置しかマッピングできていない
・同じ選手のマッピングでもH行列の精度で微妙にずれている
・対応していないごみエリアを含んでいる
という状態を含んでいる。図7は、フットサルコートにおける平面座標での全視点分のマッピング結果の例を示す。ここで、図7aは、全視点分がマッピングされた画像である。例えば、矢印1で示されるところは、それぞれ同じ選手のずれている位置であるが、微妙にずれていることがわかる。
Step 5: The moving region position on the model coordinates is determined using the mapping results for all viewpoints. The mapping result of the foot position from each viewpoint is
・ In the overlapping area, only the position of the foremost player can be mapped. ・ The mapping of the same player is slightly deviated with the accuracy of the H matrix. It is out. FIG. 7 shows an example of mapping results for all viewpoints in the plane coordinates in the futsal court. Here, FIG. 7a is an image in which all viewpoints are mapped. For example, the position indicated by the
移動領域位置は、ユークリッド距離によるグループ分けにより、決定される。
・モデル座標上にマッピングされたn個の点P1(x1,y1,0),・・・,Pn(xn,yn,0)に対し、全ての点間でのユークリッド2乗距離
dij 2=(xi−xj)2+(yi−yj)2 (i,j=1,2,・・・,n)
を求め、
dij<閾値
である場合、点Pi(xi,yi,0)と点Pj(xj,yj,0)は同じグループに属すると判断される。逆に、
dij≧閾値
である場合、点Pi(xi,yi,0)と点Pj(xj,yj,0)は同じグループに属さないと判断される。
The moving region position is determined by grouping based on the Euclidean distance.
Euclidean 2 between all points for n points P 1 (x 1 , y 1 , 0),..., P n (x n , y n , 0) mapped on the model coordinates Riding distance d ij 2 = (x i −x j ) 2 + (y i −y j ) 2 (i, j = 1, 2,..., N)
Seeking
When d ij <threshold, it is determined that the point P i (x i , y i , 0) and the point P j (x j , y j , 0) belong to the same group. vice versa,
When d ij ≧ threshold, it is determined that the point P i (x i , y i , 0) and the point P j (x j , y j , 0) do not belong to the same group.
次に、グループ内の要素数が1の場合は、ゴミであると判断して、その点を消去する。要素数が2以上の場合は、グループ内の点の重心を求め、その点を選手の位置とする。図7bは、グループ分けにより、移動領域位置が決定された図である。矢印1で示す点は、それぞれ1つにまとめられたことがわかる。
Next, when the number of elements in the group is 1, it is determined that it is dust and the point is deleted. When the number of elements is 2 or more, the center of gravity of the point in the group is obtained, and that point is set as the player's position. FIG. 7B is a diagram in which the moving region position is determined by grouping. It can be seen that the points indicated by
ステップ6:モデル座標上の移動領域位置に長方形領域を設定し、各視点画像に射影する。床平面座標上の選手位置の座標を中心にして、選手エリアを想定する。選手エリアは長方形と仮定し、鉛直方向2m(20px)、幅1m(10px)を割り当て、向きは、各カメラ視点方向正面とする。カメラ位置と各移動領域との距離を求め、奥行き情報を得る。次に、中心射影行列Pを用いて、長方形領域を視点画像および背景画像に射影する。投影された長方形領域内に、選手領域(移動領域)が含まれている。図8は、視点画像および背景画像に射影された長方形領域を示す。 Step 6: A rectangular area is set at the moving area position on the model coordinates, and projected onto each viewpoint image. A player area is assumed centering on the coordinates of the player position on the floor plane coordinates. The player area is assumed to be rectangular, and a vertical direction of 2 m (20 px) and a width of 1 m (10 px) are assigned, and the direction is the front direction of each camera viewpoint. The distance between the camera position and each moving area is obtained to obtain depth information. Next, the rectangular region is projected onto the viewpoint image and the background image using the central projection matrix P. A player area (moving area) is included in the projected rectangular area. FIG. 8 shows a rectangular area projected on the viewpoint image and the background image.
ステップ7:長方形領域のテクスチャを切り出す。各視点に射影された長方形領域に含まれる部分を、視点画像から切り出す。背景差分により選手領域の部分以外は取り除く。視点の向き情報とともにビルボードとして、全視点分のテクスチャを集める。 Step 7: Cut out the texture of the rectangular area. A portion included in the rectangular area projected to each viewpoint is cut out from the viewpoint image. All parts except the player area are removed by background difference. Collects textures for all viewpoints as a billboard along with viewpoint direction information.
ステップ8:長方形領域の重なりを判定し、オクルージョン処理を行う。カメラ位置に対して、フィールド平面上での各選手位置とのユークリッド距離を求める。このユークリッド距離を元に重なり順をもとめる。各視点画像において長方形領域の全ての組に対して、重なり判定を行なう。他の長方形領域と重なっていてかつ手前にある場合、抜き出したテクスチャ領域に対して次の処理を行なう。
・隣の視点でオクルージョンを起こしていない場合:隣の視点の背景領域を、オクルージョンしている視点に射影する。射影した背景領域を用いて人物領域のテクスチャを抜き出す。
・隣の視点でもオクルージョンを起こしている場合:この場合、抜き出したテクスチャをそのまま利用する。
Step 8: Determine the overlap of the rectangular areas and perform an occlusion process. The Euclidean distance between each player position on the field plane is obtained with respect to the camera position. Based on this Euclidean distance, the overlapping order is obtained. Overlap determination is performed for all pairs of rectangular regions in each viewpoint image. If it overlaps with the other rectangular area and is in front, the following processing is performed on the extracted texture area.
-When the occlusion is not caused by the adjacent viewpoint: The background area of the adjacent viewpoint is projected to the occluding viewpoint. The texture of the person area is extracted using the projected background area.
-When the occlusion has occurred in the adjacent viewpoint: In this case, the extracted texture is used as it is.
ステップ9:2視点のカメラパラメータ行列と、内挿比αを用いて、仮想視点cでの空間射影行列PCを算出する。仮想視点cでの空間射影行列PCは、以下のように求められる。
・視点1、視点2の内部パラメータ行列A1,A2から仮想視点cでの内部パラメータ行列Acを求める。内部パラメータ行列A1,A2は、
·
画像中心は不変であり、仮想視点cでの焦点距離は視点1と2での焦点距離と内挿比αを用いて、次のように表せる。
fAc=(1−α)fA1+αfA2
このfAcを用いて、仮想視点cでの内部パラメータ行列Acは、
・視点1、視点2の回転行列R1,R2から仮想視点cでの回転行列Rcを求める。回転行列R1,R2に対して、方位角θ、仰角φ、チルト角τに分解する(ただし、本実施形態では水平線に対して傾いていることは想定しないのでτ=0とする)。回転行列R1,R2の方位角θ1,θ2、仰角φ1,φ2、すると、仮想視点cの方位角θc、φcは、
θc=(1−α)θ1+αθ2
φc=(1−α)φ1+αφ2
と表せる。このθc、φcとを組み合わせて、Rcが求まる。
・視点1、視点2の並進ベクトルT1,T2から仮想視点cでの並進ベクトルTcを求める。視点1、視点2、仮想視点cのモデル座標上での位置を、それぞれ
・空間射影行列Pcは、Ac、Rc、Tcから、
Pc=Ac[Rc|Tc]
で求められる。ここで、[Rc|Tc]は、3×3の行列Rcと1×3のベクトルTcを、あわせた3×4の行列である。Acとこの行列の積により、空間射影行列Pcが求まる。
The center of the image is unchanged, and the focal length at the virtual viewpoint c can be expressed as follows using the focal lengths at the
f Ac = (1-α) f A1 + αf A2
Using this f Ac , the internal parameter matrix Ac at the virtual viewpoint c is
·
θ c = (1−α) θ 1 + αθ 2
φ c = (1−α) φ 1 + αφ 2
It can be expressed. R c is obtained by combining θ c and φ c .
·
The spatial projection matrix P c is obtained from A c , R c , and T c
P c = A c [R c | T c ]
Is required. Here, [R c | T c ] is a 3 × 4 matrix including a 3 × 3 matrix R c and a 1 × 3 vector T c . A spatial projection matrix P c is obtained by the product of A c and this matrix.
ステップ10:モデル座標上の移動領域位置に長方形領域を設定し、仮想視点に射影する。床平面座標上の選手位置の座標を中心にして、選手エリアを想定する。選手エリアは長方形と仮定し、鉛直方向2m(20px)、幅1m(10px)を割り当て、向きは、各カメラ視点方向正面とする。カメラ位置と各移動領域との距離を求め、奥行き情報を得る。次に、空間射影行列Pcを用いて、長方形領域を仮想視点に射影する。 Step 10: A rectangular area is set at the moving area position on the model coordinates and projected onto the virtual viewpoint. A player area is assumed centering on the coordinates of the player position on the floor plane coordinates. The player area is assumed to be rectangular, and a vertical direction of 2 m (20 px) and a width of 1 m (10 px) are assigned, and the direction is the front direction of each camera viewpoint. The distance between the camera position and each moving area is obtained to obtain depth information. Next, the rectangular region is projected onto the virtual viewpoint using the spatial projection matrix Pc .
ステップ11:ビルボードを選択し、テクスチャマッピングを行い内挿画像を合成する。各長方形領域において、仮想視点方向に最も近い向きのビルボードを選択する。ただし、選択したビルボードがオクルージョンしている場合、オクルージョンしていない最も近い向きのビルボードを選択する。選択されたビルボードのテクスチャを仮想視点の長方形領域の大きさに合わせてマッピングし内挿画像を合成する。 Step 11: A billboard is selected, texture mapping is performed, and an interpolated image is synthesized. In each rectangular area, the billboard with the direction closest to the virtual viewpoint direction is selected. However, if the selected billboard is occluded, the closest billboard that is not occluded is selected. The texture of the selected billboard is mapped according to the size of the rectangular area of the virtual viewpoint, and the interpolated image is synthesized.
ステップ12:背景領域の画像から、仮想視点での背景領域の画像を生成する。仮想視点での背景領域の画像は、既存の手法により生成される。例えば、背景領域を遠景領域およびフィールド領域に分割して、非特許文献1に記載の方法により作成することができる。
Step 12: Generate an image of the background area at the virtual viewpoint from the image of the background area. The image of the background area at the virtual viewpoint is generated by an existing method. For example, the background area can be divided into a distant view area and a field area, and can be created by the method described in
ステップ13:生成された移動領域の画像と生成された背景領域の画像を合成し、仮想視点の画像を生成する。本合成も既存の手法により行われる。 Step 13: The generated moving area image and the generated background area image are combined to generate a virtual viewpoint image. This synthesis is also performed by existing methods.
次に本発明の効果を実際に生成された仮想視点での画像により示す。図9は、フットサルコートにおける視点1、視点2のカメラ画像と、該カメラ画像から生成された仮想視点画像の例を示す。図9aは、視点1のカメラ画像の例であり、図9bは、視点2のカメラ画像の例であり、図9cは、図9aと図9bから、従来技術により生成された仮想視点画像の例であり、図9dは、図9aと図9bから、本発明の方法により生成された仮想視点画像の例である。図9cおよび図9dは、視点1と視点2の中間(α=0.5)の仮想視点の画像である。なお、それぞれ元の画像は、1920×1080のフルHDの画像であるが、比較のため、一部を抽出している。
Next, the effect of the present invention is shown by an actually generated image at a virtual viewpoint. FIG. 9 shows an example of camera images of
図9cおよび図9dを比較すると、図9cでは、画像間の対応がとれないため、人物の画像が除去されてしまい、映っていない場合があるが、図9dでは、削除されることがない。また、人物画像同士を比較すると、図9dの方が鮮明に写っており、画像の精度が高いことが分かる。 Comparing FIG. 9c and FIG. 9d, in FIG. 9c, the correspondence between the images cannot be taken, so the human image may be removed and may not be shown, but in FIG. 9d, it is not deleted. Further, comparing human images, it can be seen that the image of FIG. 9d is clearer and the accuracy of the image is higher.
以上に述べた実施形態は、全て本発明を例示的に示すものであって、限定的に示すものではない、本発明は、他の種々の変形形態及び変更態様で実施できる。従って本発明の範囲は、特許請求の範囲及びその均等範囲によってのみ規定されるものである。 The above-described embodiments are all illustrative of the present invention and are not intended to limit the present invention, and the present invention can be implemented in various other variations and modifications. Therefore, the scope of the present invention is defined only by the claims and their equivalents.
Claims (11)
前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割するステップと、
前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築するステップと、
視点画像毎に前記移動領域の座標を算出し、該座標から前期モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成するステップと、
前記背景領域の画像から、仮想視点での背景領域の画像を生成するステップと、
前記生成された移動領域の画像と前記生成された背景領域の画像を合成するステップと、
を含むことを特徴とする仮想視点での画像を生成する方法。 A method for generating an image at a virtual viewpoint from a plurality of viewpoint images,
Dividing the plurality of viewpoint images into one or more moving regions and a background region;
Building a model coordinate space based on geometric information in the plurality of viewpoint images;
Calculating the coordinates of the moving area for each viewpoint image, calculating the coordinates of the moving area in the previous model coordinate space from the coordinates, and generating an image of the moving area at the virtual viewpoint based on the coordinate information; ,
Generating a background region image at a virtual viewpoint from the background region image;
Combining the generated image of the moving area and the generated image of the background area;
A method for generating an image at a virtual viewpoint characterized by including:
視点画像毎に、該視点画像と前記モデル座標空間との間で成立する平面射影行列を算出するサブステップと、
前記平面射影行列により、視点画像毎に前記移動領域の座標を前記モデル座標空間における床平面に射影するサブステップと、
前記射影された座標から、前記移動領域のモデル座標空間における座標を算出するサブステップと、
仮想視点において前記モデル座標空間との間で成立する空間射影行列を算出し、該空間射影行列により、前記モデル座標空間中の座標をもとに仮想視点での移動領域の画像を生成するサブステップと、
を含むことを特徴とする請求項1に記載の仮想視点での画像を生成する方法。 The step of generating an image of the moving area includes:
Substep for calculating a plane projection matrix established between the viewpoint image and the model coordinate space for each viewpoint image;
A sub-step of projecting the coordinates of the moving region to the floor plane in the model coordinate space for each viewpoint image by the plane projection matrix;
A sub-step of calculating coordinates in the model coordinate space of the moving region from the projected coordinates;
A sub-step of calculating a spatial projection matrix established between the virtual coordinate point and the model coordinate space, and generating an image of a moving region at the virtual viewpoint based on the coordinates in the model coordinate space based on the spatial projection matrix When,
The method of generating an image at a virtual viewpoint according to claim 1, comprising:
前記座標空間を構築するステップは、原点を定め、前記線分の長さをもとに対応点に座標を割り当てることを特徴とする請求項1から7のいずれか1項に記載の仮想視点での画像を生成する方法。 The geometric information is a length of a line segment in the viewpoint image and a corresponding point,
The virtual viewpoint according to any one of claims 1 to 7, wherein the step of constructing the coordinate space determines an origin and assigns coordinates to corresponding points based on a length of the line segment. How to generate images.
前記座標空間を構築するステップは、前記平行線が同一方向になるように各視点画像を回転させ、該視点画像の平行線上の点を距離をもとにグループ化して、同一グループ内の重心を対応点として、該対応点に座標を割り当てることを特徴とする請求項1から7のいずれか1項に記載の仮想視点での画像を生成する方法。 The geometric information is parallel lines in the viewpoint image,
In the step of constructing the coordinate space, each viewpoint image is rotated so that the parallel lines are in the same direction, and points on the parallel lines of the viewpoint image are grouped based on the distance, and the center of gravity in the same group is obtained. The method for generating an image at a virtual viewpoint according to claim 1, wherein coordinates are assigned to the corresponding points as corresponding points.
前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割する手段と、
前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築する手段と、
視点画像毎に前記移動領域の座標を算出し、該座標から前期モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成する手段と、
前記背景領域の画像から、仮想視点での背景領域の画像を生成する手段と、
前記生成された移動領域の画像と前記生成された背景領域の画像を合成する手段と、
して機能させ、仮想視点での画像を生成することを特徴とするプログラム。 A computer for generating an image at a virtual viewpoint from a plurality of viewpoint images,
Means for dividing the plurality of viewpoint images into one or more moving regions and a background region;
Means for constructing a model coordinate space based on geometric information in the plurality of viewpoint images;
Means for calculating coordinates of the moving area for each viewpoint image, calculating coordinates of the moving area in the previous model coordinate space from the coordinates, and generating an image of the moving area at the virtual viewpoint based on the coordinate information; ,
Means for generating an image of a background area at a virtual viewpoint from the image of the background area;
Means for synthesizing the generated image of the moving region and the image of the generated background region;
And a program for generating an image at a virtual viewpoint.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010032136A JP5366258B2 (en) | 2010-02-17 | 2010-02-17 | Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010032136A JP5366258B2 (en) | 2010-02-17 | 2010-02-17 | Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011170487A true JP2011170487A (en) | 2011-09-01 |
JP5366258B2 JP5366258B2 (en) | 2013-12-11 |
Family
ID=44684572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010032136A Active JP5366258B2 (en) | 2010-02-17 | 2010-02-17 | Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5366258B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058132A (en) * | 2011-09-09 | 2013-03-28 | Kddi Corp | Subject three-dimensional region estimation method and program |
JP2015114716A (en) * | 2013-12-09 | 2015-06-22 | シャープ株式会社 | Image data reproducing apparatus and image data generation apparatus |
JP2016126425A (en) * | 2014-12-26 | 2016-07-11 | Kddi株式会社 | Free viewpoint image generation device, method and program |
JP2017097800A (en) * | 2015-11-27 | 2017-06-01 | 日本電信電話株式会社 | Image processing device, image processing method, and computer program |
JP2017156880A (en) * | 2016-02-29 | 2017-09-07 | Kddi株式会社 | Image processing device and image processing method |
JP2018026064A (en) * | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | Image processor, image processing method, system |
JP2018125642A (en) * | 2017-01-31 | 2018-08-09 | Kddi株式会社 | Region extraction device and program |
JP2020046944A (en) * | 2018-09-19 | 2020-03-26 | キヤノン株式会社 | Image processing apparatus, control method, and program |
JP7395189B2 (en) | 2018-11-22 | 2023-12-11 | 国立大学法人 東京大学 | Motion capture camera system and calibration method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009539155A (en) * | 2006-06-02 | 2009-11-12 | イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ | Method and system for generating a 3D representation of a dynamically changing 3D scene |
-
2010
- 2010-02-17 JP JP2010032136A patent/JP5366258B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009539155A (en) * | 2006-06-02 | 2009-11-12 | イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ | Method and system for generating a 3D representation of a dynamically changing 3D scene |
Non-Patent Citations (8)
Title |
---|
CSNG200401785011; 古山孝好,外2名: '"仮想化現実技術を用いた大規模空間自由視点映像のライブ配信と提示"' 電子情報通信学会技術研究報告 Vol.103,No.96, 2003, p.61-66, 社団法人電子情報通信学会 * |
CSNG200600144005; 有澤博,外1名: '"多視点カメラを用いたスポーツ映像からの被写体情報抽出"' 電子情報通信学会技術研究報告 Vol.105,No.415, 2005, p.27-32, 社団法人電子情報通信学会 * |
CSNG200600724022; 林邦彦,外1名: '"多視点サッカー映像からの自由視点映像生成"' 情報処理学会研究報告 Vol.2006,No.51, 2006, p.173-180, 社団法人情報処理学会 * |
CSNG200801034019; 榎本暁人,外1名: '"フィールドパターンを用いたカメラトラッキングに基づく多視点スポーツ映像の拡張現実感表示"' 電子情報通信学会技術研究報告 Vol.108,No.363, 2008, p.111-116, 社団法人電子情報通信学会 * |
JPN6013026924; 林邦彦,外1名: '"多視点サッカー映像からの自由視点映像生成"' 情報処理学会研究報告 Vol.2006,No.51, 2006, p.173-180, 社団法人情報処理学会 * |
JPN6013026927; 榎本暁人,外1名: '"フィールドパターンを用いたカメラトラッキングに基づく多視点スポーツ映像の拡張現実感表示"' 電子情報通信学会技術研究報告 Vol.108,No.363, 2008, p.111-116, 社団法人電子情報通信学会 * |
JPN6013026930; 古山孝好,外2名: '"仮想化現実技術を用いた大規模空間自由視点映像のライブ配信と提示"' 電子情報通信学会技術研究報告 Vol.103,No.96, 2003, p.61-66, 社団法人電子情報通信学会 * |
JPN6013026934; 有澤博,外1名: '"多視点カメラを用いたスポーツ映像からの被写体情報抽出"' 電子情報通信学会技術研究報告 Vol.105,No.415, 2005, p.27-32, 社団法人電子情報通信学会 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058132A (en) * | 2011-09-09 | 2013-03-28 | Kddi Corp | Subject three-dimensional region estimation method and program |
JP2015114716A (en) * | 2013-12-09 | 2015-06-22 | シャープ株式会社 | Image data reproducing apparatus and image data generation apparatus |
JP2016126425A (en) * | 2014-12-26 | 2016-07-11 | Kddi株式会社 | Free viewpoint image generation device, method and program |
JP2017097800A (en) * | 2015-11-27 | 2017-06-01 | 日本電信電話株式会社 | Image processing device, image processing method, and computer program |
JP2017156880A (en) * | 2016-02-29 | 2017-09-07 | Kddi株式会社 | Image processing device and image processing method |
JP2018026064A (en) * | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | Image processor, image processing method, system |
EP3285484A1 (en) | 2016-08-12 | 2018-02-21 | Canon Kabushiki Kaisha | Image processing apparatus, image generation method, and program |
US10244163B2 (en) | 2016-08-12 | 2019-03-26 | Canon Kabushiki Kaisha | Image processing apparatus that generates a virtual viewpoint image, image generation method, and non-transitory computer-readable storage medium |
JP2018125642A (en) * | 2017-01-31 | 2018-08-09 | Kddi株式会社 | Region extraction device and program |
JP2020046944A (en) * | 2018-09-19 | 2020-03-26 | キヤノン株式会社 | Image processing apparatus, control method, and program |
JP7395189B2 (en) | 2018-11-22 | 2023-12-11 | 国立大学法人 東京大学 | Motion capture camera system and calibration method |
Also Published As
Publication number | Publication date |
---|---|
JP5366258B2 (en) | 2013-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5366258B2 (en) | Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement | |
JP5011168B2 (en) | Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program | |
US9117310B2 (en) | Virtual camera system | |
US8447099B2 (en) | Forming 3D models using two images | |
US11348267B2 (en) | Method and apparatus for generating a three-dimensional model | |
US20130095920A1 (en) | Generating free viewpoint video using stereo imaging | |
JP6818606B2 (en) | Free-viewpoint image generation and display methods, devices and programs | |
JP2016537901A (en) | Light field processing method | |
JP2012185772A (en) | Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera | |
CN110490967A (en) | Image procossing and object-oriented modeling method and equipment, image processing apparatus and medium | |
Poullis et al. | 3d reconstruction of urban areas | |
WO2020075252A1 (en) | Information processing device, program, and information processing method | |
Starck et al. | Virtual view synthesis of people from multiple view video sequences | |
JP2016071645A (en) | Object three-dimensional model restoration method, device, and program | |
JP4354708B2 (en) | Multi-view camera system | |
JP5373931B2 (en) | Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, and virtual viewpoint image generation program | |
JP5422538B2 (en) | Image processing apparatus, display apparatus, method and program thereof | |
Yaguchi et al. | Arbitrary viewpoint video synthesis from multiple uncalibrated cameras | |
JP5667846B2 (en) | Object image determination device | |
Grammatikopoulos et al. | Automatic multi-image photo-texturing of 3d surface models obtained with laser scanning | |
JP2003271928A (en) | Three-dimensional modeling device, and method and program thereof | |
JP2013069026A (en) | Device, method, and program for restoring three-dimensional shape of subject | |
Graciá et al. | A system for real-time multi-view 3d reconstruction | |
JP6595878B2 (en) | Element image group generation apparatus and program thereof | |
JP2004013869A (en) | Apparatus for generating three-dimensional shape, method therefor, and its program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120816 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130408 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130509 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130605 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5366258 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |