JP6501348B2 - Free-viewpoint image generation device, method and program - Google Patents

Free-viewpoint image generation device, method and program Download PDF

Info

Publication number
JP6501348B2
JP6501348B2 JP2014265133A JP2014265133A JP6501348B2 JP 6501348 B2 JP6501348 B2 JP 6501348B2 JP 2014265133 A JP2014265133 A JP 2014265133A JP 2014265133 A JP2014265133 A JP 2014265133A JP 6501348 B2 JP6501348 B2 JP 6501348B2
Authority
JP
Japan
Prior art keywords
image
dimensional
camera
viewpoint image
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014265133A
Other languages
Japanese (ja)
Other versions
JP2016126425A (en
Inventor
栄 徐
栄 徐
内藤 整
整 内藤
浩嗣 三功
浩嗣 三功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014265133A priority Critical patent/JP6501348B2/en
Publication of JP2016126425A publication Critical patent/JP2016126425A/en
Application granted granted Critical
Publication of JP6501348B2 publication Critical patent/JP6501348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Description

本発明は、自由視点画像生成装置、方法およびプログラムに関し、特に、間隔を置いて配置された複数台のカメラで撮影されたオブジェクトのカメラ画像から任意の仮想視点での自由視点画像を生成する自由視点画像生成装置、方法およびプログラムに関する。   The present invention relates to a free viewpoint image generating apparatus, method, and program, and in particular, a free viewpoint image at an arbitrary virtual viewpoint from camera images of objects captured by a plurality of cameras arranged at intervals. The present invention relates to a viewpoint image generation device, method, and program.

複数の異なる視点でオブジェクトを撮影することにより取得されたカメラ画像から任意の仮想視点での自由視点画像を生成する手法として、内挿補間技術とモデルベースレンダリング(Model-Based Rendering, MBR)が知られている。   Interpolation technology and model-based rendering (MBR) are known as a method of generating a free viewpoint image at an arbitrary virtual viewpoint from a camera image acquired by capturing an object at a plurality of different viewpoints. It is done.

特許文献1−3および非特許文献1には、内挿補間技術による自由視点画像生成の手法が開示されている。内挿補間技術による自由視点画像生成では、異なる視点でオブジェクトを撮影することにより取得された2枚のカメラ画像から線形補間を用いて仮想視点での自由視点画像を生成する。   Patent Literature 1-3 and Non-Patent Literature 1 disclose a method of free viewpoint image generation by an interpolation technique. In free viewpoint image generation by the interpolation technique, a free viewpoint image in a virtual viewpoint is generated using linear interpolation from two camera images acquired by capturing an object from different viewpoints.

特許文献4および非特許文献2,3には、モデルベースレンダリングによる自由視点画像生成の手法が開示されている。モデルベースレンダリングによる自由視点画像の生成では、多くの視点でオブジェクトを撮影することにより取得された多くのカメラ画像から、ポリゴンやボクセルを用いてオブジェクトの幾何学的な3次元モデル(以下では、「次元」を「D」と記す)を生成し、この3Dモデルに対して仮想視点に対応した射影変換を施すことにより該仮想視点での自由視点画像を生成する。   Patent Document 4 and Non-Patent Documents 2 and 3 disclose methods of free viewpoint image generation by model-based rendering. In the generation of free viewpoint images by model-based rendering, geometric 3D models of objects using polygons and voxels from many camera images acquired by shooting the objects from many viewpoints (in the following A dimension “is described as“ D ”), and the 3D model is subjected to projective transformation corresponding to the virtual viewpoint to generate a free viewpoint image in the virtual viewpoint.

特開2010−282295号公報JP, 2010-282295, A 特開2006−65862号公報Unexamined-Japanese-Patent No. 2006-65862 特開2004−297734号公報JP 2004-297734 A 特開2012−128884号公報JP 2012-128884 A

Seitz, S. M., & Dyer, C. R. (1996). "View Morphing", In Siggraph 1996 Conference Proceedings, Annual Conference Series, pp. 21-30.Seitz, S. M., & Dyer, C. R. (1996). "View Morphing", In Siggraph 1996 Conference Proceedings, Annual Conference Series, pp. 21-30. Shum, Heung-yeung, and Sing Bing Kang. "A survey of image-based rendering techniques". In Videometrics, SPIE. 1999.Shum, Heung-yeung, and Sing Bing Kang. "A survey of image-based rendering techniques". In Videometrics, SPIE. 1999. Chai, Jin-Xiang, et al. "Plenoptic sampling". Proceedings of the 27th annual conference on Computer graphics and interactive techniques, ACM Press/Addison-Wesley Publishing Co., pp.307-318 2000.Chai, Jin-Xiang, et al. "Plenoptic sampling". Proceedings of the 27th annual conference on computer graphics and interactive techniques, ACM Press / Addison-Wesley Publishing Co., pp. 307-318 2000.

しかしながら、内挿補間技術による自由視点画像生成では、異なる視点で同一のオブジェクトを撮影して取得された2枚のカメラ画像から線形補間により仮想視点での自由視点画像を生成するので、カメラの配置位置の間隔が広くなると、生成される自由視点画像の画質が低下するという課題がある。すなわち、疎な間隔で配置されたカメラで撮影されたオブジェクトのカメラ画像から内挿補間技術によって仮想視点での自由視点画像を生成した場合、十分な画質を確保し難いという課題がある。また、仮想視点が移動した場合に、それに応じて自由視点画像が滑らかに変化しないという課題がある。   However, in free viewpoint image generation by the interpolation technique, since the free viewpoint image in the virtual viewpoint is generated by linear interpolation from two camera images acquired by capturing the same object from different viewpoints, the camera arrangement There is a problem that the image quality of the generated free viewpoint image is degraded when the interval of positions becomes wide. That is, there is a problem in that it is difficult to secure sufficient image quality when a free viewpoint image in a virtual viewpoint is generated by an interpolation technique from camera images of objects captured by cameras arranged at sparse intervals. In addition, there is a problem that when the virtual viewpoint moves, the free viewpoint image does not change smoothly in response to the movement.

一方、モデルベースレンダリングによる自由視点画像生成では、3Dモデルを生成するのに多くのカメラ画像が必要であり、疎な間隔で配置されたカメラで撮影されたオブジェクトのカメラ画像から仮想視点での自由視点画像を生成するのに適さない。また、3Dモデルを生成するのに多くのカメラ画像を扱うので、計算コストが増大するという課題がある。   On the other hand, in free-viewpoint image generation by model-based rendering, a large number of camera images are required to generate a 3D model, and free-view images of objects taken by cameras arranged at sparse intervals can be used in a virtual viewpoint Not suitable for generating viewpoint images. In addition, since a large number of camera images are handled to generate a 3D model, there is a problem that computational cost increases.

本発明の目的は、モデルベースレンダリングによる自由視点画像生成のように多くのカメラ画像を必要とせず、間隔を置いて配置された複数台のカメラで撮影されたオブジェクトのカメラ画像から任意の仮想視点での自由視点画像を滑らかに生成できる自由視点画像生成装置、方法およびプログラムを提供することにある。   An object of the present invention is to provide an arbitrary virtual viewpoint from camera images of objects taken by a plurality of cameras arranged at intervals, without requiring a large number of camera images as in free-viewpoint image generation by model-based rendering It is an object of the present invention to provide a free viewpoint image generation apparatus, method and program capable of generating a free viewpoint image smoothly.

上記課題を解決するため、本発明は、間隔を置いて固定配置された複数台のカメラで撮影されたオブジェクトのカメラ画像から任意の仮想視点での自由視点画像を生成する自由視点画像生成装置であって、各カメラ画像からオブジェクト2次元情報を抽出するオブジェクト2次元情報抽出手段と、前記オブジェクト2次元情報抽出手段により抽出されたオブジェクト2次元情報と予めキャリブレーションを行うことで各カメラのパラメータと3次元座標系の各点と2次元座標系の各点との間の関係から求められた各カメラのパラメータを用いてオブジェクト3次元情報を抽出するオブジェクト3次元情報抽出手段であって、複数枚のカメラ画像のうち1つのカメラ画像を参照画像として該参照画像のオブジェクト領域の特徴点を抽出し、該参照画像以外のカメラ画像それぞれのオブジェクト領域における、前記参照画像の特徴点とマッチングする特徴点を抽出し、これらの特徴点の位置と前記各カメラのパラメータからオブジェクトの3次元点群を生成し、該3次元点群からオブジェクトの3次元輪郭および3次元骨格を前記オブジェクト3次元情報として生成するオブジェクト3次元情報抽出手段と、前記オブジェクト3次元情報抽出手段により抽出されたオブジェクト3次元情報から3次元オブジェクトの各部位のサイズに関するパラメータおよび変形に関するパラメータを推定し、該パラメータに従って、予め設定された調整可能3次元オブジェクトテンプレートモデルのサイズを調整し、変形させる3次元オブジェクトテンプレートモデル調整手段と、前記3次元オブジェクトテンプレートモデル調整手段により調整され、変形された3次元オブジェクトテンプレートモデルに対して任意の仮想視点に対応した射影変換を施すことにより該仮想視点での自由視点画像を生成する射影変換手段を備えた点に第1の特徴がある。
In order to solve the above problems, the present invention relates to a free viewpoint image generating device that generates a free viewpoint image at an arbitrary virtual viewpoint from camera images of objects captured by a plurality of cameras fixedly arranged at intervals. Object two-dimensional information extraction means for extracting object two-dimensional information from each camera image, and calibration of the object two-dimensional information extracted by the object two-dimensional information extraction means in advance with parameters of each camera and each point of the three-dimensional coordinate system and a object 3-dimensional information extracting means for extracting the object 3-dimensional information using the parameters of each camera obtained from the relationship between each point in the two-dimensional coordinate system, a plurality Feature points of the object region of the reference image as the reference image, Extract feature points matching the feature points of the reference image in the object area of each camera image other than the image, and generate the three-dimensional point group of the object from the positions of these feature points and the parameters of each camera Object three-dimensional information extraction means for generating a three-dimensional outline and three-dimensional skeleton of an object from the three-dimensional point group as the object three-dimensional information, and a three-dimensional object from the object three-dimensional information extracted by the object three-dimensional information extraction means estimating the parameters relating to the parameters and modifications relating to the size of each part of, according to the parameter, and adjust the size of preset adjustable 3D object template model, the three-dimensional object template model adjustment means for deforming the three-dimensional object Conditioned by preparative template model adjustment means, with a projective transformation means for generating a free-viewpoint images in the virtual viewpoint by performing projective transformation corresponding to an arbitrary virtual viewpoint with respect to the deformed three-dimensional object template model The point has the first feature.

また、前記調整可能3Dオブジェクトテンプレートモデルでは、オブジェクトの表面、内部骨格および節点が定義され、また、オブジェクトの各部位のサイズに関するパラメータおよび変形に関するパラメータが定義されている点に第2の特徴がある。   In addition, in the adjustable 3D object template model, there is a second feature in that the surface, internal skeleton and nodes of the object are defined, and parameters related to the size of each part of the object and parameters related to deformation are defined. .

また、オブジェクトが人物であり、前記オブジェクトの各部位のサイズに関するパラメータは、人体の身長、脂肪率およびウエスト・ヒップ比を含む点に第3の特徴がある。   An object is a person, and the parameter regarding the size of each part of the object has a third feature in that it includes the height, fat percentage and waist-hip ratio of the human body.

また、オブジェクトが人物であり、前記オブジェクトの変形に関するパラメータは、人体の各部位間の18個の節点の位置を含む点に第4の特徴がある。   An object is a person, and the parameter relating to the deformation of the object has a fourth feature in that it includes the positions of 18 nodes between parts of the human body.

また、前記各カメラのパラメータが、各カメラでチェスボードを撮影して取得されるチェスボードパターン画像における各マスのコーナーを検出することで推定された内部パラメータおよび外部パラメータを含む点に第5の特徴がある。   Further, the fifth aspect of the invention is that the parameters of each camera include internal parameters and external parameters estimated by detecting corners of respective squares in a chessboard pattern image acquired by photographing the chessboard with each camera. There is a feature.

また、前記オブジェクト2D情報抽出手段が、各カメラ画像から大凡のオブジェクト領域を背景差分法で抽出してから正確なオブジェクト領域を抽出する点に第6の特徴がある。   A sixth feature is that the object 2D information extraction means extracts an approximate object area from each camera image by the background subtraction method and then extracts an accurate object area.

また、前記3Dオブジェクトテンプレートモデル調整手段が、前記オブジェクト3D情報抽出手段により抽出されたオブジェクト3D情報からオブジェクトの身長を推定し、また、3D形状における各部位周りから脂肪率およびウエスト・ヒップ比を推定し、これらにより前記調整可能3Dオブジェクトテンプレートモデルで定義されているサイズに関するパラメータの値を調整する点に第の特徴がある。
Further, the 3D object template model adjusting means estimates the height of the object from the object 3D information extracted by the object 3D information extracting means, and estimates the fat ratio and the waist-hip ratio from around each part in the 3D shape. There is a seventh feature in that they adjust the value of the parameter related to the size defined by the adjustable 3D object template model.

また、前記3Dオブジェクトテンプレートモデル調整手段が、前記オブジェクト3D情報抽出手段により抽出されたオブジェクト3D情報から人体の各部位間の18個の節点を検出してその位置を検出し、これにより前記調整可能3Dオブジェクトテンプレートモデルで定義されている変形に関するパラメータの値を調整する点に第の特徴がある。
Further, the 3D object template model adjusting means detects 18 nodes between parts of the human body from the object 3D information extracted by the object 3D information extracting means, detects the positions thereof, and thereby the adjustment is possible. An eighth feature lies in adjusting values of parameters related to deformation defined in the 3D object template model.

また、前記射影変換手段が、任意の仮想視点を指定し、前記3Dオブジェクトテンプレートモデル調整手段により調整された3Dオブジェクトテンプレートモデルを該仮想視点からみたときのカメラ画像に射影変換する点に第の特徴がある。
Moreover, the projective transformation means, specify any of the virtual viewpoint, the 3D and 3D object template model adjusted by the object template model adjustment means in terms of projective transformation on the camera image when viewed from the virtual viewpoint of the 9 There is a feature.

また、さらに、前記射影変換手段により生成された自由視点画像に着色を施す着色手段を備えた点に第10の特徴がある。
A tenth feature is that the image forming apparatus further comprises coloring means for coloring the free viewpoint image generated by the projection conversion means.

また、さらに、前記射影変換手段により生成された自由視点画像に背景画像を合成して合成画像を生成する背景画像合成手段を備えた点に第11の特徴がある。
An eleventh feature is that a background image combining unit is further provided which combines the background image with the free viewpoint image generated by the projective transformation unit to generate a composite image.

また、上記第11の特徴を有する自由視点画像生成装置を備え、さらに、任意の仮想視点の両側のカメラで取得された2枚のカメラ画像を用いて内挿補間技術で自由視点画像を生成する自由視点画像生成装置と、該自由視点画像生成装置で生成された自由視点画像と上記第11の特徴を有する自由視点画像生成装置で生成された自由視点画像の画質を評価する評価手段を備え、前記評価手段での評価が高い方の自由視点画像を出力する点に第12の特徴がある。
In addition, the free viewpoint image generating device having the eleventh feature is provided, and further, a free viewpoint image is generated by an interpolation technique using two camera images acquired by cameras on both sides of an arbitrary virtual viewpoint. comprising an evaluation means for evaluating a free-viewpoint image generating apparatus, the image quality of the free viewpoint free viewpoint image generated by the image generation device and the first 11 free-view image created by the free viewpoint image generating device having the features of, A twelfth feature lies in that a free viewpoint image of the higher evaluation by the evaluation means is output.

さらに、前記評価手段が、自由視点画像のパワースペクトルを解析して各自由視点画像の画質を評価する点に第13の特徴がある。
A thirteenth feature of the present invention is that the evaluation means analyzes the power spectrum of the free viewpoint image to evaluate the image quality of each free viewpoint image.

なお、本発明は、自由視点画像生成装置としてだけでなく、各手段での処理をステップとした自由視点画像生成方法としても実現でき、また、コンピュータを各手段として機能させるプログラムとしても実現できる。   The present invention can be realized not only as a free-viewpoint image generation device but also as a free-viewpoint image generation method in which processing in each means is taken as a step, and also as a program that causes a computer to function as each means.

本発明によれば、疎な間隔で配置されたカメラで撮影されたオブジェクトのカメラ画像からでも任意の仮想視点での自由視点画像を高画質で生成でき、また、仮想視点が移動した場合でも、それに応じて滑らかに変化する自由視点画像を生成できる。さらに、多くのカメラ画像を必要としないので、処理コストを低減できる。   According to the present invention, it is possible to generate a free viewpoint image at an arbitrary virtual viewpoint with high image quality even from camera images of objects taken by cameras arranged at sparse intervals, and even when the virtual viewpoint moves, Accordingly, it is possible to generate a free viewpoint image which changes smoothly. Furthermore, processing costs can be reduced because a large number of camera images are not required.

本発明に係る自由視点画像生成装置の第1の実施形態を示す機能ブロック図である。It is a functional block diagram showing a 1st embodiment of a free viewpoint image generation device concerning the present invention. カメラのパラメータの推定に利用されるチェスボードパターン画像の例を示す図である。It is a figure which shows the example of the chessboard pattern image utilized for estimation of the parameter of a camera. カメラのパラメータの推定での、世界座標(3D座標)系とカメラ座標(2D座標)系と画像座標(2D座標)系の座標変換の様子を示す図である。It is a figure which shows the mode of coordinate transformation of the world coordinate (3D coordinate) system, a camera coordinate (2D coordinate) system, and an image coordinate (2D coordinate) system in estimation of the parameter of a camera. 調整可能3Dオブジェクトテンプレートモデルの設定の説明図である。It is explanatory drawing of the setting of an adjustable 3D object template model. オブジェクト2D情報抽出手段での処理の説明図である。It is an explanatory view of processing in object 2D information extraction means. オブジェクト3D情報生成手段での処理の説明図である。It is an explanatory view of processing in object 3D information generation means. 射影変換手段での処理の説明図である。It is explanatory drawing of the process in a projective transformation means. 調整済3Dオブジェクトテンプレートモデルの3D位置と投影面における投影点の関係を示す図である。It is a figure which shows the relationship between the 3D position of the adjusted 3D object template model, and the projection point in a projection surface. 着色手段での処理の説明図である。It is explanatory drawing of the process by a coloring means. 本発明に係る自由視点画像生成装置の第2の実施形態を示す機能ブロック図である。It is a functional block diagram showing a 2nd embodiment of the free viewpoint picture generation device concerning the present invention. 内挿補間技術による自由視点画像生成の説明図である。It is explanatory drawing of free viewpoint image generation by the interpolation technique.

以下、図面を参照して本発明を説明する。   Hereinafter, the present invention will be described with reference to the drawings.

本発明は、間隔を置いて配置された複数台の固定カメラ(以下、単に「カメラ」と称する)でオブジェクトを撮影して取得された複数枚のカメラ画像から任意の仮想視点での自由視点画像を生成するものであり、特に、スポーツ映像の画像中の人物(選手)をオブジェクトとして自由視点画像を生成するのに好適なものである。しかし、スポーツ映像の画像や人物に限らず、他の画像や他のオブジェクト、例えば動物をオブジェクトとすることもできる。   The present invention is a free viewpoint image in an arbitrary virtual viewpoint from a plurality of camera images acquired by capturing an object with a plurality of fixed cameras (hereinafter, simply referred to as "cameras") arranged at intervals. In particular, it is suitable for generating a free viewpoint image with a person (player) in a sport video image as an object. However, it is also possible to use other images or other objects, for example, animals as objects, in addition to the images of sports videos and people.

図1は、本発明に係る自由視点画像生成装置の第1の実施形態を示す機能ブロック図である。   FIG. 1 is a functional block diagram showing a first embodiment of a free viewpoint image generation apparatus according to the present invention.

本実施形態の自由視点画像生成装置は、オブジェクト2D情報抽出手段11、オブジェクト3D情報生成手段12、3Dオブジェクトテンプレートモデル調整手段13、射影変換手段14、着色手段15および背景合成手段16を備える。なお、各手段は、1つあるいは複数のプロセッサ内にソフトウエアで構成されたものであってもよい。   The free viewpoint image generation device of this embodiment includes an object 2D information extraction unit 11, an object 3D information generation unit 12, a 3D object template model adjustment unit 13, a projection conversion unit 14, a coloring unit 15, and a background synthesis unit 16. Each means may be configured by software in one or more processors.

オブジェクト2D情報抽出手段11は、間隔を置いて配置された複数台のカメラでオブジェクトをフィールドなどの現場で実際に撮影して得られた複数枚のカメラ画像(原カメラ画像)を入力とし、各カメラ画像におけるオブジェクトの2D位置、輪郭およびテクスチャをオブジェクト2D情報として抽出する。なお、カメラ画像は、モデルベースレンダリングによる自由視点画像生成ほど多く必要とせず、例えば、2〜3枚でよい。   The object 2D information extraction means 11 takes as input a plurality of camera images (original camera images) obtained by actually photographing an object in a field such as a field with a plurality of cameras arranged at intervals. The 2D position, outline and texture of the object in the camera image are extracted as object 2D information. The number of camera images is not as large as that of free viewpoint image generation by model-based rendering, and may be two to three, for example.

オブジェクト3D情報生成手段12は、オブジェクト2D情報抽出手段11で抽出されたオブジェクト2D情報と原カメラ画像を取得した各カメラのパラメータを入力としてオブジェクト3D情報を生成する。   The object 3D information generation unit 12 generates object 3D information using the object 2D information extracted by the object 2D information extraction unit 11 and the parameters of each camera that acquired the original camera image as input.

3Dオブジェクトテンプレートモデル調整手段13は、予めオフラインで設定された調整可能3Dオブジェクトテンプレートモデルと、オブジェクト3D情報生成手段12で生成されたオブジェクト3D情報を入力とし、調整可能3Dオブジェクトテンプレートモデルをオブジェクト3D情報により調整して調整済3Dオブジェクトテンプレートモデルを生成する。   The 3D object template model adjusting means 13 receives the adjustable 3D object template model set in advance offline and the object 3D information generated by the object 3D information generating means 12 as input, and the adjustable 3D object template model is an object 3D information Adjust according to to generate an adjusted 3D object template model.

射影変換手段14は、3Dオブジェクトテンプレートモデル調整手段14で生成された調整済3Dオブジェクトテンプレートモデルに対し、任意に指定された仮想視点に対応した射影変換を施すことにより、該仮想視点でのオブジェクト2D画像を生成する。   The projective transformation unit 14 performs projective transformation corresponding to an arbitrarily specified virtual viewpoint on the adjusted 3D object template model generated by the 3D object template model adjustment unit 14 to obtain an object 2D in the virtual viewpoint. Generate an image.

着色手段15は、射影変換手段14で生成されたオブジェクト2D画像に着色を施す。   The coloring unit 15 colors the object 2D image generated by the projective transformation unit 14.

背景合成手段16は、着色手段15により着色されたオブジェクト2D画像を2D背景画像に合成し、1枚の2D画像を生成する。   The background combining means 16 combines an object 2D image colored by the coloring means 15 with a 2D background image to generate one 2D image.

以下では、オブジェクトが人物であるとして、各手段における処理について詳細に説明する。   In the following, assuming that the object is a person, processing in each means will be described in detail.

オブジェクト3D情報生成手段12は、前もってオフラインで推定された各カメラのパラメータを入力とし、3Dオブジェクトテンプレートモデル調整手段13は、予めオフラインで設定された調整可能3Dオブジェクトテンプレートモデルを入力とするので、まず、それらについて説明する。
(カメラのパラメータ)
The object 3D information generating means 12 receives as input the parameters of each camera estimated offline in advance, and the 3D object template model adjusting means 13 accepts as input the adjustable 3D object template model set in advance offline. , To explain them.
(Camera parameters)

各カメラのパラメータは、オブジェクト3D情報生成手段12がオブジェクト3D情報を生成するために必要なものであり、原カメラ画像を取得する現場に各カメラを固定配置した状態でキャリブレーションを実行することにより推定される。例えば、スポーツ映像の場合、実際に人物(選手)を撮影する現場にカメラを固定配置した状態でキャリブレーションを実行する。   The parameters of each camera are necessary for the object 3D information generating means 12 to generate the object 3D information, and calibration is performed in a state where each camera is fixedly arranged at the site where the original camera image is to be acquired. Presumed. For example, in the case of sports video, calibration is performed in a state where a camera is fixedly arranged at a site where a person (player) is actually photographed.

カメラのキャリブレーションには、例えば、チェスボードパターンを利用できる。以下では、この場合を例にして説明する。   For example, a chessboard pattern can be used for camera calibration. In the following, this case will be described as an example.

図2は、カメラのキャリブレーションに利用するチェスボードパターン画像の例であり、この場合のカメラのパラメータの推定の手順は、例えば、以下の(1)〜(5)のとおりである。   FIG. 2 shows an example of a chessboard pattern image used for camera calibration. The procedure of estimating camera parameters in this case is, for example, as shown in (1) to (5) below.

(1)前もって各カメラでチェスボードを撮影し、図2(1)のようなチェスボードパターン画像をチェスボードパターン画像の原本として用意しておく。このチェスボードパターン画像の原本は、カメラにチェスボードを正対させて撮影することにより取得することができる。   (1) Photograph a chess board with each camera in advance, and prepare a chess board pattern image as shown in FIG. 2 (1) as an original copy of the chess board pattern image. The original copy of the chessboard pattern image can be obtained by photographing the chessboard with the camera facing directly.

(2)カメラの前に配置したチェスボードを撮影することによりチェスボードパターン画像を取得する。これにより取得されたチェスボードパターン画像は、チェスボードに対するカメラの向きにより、上記(1)のチェスボードパターン画像の原本とは異なる。図2(2)は、カメラにより取得されたチェスボードパターン画像の例を示す。   (2) A chessboard pattern image is acquired by photographing a chessboard placed in front of the camera. The chessboard pattern image acquired by this differs from the original of the chessboard pattern image of said (1) by the orientation of the camera with respect to a chessboard. FIG. 2 (2) shows an example of a chessboard pattern image acquired by a camera.

(3)上記(1)で予め用意されたチェスボードパターン画像の原本を利用して3D座標を設定し、それを世界座標系とする。例えば、上記(1)で予め用意されたチェスボードパターン画像の原本(図2(1))の矩形(黒色部分)を検出し、そのうち斜めに隣接する矩形の数が1つだけの矩形を検出する。そして、その矩形が他の矩形に隣接するコーナーを最初の点として検出し、コマ内側の全てのコーナーを検出する。図2(1)のチェスボードパターン画像の原本では、左上のコーナーが最初の点(A)として検出され、コマ内側のコーナーは、全体で7*10(7行10列)個だけ存在するので、1枚のチェスボードパターン画像につき最初の点(A)から最後の点までの70個のコーナーが検出される。なお、「*」は乗算を意味する(以下、同じ)。そして、最初の点(A)を3D座標(世界座標)系の原点として設定し、他のコーナーのX値,Y値には、パターンのマス(矩形)のサイズおよび個数に従って算出した値を代入する。また、Z値には、全て0または1を代入する。   (3) A 3D coordinate is set using the original copy of the chessboard pattern image prepared in advance in (1) above, and this is set as a world coordinate system. For example, a rectangle (black portion) of the original (FIG. 2 (1)) of the chessboard pattern image prepared in advance in (1) above is detected, and a rectangle in which the number of diagonally adjacent rectangles is only one is detected Do. Then, the corner that is adjacent to the other rectangle is detected as the first point, and all the corners inside the frame are detected. In the original chessboard pattern image shown in FIG. 2 (1), the upper left corner is detected as the first point (A), and there are 7 * 10 (7 rows and 10 columns) in total of the corners inside the frame. 70 corners from the first point (A) to the last point are detected in one chessboard pattern image. "*" Means multiplication (the same applies hereinafter). Then, the first point (A) is set as the origin of the 3D coordinate (world coordinate) system, and values calculated according to the size and number of pattern squares (rectangles) are substituted for the X and Y values of the other corners. Do. Also, 0 or 1 is substituted for all the Z values.

(4)上記(3)と同様に、上記(2)で取得されたチェスボードパターン画像(図2(2))についても、コマ内側のコーナーを検出し、1枚のチェスボードパターン画像につき最初の点(A)から最後の点までの70個のコーナーを検出する。これにより検出されたコーナーの位置を画像座標(2D座標)系の位置(u,v)とする。図2(2)には、最初の点(A)から最後の点までコーナーが検出される様子も図示している。これらのコーナーは、例えば、http://opencv.jp/sample/camera_calibration.htmlに開示されているOpenCVの関数cvFindChessboardCorners()を利用して検出できる。   (4) In the same manner as in (3) above, the corner inside the frame is detected also for the chessboard pattern image (FIG. 2 (2)) acquired in (2) above, and the first chessboard pattern image is detected first Detect 70 corners from point (A) to the last point. The position of the corner detected by this is set as the position (u, v) of the image coordinate (2D coordinate) system. FIG. 2 (2) also illustrates how corners are detected from the first point (A) to the last point. These corners can be detected, for example, using the OpenCV function cvFindChessboardCorners () disclosed at http://opencv.jp/sample/camera_calibration.html.

(5)上記(3),(4)で検出されたコーナーの各点の位置を用いてカメラのパラメータを推定する。カメラのパラメータには、内部パラメータと外部パラメータがある。カメラのパラメータと世界座標(3D座標)系の各点と画像座標(2D座標)系の各点との間には、式(1)の関係がある。   (5) The camera parameters are estimated using the positions of the corners detected in (3) and (4) above. The camera parameters include internal parameters and external parameters. There is a relationship of equation (1) between camera parameters and each point in the world coordinate (3D coordinate) system and each point in the image coordinate (2D coordinate) system.

ここで、(X,Y,Z)は、世界座標(3D座標)系の点(コーナー)の位置、(u,v)は、画像座標(2D座標)系の点(コーナー)の位置である。また、sは、スケーリングファクタであり、fx,fyは、カメラ焦点距離であり、(cx,cy)は、カメラ基準点であり、通常、画像中心点に選定される。なお、スケーリングファクタsは、既知であり、カメラ焦点距離fx,fyは、画素単位で表わせばよい。   Here, (X, Y, Z) is the position of a point (corner) in the world coordinate (3D coordinate) system, and (u, v) is the position of a point (corner) in the image coordinate (2D coordinate) system . Further, s is a scaling factor, fx, fy are camera focal distances, and (cx, cy) are camera reference points, and are usually selected as image center points. The scaling factor s is known, and the camera focal lengths fx and fy may be expressed in pixel units.

式(1)において、fx,fy,cx,cy,1含む行列は、カメラの内部パラメータの行列[A]であり、r11〜r33,t1〜t3を含む行列は、カメラの回転・並進の同時変換行列[R|t]であり、世界座標系に対する回転・並進を表し、カメラの外部パラメータの行列と呼ばれる。r11〜r33部分だけの行列[R]は、カメラの回転の変換行列となり、t1〜t3部分だけの行列[t]は、カメラの並進の変換行列となる。なお、カメラの内部パラメータ[A]は、ビューに依存しないので、一度推定すれば焦点距離を固定している限りは繰り返し使用できる。   In equation (1), the matrix including fx, fy, cx, cy, 1 is the matrix [A] of the internal parameters of the camera, and the matrix including r11 to r33 and t1 to t3 is simultaneous rotation and translation of the camera. It is a transformation matrix [R | t], which represents rotation / translation with respect to the world coordinate system, and is called a matrix of camera external parameters. The matrix [R] of only the r11 to r33 part is a transformation matrix of camera rotation, and the matrix [t] of only the t1 to t3 part is a translation transformation matrix of the camera. Note that since the internal parameter [A] of the camera does not depend on the view, once it is estimated, it can be used repeatedly as long as the focal length is fixed.

z≠0の場合、式(1)は、式(2)と等価である。なお、ここでは、S=1としている。図3は、式(2)による世界座標(3D座標)系、カメラ座標(2D座標)系および画像座標(2D座標)系の間での座標変換の様子を示す。ここで、P(X,Y,Z)は、世界座標系における3D位置であり、P′(x,y,z)は、カメラ座標系における3D位置である。また、p′(x,y)は、カメラ光軸zを原点としたときの投影面(画像と同一の平面)座標系における投影点の2D位置であり、p(u,v)は、画像座標系における2D位置である。   If z ≠ 0, equation (1) is equivalent to equation (2). Here, S = 1. FIG. 3 shows a state of coordinate conversion between a world coordinate (3D coordinate) system, a camera coordinate (2D coordinate) system, and an image coordinate (2D coordinate) system by equation (2). Here, P (X, Y, Z) is a 3D position in the world coordinate system, and P '(x, y, z) is a 3D position in the camera coordinate system. Also, p ′ (x, y) is the 2D position of the projection point in the projection plane (the same plane as the image) coordinate system with the camera optical axis z as the origin, and p (u, v) is the image It is a 2D position in the coordinate system.

カメラのパラメータの推定に際しては、まず、内部パラメータと外部パラメータに初期値を設定する。次に、上記(3)で設定された各コーナーの3D座標系の位置(X,Y,Z)と上記(4)で検出されたコーナーの2D座標系の位置(u,v)をそれぞれ対応させて式(1)に代入し、逆投影誤差の総和が最小になるようにして、パラメータ(内部パラメータと外部パラメータ)を推定する。この推定には、例えば、Zhang Z. "A flexible new technique for camera calibration". IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(11): 1330-1334.に開示されているClosed-form solutionという方法を利用できる。ここで、逆投影誤差の総和は、カメラのパラメータを用い、各コーナーの3D座標系の位置(X,Y,Z)を2D座標系上に投影したときの位置を算出し、これらの位置と実際の画像の各コーナーの2D座標系の位置(u,v)との差(距離)の二乗和を求めることを意味する。   In the estimation of camera parameters, first, initial values are set to internal parameters and external parameters. Next, the position (X, Y, Z) of the 3D coordinate system of each corner set in (3) above corresponds to the position (u, v) of the 2D coordinate system of the corner detected in (4) above The parameters (internal parameters and external parameters) are estimated by substituting them into the equation (1) so as to minimize the sum of back projection errors. For this estimation, for example, a closed-form solution disclosed in Zhang Transactions on Pattern Analysis and Machine Intelligence, 2000, 22 (11): 1330-1334. Zhang Z. "A flexible new technique for camera calibration". You can use the method. Here, the sum of the back projection errors is calculated using the camera parameters and the position when the position (X, Y, Z) of the 3D coordinate system of each corner is projected onto the 2D coordinate system. It means that the sum of squares of the difference (distance) with the position (u, v) of the 2D coordinate system of each corner of the actual image is obtained.

なお、カメラのパラメータの推定を、1枚のチェスボードパターン画像だけからでなく、別々の数枚〜数十枚程度のチェスボードパターン画像の各々について行い、その結果を平均化するなどすれば、ノイズの影響を軽減できる。
(調整可能3Dオブジェクトテンプレートモデルの設定)
If estimation of camera parameters is performed not only from one chessboard pattern image but also for each of several separate chessboard pattern images, and the results are averaged, etc. The effects of noise can be reduced.
(Setting of adjustable 3D object template model)

3Dオブジェクトテンプレートモデル調整手段13が必要とする調整可能3Dオブジェクトテンプレートモデルとして、例えば、図4(1)に示すような、3D人体テンプレートモデル(原モデル)を、前もってオフラインで設定しておく。このような3D人体テンプレートモデルは、例えば、Tony Mullen (2007) (English). Introducing character animation with Blender. Indianapolis, Ind: Wiley Pub. ISBN 9780470102602. OCLC 76794771.に開示されている手法で作成できる。しかし、その手法に限られない。   As an adjustable 3D object template model required by the 3D object template model adjusting means 13, for example, a 3D human body template model (original model) as shown in FIG. 4 (1) is set in advance offline. Such a 3D human body template model can be created, for example, by the method disclosed in Tony Mullen (2007) (English). Introducing character animation with Blender. Indianapolis, Ind: Wiley Pub. ISBN 9780470102602. OCLC 76794771. However, it is not limited to the method.

3D人体テンプレートモデルでは、オブジェクトの表面、内部骨格および節点が3Dで定義され、また、各部位のサイズに関するパラメータおよび変形に関するパラメータが定義されている。各部位のサイズに関するパラメータの値を変えれば、人体の各部位のサイズを調整でき、また、変形に関するパラメータの値を変えれば、人体の姿勢などを変形できる。なお、3D人体テンプレートモデルで、内部骨格や節点が定義されていなければ、後述するオブジェクト3D情報生成手段12と同様の処理で、それを定義すればよい。また、各部位のサイズに関するパラメータおよび変形に関するパラメータも、後述する3Dオブジェクトテンプレートモデル調整手段13と同様の処理で、それを定義すればよい。   In the 3D human body template model, the surface, internal skeleton and nodes of the object are defined in 3D, and parameters related to the size of each part and parameters related to deformation are defined. The size of each part of the human body can be adjusted by changing the value of the parameter related to the size of each part, and the posture of the human body can be changed by changing the value of the parameter related to deformation. If the internal skeleton and the nodes are not defined in the 3D human body template model, they may be defined by the same process as the object 3D information generating means 12 described later. Further, parameters related to the size of each part and parameters related to deformation may be defined by the same processing as the 3D object template model adjustment means 13 described later.

サイズに関するパラメータには、例えば、身長(Height)、脂肪率(Fat)、ヒップ・ウエスト比(Hip-Waist Ratio)がある。図4(2)は、原モデル(Original model: Height;170cm, Fat;10%, Hip-Waist Ratio;0.9をベースにして、Fatを30%,45%に変え、Hip-Waist Ratioを1.249,1.049に変え、Heightを160cm,178cmに変えた場合の3D人体テンプレートモデルを示す。   Parameters relating to size include, for example, height, fat ratio, and hip-waist ratio. Figure 4 (2) is based on the original model (Original model: Height: 170 cm, Fat: 10%, Hip-Waist Ratio; 0.9), the Fat is changed to 30%, 45%, the Hip-Waist Ratio is 1.249, The 3D human body template model when changing to 1.049 and changing Height to 160 cm and 178 cm is shown.

変形に関するパラメータには、例えば、図4(3)に示すように、人体の各部位間の18個の節点の位置がある。図4(4)は、原モデルの各節点の位置を変えることにより変形された3D人体テンプレートモデルの例を示す。   For example, as shown in FIG. 4 (3), the parameters relating to deformation include the positions of 18 nodes between parts of the human body. FIG. 4 (4) shows an example of a 3D human body template model deformed by changing the position of each node of the original model.

調整可能3D人体テンプレートモデル(原モデル)は、人体の自然な姿勢で作成しておくのが好ましい。原モデルが人体の自然な姿勢で作成されていなければ、後述する3Dテンプレートモデルの変形と同様にして、その節点の位置を自然な姿勢の人体の節点の位置に合わせるようにすればよい。
(オブジェクト2D情報抽出手段11)
The adjustable 3D human body template model (original model) is preferably created in the natural posture of the human body. If the original model is not created in the natural posture of the human body, the position of the nodal point may be matched with the position of the nodal point of the human body in the natural posture in the same manner as the deformation of the 3D template model described later.
(Object 2D information extraction means 11)

次に、オブジェクト2D情報抽出手段11での処理について説明する。オブジェクト2D情報抽出手段11では、間隔を置いて配置された複数台のカメラで撮影された人物の各カメラ画像(原カメラ画像)から、オブジェクト2D情報として人物の2D位置、輪郭およびテクスチャを抽出する。   Next, processing in the object 2D information extraction unit 11 will be described. The object 2D information extraction means 11 extracts the 2D position, outline and texture of a person as object 2D information from each camera image (original camera image) of a person photographed by a plurality of cameras arranged at intervals. .

そのために、まず、複数台のカメラで取得された各原カメラ画像から背景を分離して大凡の人物領域を抽出する。この抽出には、例えば、背景差分法を利用できる。その上で、人物領域を正確に抽出し、その輪郭とテクスチャを検出する。正確な人物領域の抽出には、例えば、Xu C, Prince J L. "Snakes, shapes, and gradient vector flow". IEEE Transactions on Image Processing, 1998, 7(3): 359-369.に開示されているthe gradient vector flow (GVF) snakeという形状変形に基づく分割手法を利用できる。この手法では、まず、原画像からエッジを検出し、エッジから正規化されたGVF画像を作成する。次に、正規化されたGVF画像からスカラー場(scalar field)の画像を生成する。さらに、スカラー場の画像において、背景を分離して大凡のオブジェクト領域を抽出し、この大凡のオブジェクト領域の内部から複数のシード点(一般的には局所領域単位の中心)を選択し、スカラー場の画像およびシード点を元に領域拡張と領域マージを行って、正確なオブジェクト領域を抽出する。
図5(1)は、1枚の原カメラ画像の例であり、図5(2)は、背景が分離された大凡の人物領域を示し、図5(3)は、正確に抽出された人物領域を示す。
(オブジェクト3D情報生成手段12)
For that purpose, first, the background is separated from each original camera image acquired by a plurality of cameras to extract an approximate person area. For example, a background subtraction method can be used for this extraction. Then, the human region is accurately extracted, and its outline and texture are detected. The extraction of the accurate person area is disclosed in, for example, Xu C, Prince J L. "Snakes, shapes, and gradient vector flow". IEEE Transactions on Image Processing, 1998, 7 (3): 359-369. It is possible to use a segmentation method based on shape deformation called the gradient vector flow (GVF) snake. In this method, first, an edge is detected from an original image, and a normalized GVF image is created from the edge. Next, a scalar field image is generated from the normalized GVF image. Furthermore, in the image of the scalar field, the background is separated to extract an approximate object area, and a plurality of seed points (generally, the centers of local area units) are selected from the inside of the approximate object area, Region expansion and region merging are performed based on the image and seed point of to extract an accurate object region.
FIG. 5 (1) shows an example of one original camera image, FIG. 5 (2) shows an approximate person area with a separated background, and FIG. 5 (3) shows an accurately extracted person. Indicates an area.
(Object 3D information generation means 12)

次に、オブジェクト3D情報生成手段12での処理について説明する。オブジェクト3D情報生成手段12では、人物の3Dメッシュを生成し、3Dメッシュから3D骨格を抽出し、さらに、3D骨格から節点を生成して該人物の3D情報とする。そのために、まず、人物領域を構成する3D点群を作成する。その上で、人物の3Dメッシュを生成し、さらに、3D骨格を抽出し、節点を生成する。   Next, the process of the object 3D information generation unit 12 will be described. The object 3D information generation unit 12 generates a 3D mesh of a person, extracts a 3D skeleton from the 3D mesh, and generates a node from the 3D skeleton as 3D information of the person. For that purpose, first, a 3D point group constituting a person area is created. Then, a 3D mesh of a person is generated, and further, a 3D skeleton is extracted to generate nodes.

オブジェクト3D情報生成の手順は、例えば、以下の(1)〜(5)のとおりである。   The procedure of object 3D information generation is, for example, as described in (1) to (5) below.

(1)複数枚の原カメラ画像のうちの任意の1つの画像を参照画像として選択する。   (1) An arbitrary one of a plurality of original camera images is selected as a reference image.

(2)上記(1)で選択した参照画像の人物領域を対象として、そこから特徴点を抽出する。人物領域は、オブジェクト2D情報抽出手段11で既に抽出されているので、それを利用できる。特徴点の抽出には、例えば、Derpanis K G. "The harris corner detector[J]". York University, 2004.に開示されているHarrisコーナー検出方法を利用できる。   (2) A feature point is extracted from the human region of the reference image selected in (1) above. Since the person area has already been extracted by the object 2D information extraction means 11, it can be used. For extraction of feature points, the Harris corner detection method disclosed in, for example, Derpanis K G. "The harris corner detector [J]". York University, 2004. can be used.

(3)上記(1)で選択した参照画像以外のカメラ画像の人物領域を対象として、例えば、最小二乗マッチング(LSM, least squares matching)方法で、参照画像で抽出された特徴点に対応する特徴点を抽出する。最小二乗マッチング方法は、例えば、Gruen A. "Least squares matching: a fundamental measurement algorithm". Close Range Photogrammetry and Machine Vision, 1996: 217-255.に開示されている。   (3) A feature corresponding to a feature point extracted in the reference image by, for example, the least squares matching (LSM) method, for a person area of a camera image other than the reference image selected in (1) above. Extract points. The least squares matching method is disclosed, for example, in Gruen A. “Least squares matching: a fundamental measurement algorithm”. Close Range Photogrammetry and Machine Vision, 1996: 217-255.

(4)上記(2),(3)で抽出された特徴点の位置と各カメラのパラメータを組み合わせて、人物の3D点群を作成する。この作成には、例えば、Fitzgibbon A, Zisserman A. "Automatic 3D model acquisition and generation of new images from video sequences", European Signal Processing Conference. 1998: 311-326.に開示されているAutomatic 3D model acquisition and generationという手法を利用できる。   (4) A 3D point group of a person is created by combining the position of the feature point extracted in the above (2) and (3) and the parameters of each camera. For this creation, for example, the Automatic 3D model acquisition and generation disclosed in Fitzgibbon A, Zisserman A. "Automatic 3D model acquisition and generation of new images from video sequences", European Signal Processing Conference. 1998: 311-326. The method can be used.

(5)上記(4)で作成された人物の3D点群から人物の3Dメッシュを生成し、3Dメッシュから人物の3D骨格を生成し、さらに、3D骨格から節点を生成する。3Dメッシュの生成には、例えば、A free library called Point Cloud Library (PCL), "http://pointclouds.org/documentation/tutorials/greedy_projection.php".に開示されているGreedy Projection Triangulation (GPT)という手法を利用できる。また、3D骨格の生成には、Reniers D, van Wijk J J, Telea A. "Computing multiscale curve and surface skeletons of genus 0 shapes using a global importance measure". IEEE Transactions on Visualization and Computer Graphics, 2008, 14(2): 355-368.に開示されているA global importance measure-based surface skeleton extractionという手法を利用できる。
(3Dオブジェクトテンプレートモデル調整手段13)
(5) A 3D mesh of the person is generated from the 3D point group of the person created in (4) above, a 3D skeleton of the person is generated from the 3D mesh, and nodes are generated from the 3D skeleton. For generating a 3D mesh, for example, Greedy Projection Triangulation (GPT) disclosed in A free library called Point Cloud Library (PCL), "http://pointclouds.org/documentation/tutorials/greedy_projection.php". You can use the method. Also, for the generation of 3D skeletons, see: Reniers D, van Wijk JJ, Telea A. “Computing multiscale curve and surface skeletons of genus 0 shapes using a global importance measure”. IEEE Transactions on Visualization and Computer Graphics, 2008, 14 (2 (2 ): A global importance measure-based surface skeleton extraction method disclosed in 355-368 can be used.
(3D object template model adjustment means 13)

次に、3Dオブジェクトテンプレートモデル調整手段13での処理について説明する。3Dオブジェクトテンプレートモデル調整手段13では、3Dオブジェクトテンプレートモデルのサイズおよび変形に関するパラメータを設定し、これらのパラメータに従って調整可能3Dオブジェクトテンプレートモデル(原モデル)を調整して調整済3Dオブジェクトテンプレートモデルを生成する。   Next, processing in the 3D object template model adjustment means 13 will be described. The 3D object template model adjusting means 13 sets parameters relating to the size and deformation of the 3D object template model, and adjusts the adjustable 3D object template model (original model) according to these parameters to generate an adjusted 3D object template model .

3Dオブジェクトテンプレートモデルのサイズの調整の手順は、例えば、以下の(1)〜(4)のとおりであり、この手順に従って3Dオブジェクトテンプレートモデルの各部位のサイズに関するパラメータを設定し、該パラメータに従って調整可能3Dオブジェクトテンプレートモデル(原モデル)の各部位のサイズを調整する。   The procedure for adjusting the size of the 3D object template model is, for example, as described in (1) to (4) below, and according to this procedure, set parameters related to the size of each part of the 3D object template model and adjust according to the parameters Adjust the size of each part of the possible 3D object template model (original model).

(1)オブジェクト3D情報生成手段12で生成された人物の3D情報から人物の身長を推定する。この推定には、例えば、Gocha T P, Vercellotti G, McCormick L E, et al. "Formulae for Estimating Skeletal Height in Modern South‐East Asians". Journal of forensic sciences, 2013, 58(5): 1279-1283.に開示されているA formulae for Estimating Skeletal Heightという手法を利用できる。   (1) The height of the person is estimated from the 3D information of the person generated by the object 3D information generation means 12. For this estimation, for example, Gocha TP, Vercellotti G, McCormick LE, et al. "Formulae for Estimating Skeletal Height in Modern South-East Asians". Journal of forensic sciences, 2013, 58 (5): 1279-1283. The method disclosed as A formulae for Estimating Skeletal Height can be used.

(2)オブジェクト3D情報生成手段12で生成された3Dメッシュから人体の各部位(首、ウエスト、ヒップ)をユーザ指示あるいは画像処理技術利用により選択し、各部位の3D形状を抽出して各部位の周囲長を推定する。各部位の周囲長の値は、身長の値との関係から推定できる。   (2) Each part (neck, waist, hip) of the human body is selected from the 3D mesh generated by the object 3D information generation means 12 by user instruction or using image processing technology, and the 3D shape of each part is extracted Estimate the perimeter of The value of the perimeter of each part can be estimated from the relationship with the value of height.

(3)上記(1)で推定された身長および上記(3)で推定された各部位の周囲長から当該人物の脂肪率、ウエスト・ヒップ比を算出する。例えば、脂肪率は、女性の場合、(163.205*Log10(ウエスト周り+ヒップ周り-首周り)-97.684*Log10(身長)-78.387)で算出でき、男性の場合、(86.01*Log10(ウエスト周り-首周り)-70.041*Log10(身長)+36.76)で算出できる。また、ウエスト・ヒップ比は、(ウエスト周り/ヒップ周り)で算出できる。その他の汎用的な算出手法を利用してもよい。   (3) The fat ratio of the person and the waist-hip ratio are calculated from the height estimated in the above (1) and the peripheral length of each part estimated in the above (3). For example, the fat percentage can be calculated by (163.205 * Log 10 (around waist + hip around-neck) -97.684 * Log 10 (height) -78.387) for women, and for men (86.01 * Log 10 (around waist- Neck circumference)-70.041 * Log 10 (height) + 36. 76) It can calculate. Also, the waist / hip ratio can be calculated by (around waist / around hip). Other general purpose calculation methods may be used.

(4)調整可能3Dオブジェクトテンプレートモデル(原モデル)をベースにして、その各部位のサイズを、上記(1)で推定された身長および上記(3)で算出され脂肪率、ウエスト・ヒップ比により調整して当該人物に適合した3D人体テンプレートモデル(調整済3D人体テンプレートモデル)を生成する。   (4) Based on the adjustable 3D object template model (original model), the size of each part is calculated according to the height estimated in the above (1) and the fat ratio and waist-hip ratio calculated in the above (3) An adjustment is performed to generate a 3D human body template model (adjusted 3D human body template model) adapted to the person.

3Dオブジェクトテンプレートモデルの変形の手順は、例えば、以下の(1)〜(4)のとおりであり、この手順に従って3Dオブジェクトテンプレートモデルの変形に関するパラメータを設定し、該パラメータに従って調整可能3Dオブジェクトテンプレートモデル(原モデル)を変形する。   The procedure of deformation of the 3D object template model is, for example, as in the following (1) to (4), parameters according to the deformation of the 3D object template model are set according to the procedure, and the adjustable 3D object template model Transform the (original model).

(1)図6(1)は、原モデルの3D骨格であり、これは図4(3)と同じである。これに対し、オブジェクト3D情報生成装置12で生成された人物の3D骨格は、例えば、図6(2)のようになる。そこで、まず、図6(2)の3D骨格から5個のエンド(末端)節点(Head, HandR, HandL, FootR, FootL)と1個の頚部節点(Neck)と1個の骨盤節点(Pelvis)を検出する。これらの7個の節点を検出するため、例えば、3D骨格上の全てのボクセルをチェックする。図6(3)は、このチェックの様子を示す。例えば、図6(3)において黒色で塗りつぶしたボクセルの最近隣の26個のボクセル(1〜26の番号を付したボクセル)を探し、その中に、3D骨格上のボクセルが1個だけ存在する場合、黒色のボクセルは、エンド節点であると判断する。同様の方法で、最近隣の26個のボクセルの中に3D骨格上のボクセルが4個存在する場合、そのボクセルは頚部節点であると判断し、3個存在する場合、そのボクセルは、骨盤節点であると判断する。   (1) FIG. 6 (1) is a 3D skeleton of the original model, which is the same as FIG. 4 (3). On the other hand, the 3D skeleton of the person generated by the object 3D information generating apparatus 12 is, for example, as shown in FIG. 6 (2). Therefore, first, from the 3D skeleton of FIG. 6 (2), five end (end) nodes (Head, HandR, HandL, FootR, FootL), one neck node (Neck) and one pelvic node (Pelvis) To detect In order to detect these seven nodes, for example, all voxels on the 3D skeleton are checked. FIG. 6 (3) shows the state of this check. For example, in FIG. 6 (3), the nearest 26 voxels (voxels numbered 1 to 26) of black filled voxels are searched, and only one voxel on the 3D skeleton is present therein. In this case, black voxels are determined to be end nodes. In a similar manner, if there are four voxels on the 3D skeleton among the nearest 26 voxels, it is determined that the voxel is a cervical node, and if there are three voxels, the voxel is a pelvic node It is determined that

(2)調整可能3Dオブジェクトテンプレートモデル(原モデル)の各節点(図6(1))を上記(1)で検出された7個の各節点に対応付ける変形行列を推定する。例えば、式(3)のEFを最小化するように、7個の接点間を対応付ける変形行列を推定する。式(3)は、調整可能3Dオブジェクトテンプレートモデル(原モデル)の各節点の位置と上記(1)で検出された各節点の位置との間の距離を表す関数である。この算出には、例えば、Press W. H., Flannery B. P., Teukolsky S. A., and Vetterling W. T., "Numerical Recipes in C, The art of scientific computing", Cambridge University Press, 1988.に開示されているIterative gradient descentという手法を利用できる。 (2) A deformation matrix is estimated which associates each node (FIG. 6 (1)) of the adjustable 3D object template model (original model) with each of the seven nodes detected in (1) above. For example, in order to minimize E F in equation (3), a deformation matrix that corresponds between seven contact points is estimated. Equation (3) is a function representing the distance between the position of each node of the adjustable 3D object template model (original model) and the position of each node detected in (1) above. For this calculation, for example, a method called Iterative gradient descent disclosed in Press WH, Flannery BP, Teukolsky SA, and Vetterling WT, "Numerical Recipes in C, The art of scientific computing", Cambridge University Press, 1988. Available.

ここで、mは、節点の個数(=7)、Piは、オブジェクト3D情報の3D骨格の節点iの位置、Pi′は、調整可能3Dオブジェクトテンプレートモデル(原モデル)の節点iの位置である。   Here, m is the number of nodes (= 7), Pi is the position of the node i of the 3D skeleton of the object 3D information, Pi ′ is the position of the node i of the adjustable 3D object template model (original model) .

(3)上記(2)で推定された7個の節点に対する3D変形行列に従って調整可能3Dオブジェクトテンプレートモデル(原モデル)の18個の節点の位置を変えた上で、7個以外の11個の節点を、よりマッチングさせる3D変換行列を推定する。この推定には、Ilya Baran and Jovan Popovic. Automatic rigging and animation of 3D characters. In Proc. of the ACM SIGGRAPH, 2007.に開示されているPinocchioという手法を利用できる。   (3) After changing the positions of 18 nodes of the adjustable 3D object template model (original model) according to the 3D deformation matrix for the 7 nodes estimated in (2) above, 11 other than 7 are obtained. Estimate a 3D transformation matrix that matches the nodes better. In this estimation, a method called Pinocchio disclosed in Illya Baran and Jovan Popovic. Automatic rigging and animation of 3D characters. In Proc. Of the ACM SIGGRAPH, 2007. can be used.

(4)7個の節点に対する3D変形行列とその以外の11個の節点に対する3D変形行列をそれぞれ用いて、調整可能3Dオブジェクトテンプレートモデル(原モデル)の18個の全ての節点の位置を変える。図6(4)は、これにより変形された3Dオブジェクトテンプレートモデルの例である。   (4) The positions of all the 18 nodes of the adjustable 3D object template model (original model) are changed using the 3D deformation matrix for the 7 nodes and the 3D deformation matrix for the other 11 nodes. FIG. 6 (4) is an example of the 3D object template model deformed by this.

以上の3Dオブジェクトテンプレートモデル調整手段13での処理に従って、例えば、スポーツ映像のカメラ画像から人物(選手)のサイズおよび変形に関するパラメータを算出し、これらのパラメータに従って調整可能3Dオブジェクトテンプレートモデル(原モデル)のサイズを調整し、変形させることにより、当該選手に適合した調整済3Dオブジェクトテンプレートモデルを生成できる。
(射影変換手段14)
According to the above processing by the 3D object template model adjusting means 13, parameters relating to the size and deformation of a person (player) are calculated from a camera image of a sports video, for example, and adjustable 3D object template model (original model) according to these parameters By adjusting the size of and modifying it, an adjusted 3D object template model adapted to the player can be generated.
(Projective transformation means 14)

次に、射影変換手段14での処理について説明する。射影変換手段14では、3Dオブジェクトテンプレートモデル調整手段13により生成された調整済3Dオブジェクトテンプレートモデルを、指定された仮想視点でのオブジェクト2D画像に射影変換する。なお、仮想視点は、任意に指定できる。   Next, processing in the projective transformation means 14 will be described. The projective transformation unit 14 projectively transforms the adjusted 3D object template model generated by the 3D object template model adjustment unit 13 into an object 2D image in a specified virtual viewpoint. The virtual viewpoint can be specified arbitrarily.

図7は、調整済3Dオブジェクトテンプレートモデルの射影変換の説明図である。ここでは、調整済3Dオブジェクトテンプレートモデルを簡略化して円柱と立方体で図示している。なお、XYZは、世界座標系であり、xyzは、視点座標系であり、uvnは、投影面を定義する座標系である。   FIG. 7 is an explanatory diagram of projective transformation of the adjusted 3D object template model. Here, the adjusted 3D object template model is simplified and illustrated with a cylinder and a cube. Note that XYZ is a world coordinate system, xyz is a viewpoint coordinate system, and uvn is a coordinate system that defines a projection plane.

射影変換手段14では、図7に示すように、世界座標系での調整済3Dオブジェクトテンプレートモデルを、投影面を定義する座標系の投影点に射影変換する。視点座標系の原点oは、仮想視点に設定される。視点座標系のz軸は、uvn座標系の原点および調整済3Dオブジェクトテンプレートモデルの中心を通り、uv平面と直交する。   The projective transformation means 14 projectively transforms the adjusted 3D object template model in the world coordinate system to the projection point of the coordinate system defining the projection plane, as shown in FIG. The origin o of the viewpoint coordinate system is set to a virtual viewpoint. The z-axis of the viewpoint coordinate system passes through the origin of the uvn coordinate system and the center of the adjusted 3D object template model, and is orthogonal to the uv plane.

図8に示すように、調整済3Dオブジェクトテンプレートモデルの点P(Px,Py)と投影面上の投影点(x,y)には式(4)の関係があるので、投影点(x,y)は、式(5)で算出できる。   As shown in FIG. 8, since the point P (Px, Py) of the adjusted 3D object template model and the projection point (x, y) on the projection plane have the relationship of equation (4), the projection point (x, y) y) can be calculated by equation (5).

ここで、Px,Py,Pzは、調整済3Dオブジェクトテンプレートモデルの点Pのx,y,z座標値、fx,fy,fは、カメラの焦点距離、w,hはそれぞれ、画像の横幅、画像の縦幅である。なお、Px,Py,Pz,f,w,hは、ミリ単位で表され、fx,fyはそれぞれ、画素横幅単位、画素縦幅単位で表される。
(着色手段15)
Here, Px, Py, Pz are x, y, z coordinate values of the point P of the adjusted 3D object template model, fx, fy, f are camera focal lengths, and w, h are the width of the image, respectively. It is the vertical width of the image. Note that Px, Py, Pz, f, w, and h are represented in units of millimeters, and fx and fy are respectively represented in units of pixel horizontal width and units of pixel vertical width.
(Coloring means 15)

次に、着色手段16での処理について説明する。射影変換手段14により生成されたオブジェクト2D画像は、調整可能オブジェクトテンプレートモデルをベースにして生成されたものであるので、着色されていない、あるいは着色されていても現実の色と異なる。そこで、着色手段16では、射影変換手段14により生成されたオブジェクト2D画像に着色する。   Next, the process by the coloring means 16 will be described. Since the object 2D image generated by the projective transformation means 14 is generated based on the adjustable object template model, it is different from the real color even if it is not colored or colored. Therefore, the coloring unit 16 colors the object 2D image generated by the projection conversion unit 14.

図9は、着色手段15での着色の説明図である。図9に示すように、N台のカメラでオブジェクトを撮影して取得されたN枚のカメラ画像を元にして調整済3Dオブジェクトテンプレートモデルが生成された場合、各カメラ画像から、調整済3Dオブジェクトテンプレートモデルの点Pに対応する点の色情報(R,G,B)を取得する。色情報(R,G,B)は、オブジェクト2D情報抽出手段11で抽出された2D情報のうち、点Pに対応する点のテクスチャの色情報を取得すればよい。こられの色情報(R,G,B)をC1、…、CNとし、仮想視点から点Pへのベクトルとカメラから点P へのベクトルとがなす角度をθn(n = 1,…, N)として、各カメラ画像の色に対する重み(wi)を式(6)で算出し、仮想視点での点Pの色を式(7)で求める。   FIG. 9 is an explanatory view of the coloring in the coloring means 15. As shown in FIG. 9, when an adjusted 3D object template model is generated based on N camera images acquired by capturing objects with N cameras, an adjusted 3D object is obtained from each camera image. The color information (R, G, B) of the point corresponding to the point P of the template model is acquired. The color information (R, G, B) may be obtained by acquiring the color information of the texture of the point corresponding to the point P among the 2D information extracted by the object 2D information extraction unit 11. Let these color information (R, G, B) be C1, ..., CN, and let the angle between the vector from the virtual viewpoint to the point P and the vector from the camera to the point P be n (n = 1, ..., N The weight (wi) for the color of each camera image is calculated by equation (6), and the color of point P at the virtual viewpoint is determined by equation (7).

式(6)では、括弧内をcosθのみにすると、色に対する重み(wi)が負の値をとるので、cosθ+1としている。なお、αは、経験上から定められる値であり、例えば、α=5とすればよい。   In the equation (6), when the value in the parenthesis is only cos θ, the weight (wi) for the color takes a negative value, and hence cos θ + 1. Note that α is a value determined empirically, and may be, for example, α = 5.

式(6),(7)によれば、方向が仮想視点に近いカメラの画像の色の重みを大きくし、遠いカメラの画像の色の重みを小さくして、調整済3Dオブジェクトテンプレートモデルの各部分に着色するので、現実に近い色の着色ができる。なお、θn(n = 1,…, N)は、カメラの固定位置とオブジェクトの大まかな位置で定めても差し支えない。また、方向が仮想視点に近い方から予め定めた台数のカメラの画像だけを用いてもよい。
(背景合成手段16)
According to the equations (6) and (7), each of the adjusted 3D object template models is increased by increasing the weight of the color of the image of the camera closer to the virtual viewpoint and decreasing the color of the image of the far camera. Since the part is colored, it is possible to color the color close to reality. Note that θ n (n = 1,..., N) may be determined by the fixed position of the camera and the rough position of the object. Alternatively, only images of a predetermined number of cameras may be used from a direction closer to the virtual viewpoint.
(Background combining means 16)

次に、背景合成手段16での処理について説明する。背景合成手段16では、着色手段15で着色されたオブジェクト2D画像を2D背景画像に合成して1枚の2D画像を生成する。2D背景画像は、現場に固定配置された複数台のカメラで背景だけを撮影し、これにより取得された複数枚の背景画像を用いて3D背景モデルを予め作成しておき、それを投影面に射影変換することにより生成できる。   Next, the process of the background synthesizing unit 16 will be described. The background combining means 16 combines the object 2D image colored by the coloring means 15 with the 2D background image to generate one 2D image. For the 2D background image, only the background is photographed with a plurality of cameras fixedly arranged at the site, and a 3D background model is created in advance using a plurality of background images acquired by this, and it is used as a projection plane It can be generated by projective transformation.

3D背景モデルとしては、例えば、非特許文献2に開示されているIBR(Image-based rendering)の手法を利用して、調整済3Dオブジェクトテンプレートモデルと同じ座標系(図6の世界座標系)のモデルを作成する。背景モデルや2D背景画像は、高精度に作成する必要がないので、数枚のカメラ画像から作成できる。   As the 3D background model, for example, using the method of IBR (Image-based rendering) disclosed in Non-Patent Document 2, the same coordinate system (world coordinate system in FIG. 6) as the adjusted 3D object template model Create a model Background models and 2D background images do not need to be created with high accuracy, so they can be created from several camera images.

そして、この3D背景モデルを、式(5)により図7の投影面に射影変換して、仮想視点での2D背景画像を生成する。そして、生成された2D背景画像に着色手段15で着色されたオブジェクト2D画像を合成する。この合成では、2D背景画像にオブジェクト2D画像を嵌め込めばよい。なお、着色手段15での処理と同様にして、2D背景画像に着色できるが、背景画像が既に着色されていれば、それは必要ない。   Then, this 3D background model is projectively converted to the projection plane of FIG. 7 by equation (5) to generate a 2D background image at a virtual viewpoint. Then, the generated 2D background image is combined with the object 2D image colored by the coloring unit 15. In this composition, an object 2D image may be embedded in the 2D background image. The 2D background image can be colored in the same manner as the processing by the coloring unit 15. However, if the background image is already colored, it is not necessary.

図10は、本発明に係る自由視点画像生成装置の第2の実施形態を示すブロック図である。本実施形態の自由視点画像生成装置では、第1の実施形態のようにして仮想視点での自由視点画像を生成するのに加えて、同じ仮想視点での自由視点画像を内挿補間技術により生成し、両者の自由視点画像の画質を評価し、その評価が高い方の自由視点画像を出力する。   FIG. 10 is a block diagram showing a second embodiment of the free viewpoint image generation device according to the present invention. In the free viewpoint image generation device of this embodiment, in addition to the generation of the free viewpoint image in the virtual viewpoint as in the first embodiment, the free viewpoint image in the same virtual viewpoint is generated by the interpolation technique. Then, the image quality of the free viewpoint images of both parties is evaluated, and the free viewpoint image of the higher evaluation is output.

図10において、第1の自由視点画像は、上記のように、調整可能オブジェクトテンプレートモデルを調整して生成された自由視点画像である。それに加え、同じ仮想視点での第2の自由視点画像を内挿補間技術で生成する。内挿補間技術では、複数枚の原カメラ画像から隣接する2枚のカメラ画像を選択し、それを内挿補間手段17に入力して第2の自由視画像を生成する。画質評価・画像選択手段18では、第1および第2の自由視点画像の画質を評価し、その評価が高い方の自由視点画像を選択して出力する。   In FIG. 10, the first free viewpoint image is a free viewpoint image generated by adjusting the adjustable object template model as described above. In addition, a second free viewpoint image with the same virtual viewpoint is generated by interpolation. In the interpolation technique, two adjacent camera images are selected from a plurality of original camera images and input to the interpolation unit 17 to generate a second free-view image. The image quality evaluation / image selection means 18 evaluates the image quality of the first and second free viewpoint images, and selects and outputs the free viewpoint image of the higher evaluation.

図11(1)〜(3)は、内挿補間技術による自由視点画像生成の説明図である。
内挿補間技術による自由視点画像生成では、間隔を置いて固定配置された複数台のカメラでオブジェクトXを撮影したカメラ画像の中から、仮想視点Pcの両側に位置する2つのカメラ1,2のカメラ画像A,Bを選択する。そして、この2枚のカメラ画像A,Bから内挿補間技術により、指定された仮想視点Pcでの自由視点画像を生成する。
FIGS. 11 (1) to 11 (3) are explanatory diagrams of free viewpoint image generation by the interpolation technique.
In free viewpoint image generation by the interpolation technique, among camera images obtained by capturing an object X with a plurality of cameras fixedly arranged at intervals, two cameras 1 and 2 located on both sides of the virtual viewpoint Pc Camera images A and B are selected. Then, a free viewpoint image at a designated virtual viewpoint Pc is generated from the two camera images A and B by interpolation.

具体的には、非特許文献1に開示されているように、まず、図11(1),(2)に示すように、2つの視点Pa,Pbのカメラ画像A,Bの平行化処理を行う。この平行化処理では、視点Paでのカメラ画像Aと視点Pbでの原画像Bとが平行になるように、すなわち、視点Paでのカメラ1の光軸1と視点Pbでのカメラ2の光軸2が平行になるように、カメラ画像A,Bを回転させてカメラ画像A′,B′とする。次に、図11(3)に示すように、平行化処理後のカメラ画像A′,B′の間を線形補間することにより中間画像C′を生成する。その後、図11(3)に示すように、中間画像C′を、平行化処理前の空間に逆射影することによって、仮想視点Pcでの中間画像Cを生成する。   Specifically, as disclosed in Non-Patent Document 1, first, as shown in FIGS. 11 (1) and (2), parallelization processing of camera images A and B of two viewpoints Pa and Pb is performed. Do. In this parallelization process, the camera image A at the viewpoint Pa and the original image B at the viewpoint Pb are parallel, that is, the light of the camera 1 at the viewpoint Pa and the light of the camera 2 at the viewpoint Pb. The camera images A and B are rotated to be camera images A 'and B' so that the axis 2 is parallel. Next, as shown in FIG. 11C, an intermediate image C ′ is generated by performing linear interpolation between the camera images A ′ and B ′ after the parallelization processing. Thereafter, as shown in FIG. 11 (3), the intermediate image C ′ at the virtual viewpoint Pc is generated by back projecting the intermediate image C ′ onto the space before the parallelization processing.

画質評価・画像選択手段18では、例えば、N.B. Nill and B.H. Bouzas, "Objective Image Quality Measure Derived from Digital Image Power Spectra", Optical Engineering, vol.31, pp.813-825, 1992.に開示されているように、式(8)により、自由視点画像のパワースペクトルを解析することにより、その画質IQM(image quality measurement)を評価し、評価が高い方の自由視点画像を出力する。   The image quality evaluation / image selection means 18 is disclosed in, for example, NB Nill and BH Bouzas, "Objective Image Quality Measure Derived from Digital Image Power Spectra", Optical Engineering, vol. 31, pp. 813-825, 1992. As described above, the image quality IQM (image quality measurement) is evaluated by analyzing the power spectrum of the free viewpoint image according to the equation (8), and the free viewpoint image with the higher evaluation is output.

ここで、M2は、画像のサイズ、S(θ1)は、方位画像スケールパラメータ、W(ρ)は、修正されたウィナーノイズフィルタ、A2(Tρ)は、人間の視覚系のMTF(T:固定)、P(ρ,θ)は、輝度正規化された画像のパワースペクトル、ρ,θは、極座標における空間周波数である。 Where M2 is the size of the image, S (θ1) is the orientation image scale parameter, W (() is the modified Wiener noise filter, A2 (Tρ) is the MTF of the human visual system (T: fixed) And P (ρ, θ) are power spectra of a luminance normalized image, and ρ and θ are spatial frequencies in polar coordinates.

以上、実施形態について説明したが、本発明は、上記実施形態に限定されず、その技術的思想の範囲内において種々に変形したものを含む。例えば、上記実施形態では、射影変換により生成されたオブジェクト2D画像に着色し、さらに2D背景画像を合成しているが、仮想視点でのオブジェクトの態様は、無着色の2D画像でも着色した2D画像でも十分に把握できるので、そのような処理を行うことなく、画像を出力することも有効である。   As mentioned above, although embodiment was described, this invention is not limited to the said embodiment, The thing variously deformed within the range of the technical thought is included. For example, in the above embodiment, an object 2D image generated by projective transformation is colored, and a 2D background image is further synthesized. However, the aspect of the object in the virtual viewpoint is a 2D image colored even in a noncolored 2D image. However, it is also effective to output an image without performing such processing because it can be sufficiently grasped.

また、1枚の画像中に複数のオブジェクトが含まれている場合には、テクスチャなどでオブジェクトを特定しつつ、各オブジェクトについて処理するようにすればよい。   When a plurality of objects are included in one image, processing may be performed on each object while specifying the objects by texture or the like.

また、本発明は、自由視点画像生成装置としてだけでなく、各手段での処理をステップとした自由視点画像生成方法としても実現でき、また、コンピュータを各手段として機能させる自由視点画像生成用プログラムとしても実現できる。自由視点画像生成方法は、各手段での処理を順次実行するステップを含めばよく、自由視点画像生成用プログラムは、コンンピュータを各手段として機能させるものであればよい。   Further, the present invention can be realized not only as a free viewpoint image generation apparatus but also as a free viewpoint image generation method in which processing in each means is taken as a step, and a program for free viewpoint picture generation which causes a computer to function as each means. Can also be realized. The free viewpoint image generation method may include the step of sequentially executing the processing in each means, and the free viewpoint image generation program may be any method as long as the computer functions as each means.

11・・・オブジェクト2D情報抽出手段、12・・・オブジェクト3D情報生成手段、13・・・3Dオブジェクトテンプレートモデル調整手段、14・・・射影変換手段、15・・・着色手段、16・・・背景合成手段、17・・・内挿補間手段、18・・・画質評価・画像選択手段   11 object 2D information extraction means 12 object 3D information generation means 13 3D object template model adjustment means 14 projection conversion means 15 coloring means 16 Background synthesis means, 17 ... interpolation means, 18 ... image quality evaluation / image selection means

Claims (17)

間隔を置いて固定配置された複数台のカメラで撮影されたオブジェクトのカメラ画像から任意の仮想視点での自由視点画像を生成する自由視点画像生成装置であって、
各カメラ画像からオブジェクト2次元情報を抽出するオブジェクト2次元情報抽出手段と、
前記オブジェクト2次元情報抽出手段により抽出されたオブジェクト2次元情報と予めキャリブレーションを行うことで各カメラのパラメータと3次元座標系の各点と2次元座標系の各点との間の関係から求められた各カメラのパラメータを用いてオブジェクト3次元情報を抽出するオブジェクト3次元情報抽出手段であって、複数枚のカメラ画像のうち1つのカメラ画像を参照画像として該参照画像のオブジェクト領域の特徴点を抽出し、該参照画像以外のカメラ画像それぞれのオブジェクト領域における、前記参照画像の特徴点とマッチングする特徴点を抽出し、これらの特徴点の位置と前記各カメラのパラメータからオブジェクトの3次元点群を生成し、該3次元点群からオブジェクトの3次元輪郭および3次元骨格を前記オブジェクト3次元情報として生成するオブジェクト3次元情報抽出手段と、
前記オブジェクト3次元情報抽出手段により抽出されたオブジェクト3次元情報から3次元オブジェクトの各部位のサイズに関するパラメータおよび変形に関するパラメータを推定し、該パラメータに従って、予め設定された調整可能3次元オブジェクトテンプレートモデルのサイズを調整し、変形させる3次元オブジェクトテンプレートモデル調整手段と、
前記3次元オブジェクトテンプレートモデル調整手段により調整され、変形された3次元オブジェクトテンプレートモデルに対して任意の仮想視点に対応した射影変換を施すことにより該仮想視点での自由視点画像を生成する射影変換手段を備えたことを特徴とする自由視点画像生成装置。
A free-viewpoint image generation apparatus that generates a free-viewpoint image at an arbitrary virtual viewpoint from camera images of objects captured by a plurality of cameras fixedly arranged at an interval.
Object two-dimensional information extraction means for extracting object two-dimensional information from each camera image;
Perform calibration in advance with the object two-dimensional information extracted by the object two-dimensional information extraction means, and obtain it from the relationship between the parameters of each camera and each point in the three-dimensional coordinate system and each point in the two-dimensional coordinate system Object three-dimensional information extracting means for extracting object three-dimensional information using the parameters of each of the selected cameras, wherein one camera image of a plurality of camera images is used as a reference image and the feature points of the object region of the reference image Are extracted, and feature points matching the feature points of the reference image in the object regions of camera images other than the reference image are extracted, and the positions of these feature points and the parameters of the respective cameras Generate a group, and from the three-dimensional point group, the three-dimensional contour and three-dimensional skeleton of the object And object three-dimensional information extracting means for generating a three-dimensional information,
Estimating the parameters relating to the parameters and modifications relating to the size of each part of the three-dimensional object from the object 3-dimensional information extracted by the object 3-dimensional information extracting means, in accordance with the parameters, the preset adjustable 3D object template model 3D object template model adjusting means for adjusting size and deforming ,
A projective transformation means for generating a free viewpoint image in the virtual viewpoint by applying a projective transformation corresponding to an arbitrary virtual viewpoint to the transformed three-dimensional object template model adjusted and deformed by the three-dimensional object template model adjusting means An apparatus for generating a free viewpoint image, comprising:
前記調整可能3次元オブジェクトテンプレートモデルでは、
オブジェクトの表面、内部骨格および節点が定義され、また、オブジェクトの各部位のサイズに関するパラメータおよび変形に関するパラメータが定義されていることを特徴とする請求項1に記載の自由視点画像生成装置。
In the adjustable 3D object template model,
The free viewpoint image generating device according to claim 1, wherein the surface, the internal skeleton and the nodes of the object are defined, and the parameters related to the size of each part of the object and the parameters related to the deformation are defined.
オブジェクトが人物であり、
前記オブジェクトの各部位のサイズに関するパラメータは、
人体の身長、脂肪率およびウエスト・ヒップ比を含むことを特徴とする請求項2に記載の自由視点画像生成装置。
The object is a person,
Parameters related to the size of each part of the object are
The apparatus for generating a free viewpoint image according to claim 2, wherein the height, fat percentage and waist-hip ratio of a human body are included.
オブジェクトが人物であり、
前記オブジェクトの変形に関するパラメータは、
人体の各部位間の18個の節点の位置を含むことを特徴とする請求項2または3に記載の自由視点画像生成装置。
The object is a person,
Parameters related to the deformation of the object are
4. A free viewpoint image generating apparatus according to claim 2, wherein the position of 18 nodes between each part of the human body is included.
前記各カメラのパラメータは、
各カメラでチェスボードを撮影して取得されるチェスボードパターン画像における各マスのコーナーを検出することで推定された内部パラメータおよび外部パラメータを含むことを特徴とする請求項1ないし4のいずれか1つに記載の自由視点画像生成装置。
The parameters of each camera are
The internal parameter and the external parameter estimated by detecting the corner of each square in the chessboard pattern image acquired by photographing a chessboard with each camera are included, any one of 1 to 4 characterized by the above-mentioned. Free viewpoint image generation device described in the above.
前記オブジェクト2次元情報抽出手段は、
各カメラ画像から大凡のオブジェクト領域を背景差分法で抽出してから正確なオブジェクト領域を抽出することを特徴とする請求項1ないし5のいずれか1つに記載の自由視点画像生成装置。
The object two-dimensional information extraction unit
6. The free viewpoint image generating apparatus according to claim 1, wherein an approximate object area is extracted from each camera image by a background subtraction method and then an accurate object area is extracted.
前記3次元オブジェクトテンプレートモデル調整手段は、
前記オブジェクト3次元情報抽出手段により抽出されたオブジェクト3次元情報からオブジェクトの身長を推定し、また、3次元形状における各部位周りから脂肪率およびウエスト・ヒップ比を推定し、これらにより前記調整可能3次元オブジェクトテンプレートモデルで定義されているサイズに関するパラメータの値を調整することを特徴とする請求項3に記載の自由視点画像生成装置。
The three-dimensional object template model adjustment means
The height of the object is estimated from the object three-dimensional information extracted by the object three-dimensional information extraction means, and the fat ratio and the waist-hip ratio are estimated from around each part in the three-dimensional shape. 4. The free viewpoint image generation device according to claim 3, wherein the value of the parameter related to the size defined in the dimensional object template model is adjusted.
前記3次元オブジェクトテンプレートモデル調整手段は、
前記オブジェクト3次元情報抽出手段により抽出されたオブジェクト3次元情報から人体の各部位間の18個の節点を検出してその位置を検出し、これにより前記調整可能3次元オブジェクトテンプレートモデルで定義されている変形に関するパラメータの値を調整することを特徴とする請求項4に記載の自由視点画像生成装置。
The three-dimensional object template model adjustment means
From the object three-dimensional information extracted by the object three-dimensional information extraction means, 18 nodes between each part of the human body are detected and their positions are detected, thereby defining the adjustable three-dimensional object template model 5. The free viewpoint image generating device according to claim 4, wherein values of parameters related to the deformation are adjusted.
前記射影変換手段は、
任意の仮想視点を指定し、前記3次元オブジェクトテンプレートモデル調整手段により調整された3次元オブジェクトテンプレートモデルを該仮想視点からみたときのカメラ画像に射影変換することを特徴する請求項1ないしのいずれか1つに記載の自由視点画像生成装置。
The projection conversion means
An optional virtual viewpoint, either a three-dimensional object template model adjusted by the three-dimensional object template model adjustment means according to claim 1 to 8, characterized in that projective transformation on the camera image when viewed from the virtual viewpoint The free viewpoint image generation device according to any one of the above.
さらに、前記射影変換手段により生成された自由視点画像に着色を施す着色手段を備えたことを特徴とする請求項1ないしのいずれか1つに記載の自由視点画像生成装置。 Furthermore, free viewpoint image generating apparatus according to any one of claims 1 to 9, characterized in that it comprises a coloring unit for performing coloring on the free viewpoint image generated by the projective transformation means. さらに、前記射影変換手段により生成された自由視点画像に背景画像を合成して合成画像を生成する背景画像合成手段を備えたことを特徴とする請求項10に記載の自由視点画像生成装置。 11. The free viewpoint image generating apparatus according to claim 10 , further comprising background image combining means for combining the background image with the free viewpoint image generated by the projective transformation means to generate a composite image. 請求項11の自由視点画像生成装置を備え、
さらに、任意の仮想視点の両側のカメラで取得された2枚のカメラ画像を用いて内挿補間技術で自由視点画像を生成する自由視点画像生成装置と、
該自由視点画像生成装置で生成された自由視点画像と請求項11の自由視点画像生成装置で生成された自由視点画像の画質を評価する評価手段を備え、
前記評価手段での評価が高い方の自由視点画像を出力することを特徴とする自由視点画像生成装置。
An apparatus for generating a free viewpoint image according to claim 11;
Furthermore, a free viewpoint image generation device that generates a free viewpoint image by interpolation using two camera images acquired by cameras on both sides of an arbitrary virtual viewpoint.
An evaluation unit that evaluates the image quality of the free viewpoint image generated by the free viewpoint image generation apparatus and the free viewpoint image generated by the free viewpoint image generation apparatus according to claim 11 ;
A free-viewpoint image generating apparatus characterized by outputting a free-viewpoint image having a higher evaluation by the evaluation means.
前記評価手段は、
自由視点画像のパワースペクトルを解析して各自由視点画像の画質を評価することを特徴とする請求項12に記載の自由視点画像生成装置。
The evaluation means is
The apparatus according to claim 12 , wherein the power spectrum of the free viewpoint image is analyzed to evaluate the image quality of each free viewpoint image.
間隔を置いて固定配置された複数台のカメラで撮影されたオブジェクトのカメラ画像から任意の仮想視点での自由視点画像を生成する自由視点画像生成方法であって、
各カメラ画像からオブジェクト2次元情報を抽出する第1のステップと、
前記第1のステップにより抽出されたオブジェクト2次元情報と予めキャリブレーションを行うことで各カメラのパラメータと3次元座標系の各点と2次元座標系の各点との間の関係から求められた各カメラのパラメータを用いてオブジェクト3次元情報を抽出する第2のステップであって、複数枚のカメラ画像のうち1つのカメラ画像を参照画像として該参照画像のオブジェクト領域の特徴点を抽出し、該参照画像以外のカメラ画像それぞれのオブジェクト領域における、前記参照画像の特徴点とマッチングする特徴点を抽出し、これらの特徴点の位置と前記各カメラのパラメータからオブジェクトの3次元点群を生成し、該3次元点群からオブジェクトの3次元輪郭および3次元骨格を前記オブジェクト3次元情報として生成する第2のステップと、
前記第2のステップにより抽出されたオブジェクト3次元情報から3次元オブジェクトの各部位のサイズに関するパラメータおよび変形に関するパラメータを推定し、該パラメータに従って、予め設定された調整可能3次元オブジェクトテンプレートモデルのサイズを調整し、変形させる第3のステップと、
前記第3のステップにより調整され、変形された3次元オブジェクトテンプレートモデルに対して任意の仮想視点に対応した射影変換を施すことにより該仮想視点での自由視点画像を生成する第4のステップを含むことを特徴とする自由視点画像生成方法。
A free-viewpoint image generation method for generating a free-viewpoint image at an arbitrary virtual viewpoint from camera images of objects captured by a plurality of cameras fixedly arranged at intervals.
A first step of extracting object two-dimensional information from each camera image;
The object two-dimensional information extracted in the first step is calibrated in advance from the parameters of each camera and each point of the three-dimensional coordinate system and each point of the two-dimensional coordinate system by performing calibration A second step of extracting object three-dimensional information by using parameters of each camera, extracting a feature point of an object region of the reference image using one camera image of a plurality of camera images as a reference image; Feature points in the object region of each camera image other than the reference image are extracted, and a three-dimensional point group of the object is generated from the positions of these feature points and the parameters of each camera A second method of generating a three-dimensional contour and a three-dimensional skeleton of an object from the three-dimensional point group as the three-dimensional object information; And the step,
From the object three-dimensional information extracted in the second step, a parameter relating to the size of each part of the three-dimensional object and a parameter relating to deformation are estimated, and the size of the adjustable three-dimensional object template model set in advance is calculated according to the parameters. A third step of adjusting and deforming ,
Including a fourth step of generating a free viewpoint image of the virtual viewpoint by performing projective transformation corresponding to an arbitrary virtual viewpoint on the three-dimensional object template model adjusted and deformed in the third step; A free viewpoint image generation method characterized in that.
さらに、前記第4のステップにより生成された自由視点画像に着色を施す第5のステップと、
前記第5のステップにより着色された自由視点画像に背景画像を合成して合成画像を生成する第6のステップを含むことを特徴とする請求項14に記載の自由視点画像生成方法。
Further, a fifth step of coloring the free viewpoint image generated in the fourth step;
The method according to claim 14 , further comprising a sixth step of combining the background image with the free viewpoint image colored in the fifth step to generate a composite image.
間隔を置いて固定配置された複数台のカメラで撮影されたオブジェクトのカメラ画像から任意の仮想視点での自由視点画像を生成する自由視点画像生成装置としてコンピュータを機能させるプログラムであって、コンピュータを、
各カメラ画像からオブジェクト2次元情報を抽出するオブジェクト2次元情報抽出手段と、
前記オブジェクト2次元情報抽出手段により抽出されたオブジェクト2次元情報と予めキャリブレーションを行うことで各カメラのパラメータと3次元座標系の各点と2次元座標系の各点との間の関係から求められた各カメラのパラメータを用いてオブジェクト3次元情報を抽出するオブジェクト3次元情報抽出手段であって、複数枚のカメラ画像のうち1つのカメラ画像を参照画像として該参照画像のオブジェクト領域の特徴点を抽出し、該参照画像以外のカメラ画像それぞれのオブジェクト領域における、前記参照画像の特徴点とマッチングする特徴点を抽出し、これらの特徴点の位置と前記各カメラのパラメータからオブジェクトの3次元点群を生成し、該3次元点群からオブジェクトの3次元輪郭および3次元骨格を前記オブジェクト3次元情報として生成するオブジェクト3次元情報抽出手段と、
前記オブジェクト3次元情報抽出手段により抽出されたオブジェクト3次元情報から3次元オブジェクトの各部位のサイズに関するパラメータおよび変形に関するパラメータを推定し、該パラメータに従って、予め設定された調整可能3次元オブジェクトテンプレートモデルのサイズを調整し、変形させる3次元オブジェクトテンプレートモデル調整手段と、
前記3次元オブジェクトテンプレートモデル調整手段により調整され、変形された3次元オブジェクトテンプレートモデルに対して任意の仮想視点に対応した射影変換を施すことにより該仮想視点での自由視点画像を生成する射影変換手段として機能させるプログラム。
A program that causes a computer to function as a free viewpoint image generation device that generates a free viewpoint image at an arbitrary virtual viewpoint from camera images of objects captured by a plurality of cameras fixedly arranged at intervals. ,
Object two-dimensional information extraction means for extracting object two-dimensional information from each camera image;
Perform calibration in advance with the object two-dimensional information extracted by the object two-dimensional information extraction means, and obtain it from the relationship between the parameters of each camera and each point in the three-dimensional coordinate system and each point in the two-dimensional coordinate system Object three-dimensional information extracting means for extracting object three-dimensional information using the parameters of each of the selected cameras, wherein one camera image of a plurality of camera images is used as a reference image and the feature points of the object region of the reference image Are extracted, and feature points matching the feature points of the reference image in the object regions of camera images other than the reference image are extracted, and the positions of these feature points and the parameters of the respective cameras Generate a group, and from the three-dimensional point group, the three-dimensional contour and three-dimensional skeleton of the object And object three-dimensional information extracting means for generating a three-dimensional information,
Estimating the parameters relating to the parameters and modifications relating to the size of each part of the three-dimensional object from the object 3-dimensional information extracted by the object 3-dimensional information extracting means, in accordance with the parameters, the preset adjustable 3D object template model 3D object template model adjusting means for adjusting size and deforming ,
A projective transformation means for generating a free viewpoint image in the virtual viewpoint by applying a projective transformation corresponding to an arbitrary virtual viewpoint to the transformed three-dimensional object template model adjusted and deformed by the three-dimensional object template model adjusting means A program to function as
コンピュータを、
さらに、前記射影変換手段により生成された合成画像に着色を施す着色手段と、
前記着色手段により着色された自由視点画像に背景画像を合成して合成画像を生成する背景画像合成手段として機能させる請求項16に記載のプログラム。
Computer,
And coloring means for coloring the composite image generated by the projective transformation means.
The program according to claim 16 , wherein the program functions as background image combining means for combining the background image with the free viewpoint image colored by the coloring means to generate a combined image.
JP2014265133A 2014-12-26 2014-12-26 Free-viewpoint image generation device, method and program Active JP6501348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014265133A JP6501348B2 (en) 2014-12-26 2014-12-26 Free-viewpoint image generation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014265133A JP6501348B2 (en) 2014-12-26 2014-12-26 Free-viewpoint image generation device, method and program

Publications (2)

Publication Number Publication Date
JP2016126425A JP2016126425A (en) 2016-07-11
JP6501348B2 true JP6501348B2 (en) 2019-04-17

Family

ID=56359292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014265133A Active JP6501348B2 (en) 2014-12-26 2014-12-26 Free-viewpoint image generation device, method and program

Country Status (1)

Country Link
JP (1) JP6501348B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3951715A1 (en) * 2020-08-05 2022-02-09 Canon Kabushiki Kaisha Generation apparatus, generation method, and program

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6472486B2 (en) 2016-09-14 2019-02-20 キヤノン株式会社 Image processing apparatus, image processing method, and program
KR102382247B1 (en) * 2016-09-14 2022-04-08 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and computer program
WO2018078986A1 (en) 2016-10-24 2018-05-03 ソニー株式会社 Information processing device, information processing method, and program
US10389994B2 (en) * 2016-11-28 2019-08-20 Sony Corporation Decoder-centric UV codec for free-viewpoint video streaming
JP6676562B2 (en) * 2017-02-10 2020-04-08 日本電信電話株式会社 Image synthesizing apparatus, image synthesizing method, and computer program
JP6730204B2 (en) * 2017-02-10 2020-07-29 日本電信電話株式会社 Image synthesizing apparatus, image synthesizing method, and computer program
WO2018155703A1 (en) 2017-02-27 2018-08-30 Kddi株式会社 Image delivery system, terminal device, and image data delivery device
JP7042561B2 (en) * 2017-06-02 2022-03-28 キヤノン株式会社 Information processing equipment, information processing method
JP6409107B1 (en) 2017-09-06 2018-10-17 キヤノン株式会社 Information processing apparatus, information processing method, and program
KR102142567B1 (en) * 2017-09-15 2020-08-07 주식회사 케이티 Image composition apparatus using virtual chroma-key background, method and computer program
JP6433559B1 (en) * 2017-09-19 2018-12-05 キヤノン株式会社 Providing device, providing method, and program
JP6958837B2 (en) * 2017-11-27 2021-11-02 地方独立行政法人東京都立産業技術研究センター Body shape data conversion device, body shape data conversion method and program
CN109840934A (en) * 2017-11-29 2019-06-04 深圳市掌网科技股份有限公司 A kind of the threedimensional model generation method and system of workpiece
JP7187182B2 (en) * 2018-06-11 2022-12-12 キヤノン株式会社 Data generator, method and program
JP7395189B2 (en) 2018-11-22 2023-12-11 国立大学法人 東京大学 Motion capture camera system and calibration method
US10839594B2 (en) * 2018-12-11 2020-11-17 Canon Kabushiki Kaisha Method, system and apparatus for capture of image data for free viewpoint video
KR102152436B1 (en) * 2019-03-04 2020-09-04 광운대학교 산학협력단 A skeleton processing system for dynamic 3D model based on 3D point cloud and the method thereof
KR102152432B1 (en) * 2019-03-04 2020-10-26 광운대학교 산학협력단 A real contents producing system using the dynamic 3D model and the method thereof
JP7356063B2 (en) 2020-02-20 2023-10-04 日本電信電話株式会社 Height estimation method, height estimation device and program
JP7390265B2 (en) 2020-08-07 2023-12-01 Kddi株式会社 Virtual viewpoint video rendering device, method and program
JP2023157799A (en) * 2022-04-15 2023-10-26 パナソニックIpマネジメント株式会社 Viewer control method and information processing device
KR102629889B1 (en) * 2022-11-29 2024-01-31 한국생산기술연구원 Projection Mapping Method through Calibration Process Using Depth Rgb Data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7538774B2 (en) * 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP5366258B2 (en) * 2010-02-17 2013-12-11 Kddi株式会社 Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3951715A1 (en) * 2020-08-05 2022-02-09 Canon Kabushiki Kaisha Generation apparatus, generation method, and program
US11776213B2 (en) 2020-08-05 2023-10-03 Canon Kabushiki Kaisha Pose generation apparatus, generation method, and storage medium

Also Published As

Publication number Publication date
JP2016126425A (en) 2016-07-11

Similar Documents

Publication Publication Date Title
JP6501348B2 (en) Free-viewpoint image generation device, method and program
JP6425780B1 (en) Image processing system, image processing apparatus, image processing method and program
Hasler et al. Multilinear pose and body shape estimation of dressed subjects from image sets
JP6344050B2 (en) Image processing system, image processing apparatus, and program
KR101199475B1 (en) Method and apparatus for reconstruction 3 dimension model
KR100721536B1 (en) Method for restoring 3-dimension image using silhouette information in 2-dimension image
JP2010079453A5 (en)
KR20150113751A (en) Method and apparatus for acquiring three-dimensional face model using portable camera
US20100328308A1 (en) Three Dimensional Mesh Modeling
WO2013112749A1 (en) 3d body modeling, from a single or multiple 3d cameras, in the presence of motion
WO2016151691A1 (en) Image processing device, image processing system, image processing method, and program
JP2013235537A (en) Image creation device, image creation program and recording medium
JP6409433B2 (en) Image generation apparatus, image detection system, and image generation method
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
JP2018129007A (en) Learning data generation apparatus, learning apparatus, estimation apparatus, learning data generation method, and computer program
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
JP2015233266A (en) Image processing system, information processing device, and program
KR101021027B1 (en) Stereoscopic 3D Measuring System and Method for Efficiency Evaluation of Skin Products
JP2010211732A (en) Object recognition device and method
Deepu et al. 3D Reconstruction from Single 2D Image
KR20160049639A (en) Stereoscopic image registration method based on a partial linear method
Rubio-Paramio et al. An interactive photogrammetric method for assessing deer antler quality using a parametric Computer-Aided Design system (Interactive Photogrammetric Measure Method)
JP6641313B2 (en) Region extraction device and program
Dutreve et al. Easy rigging of face by automatic registration and transfer of skinning parameters

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190315

R150 Certificate of patent or registration of utility model

Ref document number: 6501348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150