JP5561786B2 - Three-dimensional shape model high accuracy method and program - Google Patents
Three-dimensional shape model high accuracy method and program Download PDFInfo
- Publication number
- JP5561786B2 JP5561786B2 JP2011074340A JP2011074340A JP5561786B2 JP 5561786 B2 JP5561786 B2 JP 5561786B2 JP 2011074340 A JP2011074340 A JP 2011074340A JP 2011074340 A JP2011074340 A JP 2011074340A JP 5561786 B2 JP5561786 B2 JP 5561786B2
- Authority
- JP
- Japan
- Prior art keywords
- shaping
- shape model
- dimensional shape
- visual hull
- shaped
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、被写体を撮影した画像と背景のみを撮影した画像から、被写体3次元モデルを高精度に復元する方法およびプログラムに関する。 The present invention relates to a method and program for restoring a subject three-dimensional model with high accuracy from an image obtained by photographing a subject and an image obtained by photographing only a background.
自由視点映像の画質は、モデルベースの合成方式を考えた場合、多視点映像より生成される3次元形状モデルの精度に大きく左右される。多視点映像をもとに被写体の3次元形状モデル(3次元ボクセルデータ)を構築する代表的な手法として視体積交差法がある(非特許文献1)。しかしながら、この方法には、物体の凹領域を復元できないという原理的課題があった。 The image quality of the free viewpoint video greatly depends on the accuracy of the three-dimensional shape model generated from the multi-view video when considering a model-based synthesis method. There is a visual volume intersection method as a typical method for constructing a three-dimensional shape model (three-dimensional voxel data) of a subject based on a multi-viewpoint image (Non-Patent Document 1). However, this method has a fundamental problem that the concave area of the object cannot be restored.
上記の原理的課題に対して、非特許文献2で提案されるspace carvingを始めとした様々な手法が提案されている。また、特願2009−195334号では、各カメラ画像間でステレオマッチングをもとに高精度化する手法が提案されている。 Various methods such as space carving proposed in Non-Patent Document 2 have been proposed with respect to the above-described principle problem. Japanese Patent Application No. 2009-195334 proposes a technique for improving the accuracy of each camera image based on stereo matching.
Visual Hull高精度化に関する研究として、Photo Consistencyのみならず、Visual Hull表面形状の安定性を考慮したエネルギー関数を定義し、最適化の枠組みにより形状を補正する手法が提案されている。非特許文献3では、ステレオマッチングによる整形手法が提案されている。当該手法は、Photo Consistencyによりカメラから被写体までの距離値をVisual Hull内側へ押し込むための外力と、Visual Hull表面の局所的な形状特徴を維持するための内力の線形結合により評価関数を定義し、最小化する距離値を求めることで、被写体の表面形状を決定する。Space carving等の単一ボクセルに注目する手法に比べて、表面上に不自然な凹凸が発生することが少なく、滑らかな形状を復元できる結果が示されている。 As a study on high accuracy of Visual Hull, not only Photo Consistency but also a method of defining an energy function considering the stability of the Visual Hull surface shape and correcting the shape by an optimization framework has been proposed. Non-Patent Document 3 proposes a shaping method based on stereo matching. The method defines an evaluation function by a linear combination of an external force for pushing the distance value from the camera to the subject into the Visual Hull inside by Photo Consistency and an internal force for maintaining the local shape feature of the Visual Hull surface. The surface shape of the subject is determined by obtaining the distance value to be minimized. Compared to a method that focuses on a single voxel such as Space carving, the result is that unnatural irregularities are less likely to occur on the surface, and a smooth shape can be restored.
一方、ボクセル空間中での隣接関係を考慮したグラフカットによりVisual Hullの整形を行う手法が提案されている。非特許文献4では、Visual Hull表面近傍のボクセルに関して、ボクセル単体のPhoto Consistencyに基づくエネルギーと、ボクセル間の隣接関係に基づくエネルギー関数を定義し、グラフカットを適用することで、滑らかな形状を復元できることを示している。さらに、Visual Hullの内側に、被写体が確実に存在すると仮定するCore領域を設け、グラフカットの適用範囲をVisual Hull表面とCore領域間に限定することで、被写体領域が誤って削られる可能性を低減することに成功している。 On the other hand, a method for shaping Visual Hull by graph cut in consideration of the adjacency relationship in the voxel space has been proposed. In Non-Patent Document 4, for voxels near the Visual Hull surface, energy based on Photo Consistency of voxels alone and energy function based on adjacency relationship between voxels is defined, and smooth shape is restored by applying graph cut It shows what you can do. Furthermore, by providing a Core area that assumes that the subject is surely present inside the Visual Hull, and limiting the application range of the graph cut between the Visual Hull surface and the Core area, the subject area may be accidentally shaved. It has succeeded in reducing.
しかしながら、非特許文献2に記載の提案方式等のほとんどの手法は、ボクセル単体のPhoto Consistencyのみに注目して除去するか否かを決定するため、最終的に獲得されるVisual Hullの復元精度は、被写体のテクスチャ状態に大きく依存するという問題があった。また、特願2009−195334号では、マッチング誤差の影響により復元精度が低下するという問題が顕著であった。 However, since most of the methods such as the proposed method described in Non-Patent Document 2 determine whether or not to remove by focusing only on Photo Consistency of a single voxel, the restoration accuracy of Visual Hall finally obtained is There is a problem that it largely depends on the texture state of the subject. In Japanese Patent Application No. 2009-195334, the problem that the restoration accuracy is lowered due to the influence of the matching error is significant.
また、非特許文献3の手法では、最終的な復元結果は、ステレオマッチングの探索精度に大きく依存するため、被写体のテクスチャ変化が少ない領域では十分な復元精度が得られないという問題が残っている。 In the method of Non-Patent Document 3, since the final restoration result largely depends on the search accuracy of stereo matching, there remains a problem that sufficient restoration accuracy cannot be obtained in a region where the texture change of the subject is small. .
また、非特許文献4の手法では、ボクセル間の隣接関係に基づくエネルギー関数が、単純にボクセル単体のエネルギー値の平均で定義されているため、ボクセル空間中の隣接関係を十分に考慮できているとは言えない。また、グラフカットの適用が一回に限定されているのに加え、適用結果を評価するプロセスが存在しないため、最終的に復元される3次元形状モデルに、背景領域が含まれる可能性が高いと考えられる。 In the method of Non-Patent Document 4, since the energy function based on the adjacency relationship between voxels is simply defined by the average of the energy values of a single voxel, the adjacency relationship in the voxel space can be sufficiently considered. It can not be said. In addition to the fact that the application of the graph cut is limited to one time, there is no process for evaluating the application result, so there is a high possibility that the background region is included in the finally restored three-dimensional shape model it is conceivable that.
以上の問題点を踏まえ、本発明では、ボクセル空間中での連続性を十分に考慮するとともに、整形過程の3次元形状モデルをもとに、実カメラ視点で生成される自由視点画像の画質を評価するプロセスを導入することで、3次元形状モデルのテクスチャ状態を考慮したVisual Hull高精度化方法およびプログラムを提供することを目的とする。 Based on the above problems, the present invention fully considers the continuity in the voxel space and, based on the three-dimensional shape model of the shaping process, determines the image quality of the free viewpoint image generated from the real camera viewpoint. It is an object of the present invention to provide a Visual Hull high-accuracy method and program in consideration of the texture state of a three-dimensional shape model by introducing a process for evaluation.
上記目的を実現するため本発明による3次元形状モデル高精度化方法は、多視点のカメラ画像から被写体の3次元形状モデルを復元する方法であって、各撮像カメラの被写体シルエット画像から視体積交差法により復元されたVisual Hullあるいは整形されたVisual Hullを入力とし、該Visual Hullの表面に存在するボクセルのオブジェクトらしさに関する尤度を算出する算出ステップと、前記オブジェクトらしさに関する尤度をもとに当該Visual Hullの整形を行う第1の整形ステップと、前記第1の整形ステップで整形されたVisual Hullと前記算出ステップで入力とした直前のVisual Hullとの比較をもとにVisual Hullの整形が収束したか否かを判定し、Visual Hullの整形が収束したと判定されるまで、前記第1の整形ステップで整形されたVisual Hullを前記算出ステップの入力として、前記算出ステップと前記第1の整形ステップを繰り返し適用する第1の収束ステップと、前記第1の収束ステップで整形が収束したと判定されたVisual Hullから獲得される3次元形状モデルあるいは整形された3次元形状モデルを入力とし、該3次元形状モデルのテクスチャ状態を評価する評価ステップと、前記3次元形状モデルのテクスチャ状態の評価をもとに該3次元形状モデルの整形を行う第2の整形ステップと、前記第2の整形ステップで整形された3次元形状モデルと前記評価ステップで入力とした直前の3次元形状モデルとの比較をもとに3次元形状モデルの整形が収束したか否かを判定し、3次元形状モデルの整形が収束したと判定されるまで、前記第2の整形ステップで整形された3次元形状モデルを前記評価ステップの入力として、前記評価ステップと前記第2の整形ステップを繰り返し適用する第2の収束ステップとを含む。 3-dimensional shape model accuracy enhancement method according to the present invention for achieving the above object, a method for restoring a three-dimensional shape model of the object from the multi-view camera image, the volume intersection viewed from the object silhouette image of each imaging camera as input Visual Hull or the shaped Visual Hull restored by law, a calculation step of calculating the likelihood for an object ness of voxels on the surface of the Visual Hull, the based on the likelihood for said object ness Based on the comparison between the first shaping step for shaping the Visual Hull, the Visual Hull shaped in the first shaping step, and the last Visual Hull input in the calculation step, the shaping of the Visual Hull is converged. and whether or not the decision was, Vis it is determined that shaping al Hull has converged until a Visual Hull shaped by the first shaping step as the input of the calculation step, a first applying repeatedly said first shaping step and the calculation step The three-dimensional shape model acquired from the Visual Hull that is determined to have converged in the convergence step and the first convergence step or the shaped three-dimensional shape model is input, and the texture state of the three-dimensional shape model is input. An evaluation step for evaluation, a second shaping step for shaping the three-dimensional shape model based on the evaluation of the texture state of the three-dimensional shape model, and the three-dimensional shape model shaped in the second shaping step And 3D shape model shaping based on the comparison with the previous 3D shape model input in the evaluation step. It is determined whether or not the bundle, it is determined that the shaping of a three-dimensional shape model has converged until a three-dimensional shape model that is shaped by the second shaping step as the input of said evaluation step, and the evaluation step A second convergence step that repeatedly applies the second shaping step.
また、前記算出ステップは、前記Visual Hullの表面に存在する各ボクセルを各撮影カメラ視点に投影し、撮影カメラ間における投影画素値の分散を算出し、前記分散を正規化することで前記オブジェクトらしさに関する尤度を算出することも好ましい。 Further, the calculating step projects each voxel existing on the surface of the Visual Hull onto each photographing camera viewpoint, calculates a variance of projection pixel values between the photographing cameras, and normalizes the variance to thereby make the object likeness. It is also preferable to calculate the likelihood for.
また、前記第1の整形ステップは、3次元ボクセル空間における各ボクセル間の隣接関係を考慮したエネルギー関数を定義し、前記エネルギー関数を最小化する枠組みで、各ボクセルを被写体領域または背景領域のいずれかに割り当てることで被写体領域を決定し、背景領域を不要部として除去することで、整形を行うことも好ましい。 In the first shaping step, an energy function is defined that considers the adjacent relationship between the voxels in the three-dimensional voxel space, and each voxel is defined as a subject area or a background area in a framework that minimizes the energy function. It is also preferable to perform shaping by deciding the subject area by assigning it and removing the background area as an unnecessary part.
また、前記第1の収束ステップは、前記第1の整形ステップで整形されたVisual Hullと前記算出ステップで入力とした直前のVisual Hullを比較し、表面として指定したボクセルより内側のボクセルが削られていない場合を整形が収束したと判定することも好ましい。 In the first convergence step, the Visual Hull shaped in the first shaping step is compared with the Visual Hull just input as input in the calculation step, and the voxel inside the voxel designated as the surface is cut. It is also preferable to determine that the shaping has converged when it is not.
また、前記評価ステップは、各撮影カメラ視点で、前記3次元形状モデルから生成される自由視点画像と前記カメラ画像との差分画像を抽出することで、該3次元形状モデルのテクスチャ状態を評価することも好ましい。 In addition, the evaluation step, in the imaging camera viewpoint, by extracting a difference image between the free viewpoint image generated from the 3-dimensional shape model and the camera image, evaluating the texture state of the three-dimensional shape model It is also preferable to do .
また、前記第2の整形ステップは、各撮影カメラ視点において、前記差分画像の画素間での隣接関係を考慮したエネルギー関数を定義し、前記エネルギー関数を最小化する枠組みで、各画素を被写体領域または背景領域のいずれに割り当てるかを決定し、背景領域と判断される整形候補内に存在する画素の光線を探索し、前記3次元形状モデルとの交点を不要部として除去することで、前記3次元形状モデルの整形を行うことも好ましい。 In the second shaping step, an energy function that considers the adjacent relationship between the pixels of the difference image is defined at each photographing camera viewpoint, and each pixel is applied to a subject area in a framework that minimizes the energy function. Alternatively, it is determined which one of the background areas is to be assigned, the light rays of the pixels existing in the shaping candidates determined to be the background area are searched, and the intersection with the three-dimensional shape model is removed as an unnecessary part, thereby It is also preferable to shape the dimensional shape model.
また、前記第2の収束ステップは、前記第2の整形ステップで整形された3次元形状モデルと前記評価ステップで入力とした直前の3次元形状モデルを比較し、削られるボクセル数が一定数以下である場合を整形が収束したと判定することも好ましい。 The second convergence step is to compare the three-dimensional shape model immediately before was input in the second of said evaluation step and the shaped three-dimensional shape model by shaping step, the number of voxels is than one constant to be scraped It is also preferable to determine that the shaping has converged .
上記目的を実現するため本発明によるプログラムは、多視点のカメラ画像から被写体の3次元形状モデルを復元するためのコンピュータを、各撮像カメラの被写体シルエット画像から視体積交差法により復元されたVisual Hullあるいは整形されたVisual Hullを入力とし、該Visual Hullの表面に存在するボクセルのオブジェクトらしさに関する尤度を算出する算出手段と、前記オブジェクトらしさに関する尤度をもとに当該Visual Hullの整形を行う第1の整形手段と、前記第1の整形手段で整形されたVisual Hullと前記算出手段で入力とした直前のVisual Hullとの比較をもとにVisual Hullの整形が収束したか否かを判定し、Visual Hullの整形が収束したと判定されるまで、前記第1の整形手段で整形されたVisual Hullを前記算出手段の入力として、前記算出手段と前記第1の整形手段を繰り返し適用する第1の収束手段と、前記第1の収束手段で整形が収束したと判定されたVisual Hullから獲得される3次元形状モデルあるいは整形された3次元形状モデルを入力とし、該3次元形状モデルのテクスチャ状態を評価する評価手段と、前記3次元形状モデルのテクスチャ状態の評価をもとに該3次元形状モデルの整形を行う第2の整形手段と、前記第2の整形手段で整形された3次元形状モデルと前記評価手段で入力とした直前の3次元形状モデルとの比較をもとに3次元形状モデルの整形が収束したか否かを判定し、前記3次元形状モデルの整形が収束したと判定されるまで、前記第2の整形手段で整形された3次元形状モデルを前記評価手段の入力として、前記評価手段と前記第2の整形手段を繰り返し適用する第2の収束手段として機能させ、3次元形状モデルを復元する。 In order to achieve the above object, a program according to the present invention uses a computer for restoring a three-dimensional shape model of a subject from multi-viewpoint camera images, and a visual hull restored from the subject silhouette images of each imaging camera by a visual volume intersection method. or as input the shaped Visual Hull, first performs a calculation means for calculating the likelihood for an object ness of voxels on the surface of the Visual Hull, the original to shaping of the Visual Hull a likelihood for said object ness It is determined whether or not the Visual Hull shaping has converged based on a comparison between the first shaping means and the Visual Hull shaped by the first shaping means and the last Visual Hull input by the calculation means. , convergence is shaping of the Visual Hull Is determined that until the Visual Hull shaped by the first shaping means as an input of said calculation means, a first converging means for repeatedly applying the said calculating means first shaping means, said first The evaluation means for evaluating the texture state of the three-dimensional shape model, using as input the three-dimensional shape model acquired from the Visual Hull that has been determined that the shaping has converged by the convergence means, or the shaped three-dimensional shape model ; a second shaping means based on the evaluation of the texture state of the three-dimensional shape model performs shaping of the three-dimensional shape model, and input in the second three-dimensional geometric model and the evaluation means being shaped by the shaping means Based on the comparison with the immediately preceding three-dimensional shape model, it is determined whether or not the shaping of the three-dimensional shape model has converged, and it is determined that the shaping of the three-dimensional shape model has converged. Re until the three-dimensional shape model that is shaped by the second shaping means as an input of the evaluation unit, to serve as a second converging means for repeatedly applying said second shaping means and the evaluation means, 3 Restore the dimensional shape model.
本発明により、Visual Hullの高精度化を実現でき、最終的に復元される3次元形状をもとに生成される自由視点映像を高画質化することが可能となる。 According to the present invention, it is possible to achieve high accuracy of Visual Hull, and it is possible to improve the quality of a free viewpoint video generated based on the finally restored three-dimensional shape.
本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。提案手法は、ボクセル空間中での連続性を考慮した整形、および各視点での自由視点画像の画質を考慮した整形を特徴とする。本発明によるフローチャートを図1に示す。ある時刻1フレーム分の多視点カメラ画像と、各視点のカメラパラメータ、および各カメラの被写体シルエット画像から視体積交差法で復元されるVisual Hullを入力として、最終的に整形済みの3次元形状モデルを出力し、処理を終了する。以下、本フローチャートに基づいて説明する。 The best mode for carrying out the present invention will be described in detail below with reference to the drawings. The proposed method is characterized by shaping in consideration of continuity in the voxel space and shaping in consideration of the image quality of the free viewpoint image at each viewpoint. A flowchart according to the present invention is shown in FIG. A three-dimensional shape model that has been finally shaped by inputting a multi-view camera image for one frame of time, a camera parameter of each viewpoint, and a Visual Hull restored by the visual volume intersection method from the subject silhouette image of each camera. Is output and the process ends. Hereinafter, description will be given based on this flowchart.
ステップ1:Visual Hull表面近傍のボクセルのオブジェクトらしさを算出する。図2に示すように、ボクセル空間内のVisual Hull表面近傍を各カメラ視点に投影する。視点i(i=1,…,N)に投影された、カメラ画像内の座標をviとし、この点での投影画素値は、特定の色空間における多次元ベクトルx(vi)として表される。色空間は例えば、RGB空間が挙げられる。オブジェクトらしさに関する尤度を算出するため、投影画素値の各カメラ視点での平均および分散を算出する。
平均ベクトルu(vi)は、
分散ベクトルσ(vi)は、
The mean vector u (v i ) is
The variance vector σ (v i ) is
この分散を正規化することにより、オブジェクトらしさに関する尤度を求める。なお、正規化とは、σ2(vi)(i=1,…,N)の最大値でσ2(vi)を除算して、最大値を1.0にしたものである。以下の式に現れているσ2は、すべて正規化された後の分散を表している。 By normalizing this variance, the likelihood related to object-likeness is obtained. Note that normalization is obtained by dividing σ 2 (v i ) by the maximum value of σ 2 (v i ) (i = 1,..., N) and setting the maximum value to 1.0. [Sigma] 2 appearing in the following expression represents the variance after normalization.
ステップ2:ボクセル空間中でのエネルギー関数を定義する。
エネルギー関数は、
The energy function is
U(v;av)は、各ボクセル単体の尤度値のみに依存するデータ項であり、avで指定される領域に割り当てる場合のエネルギー値は、以下の式で与えられる。
一方、V(v;av)は、平滑化項であり、隣接ボクセル間の尤度値の差をもとに以下の式で算出される.
ステップ3:エネルギー最小化に基づくVisual Hullの整形を行う。上記エネルギー値E(v;av)が最小になるように、画素値に0または1を割り当てる。これにより、Visual Hullの整形を行う。エネルギー値の最小化は、例えば、Graph-cutのアルゴリズムを用いる。ここで、av=0、つまり背景領域に割り当てられたボクセルを不要部として除去する。 Step 3: Perform Visual Hull shaping based on energy minimization. 0 or 1 is assigned to the pixel value so that the energy value E (v; a v ) is minimized. As a result, Visual Hull is shaped. For example, Graph-cut algorithm is used to minimize the energy value. Here, a v = 0, that is, voxels assigned to the background area are removed as unnecessary portions.
ステップ4:収束判定を行う。ステップ3で得られたVisual Hullとステップ1の入力のVisual Hullとを比較して、表面近傍のボクセルより内側のボクセルが削れていない場合、または削れたボクセルの数が一定の閾値内になったかどうかで収束判定を行う。収束が十分でないとき、ステップ3で得られたVisual Hullをステップ1の入力としてステップ1からステップ3を繰り返す。 Step 4: Determine convergence. If the Visual Hull obtained in Step 3 is compared with the Visual Hull input in Step 1, the voxels inside the voxels near the surface are not shaved, or the number of shaved voxels falls within a certain threshold. Convergence judgment is done by somehow. When the convergence is not sufficient, Step 1 to Step 3 are repeated with Visual Hull obtained in Step 3 as input of Step 1.
ステップ5:各カメラ視点において、ステップ3で得られたVisual Hullから獲得された3次元形状モデルをもとに自由視点画像を生成し、自由視点画像と撮影画像との差分画像を算出する。以下のステップでは、3次元形状モデルのテクスチャ状態を評価することにより、3次元形状モデルの整形を行う。 Step 5: At each camera viewpoint, a free viewpoint image is generated based on the three-dimensional shape model acquired from the Visual Hull obtained in Step 3, and a difference image between the free viewpoint image and the captured image is calculated. In the following steps, the three-dimensional shape model is shaped by evaluating the texture state of the three-dimensional shape model.
ステップ6:各撮影カメラ視点で、差分画像中でのエネルギー関数を定義する。各撮影カメラ視点において、前記差分画像の画素間での隣接関係を考慮したエネルギー関数を以下のように定義する。
U(v;ap)は、差分画像の各画素の尤度値のみに依存するデータ項であり、apで指定される領域に割り当てる場合のエネルギー値は、以下の式で与えられる。
一方、V(v;ap)は、平滑化項であり、隣接画素間の画素値の差をもとに以下の式で算出される.
ステップ7:エネルギー最小化に基づき、Visual Hullの整形候補を特定する。上記エネルギー値E(v;ap)が最小になるように、画素値に0または1を割り当てる。これにより、Visual Hullの整形候補を特定する。エネルギー値の最小化は、例えば、Graph-cutのアルゴリズムを用いる。 Step 7: Identify Visual Hull shaping candidates based on energy minimization. 0 or 1 is assigned to the pixel value so that the energy value E (v; a p ) is minimized. Thereby, the Visual Hull shaping candidate is specified. For example, Graph-cut algorithm is used to minimize the energy value.
ステップ8:Visual Hull整形候補に含まれる各画素の光線を探索し、3次元形状モデルとの交点を除去する。上記のステップ5から7は、各視点i(i=1,…,N)のカメラ画像に行われる。ap=0、つまり背景領域に割り当てた画素の光線を探索し、3次元形状モデルとの交点を不要部として除去する。これをすべてのカメラ画像に対して行い、不要なボクセルを削る。 Step 8: Search the ray of each pixel included in the Visual Hull shaping candidate and remove the intersection with the three-dimensional shape model. The above steps 5 to 7 are performed on the camera image of each viewpoint i (i = 1,..., N). a p = 0, that is, search for the ray of the pixel assigned to the background area, and remove the intersection with the three-dimensional shape model as an unnecessary part. This is performed for all camera images, and unnecessary voxels are removed.
ステップ9:収束判定を行う。ステップ8で得られた3次元形状モデルとステップ5の入力の3次元形状モデルとを比較して、表面近傍の内側のボクセルが削れていない場合、または削れたボクセルの数が一定の閾値内になったかどうかで収束判定を行う。収束が十分でないとき、ステップ8で得られた3次元形状モデルをステップ5の入力としてステップ5からステップ8を繰り返す。 Step 9: Perform convergence determination. The three-dimensional shape model obtained in step 8 is compared with the input three-dimensional shape model in step 5. If the inner voxel in the vicinity of the surface is not shaved, or the number of shaved voxels is within a certain threshold. Convergence is determined by whether or not When the convergence is not sufficient, Steps 5 to 8 are repeated using the three-dimensional shape model obtained in Step 8 as the input of Step 5.
次に、本発明の処理結果を実験結果により示す。実験は、凹領域を含む被写体を含む多視点画像を対象に、視体積交差法で復元されるVisual Hullに本発明の手法を適用した結果得られる3次元形状の精度を評価する。実験データとして、CGモデルを23視点に投影した画像と各視点のカメラパラメータ(中心射影行列)を用いた。 Next, the processing results of the present invention are shown by experimental results. In the experiment, the accuracy of the three-dimensional shape obtained as a result of applying the method of the present invention to the Visual Hull restored by the visual volume intersection method is evaluated for a multi-viewpoint image including a subject including a concave region. As experimental data, an image obtained by projecting the CG model onto 23 viewpoints and camera parameters (center projection matrix) of each viewpoint were used.
図3は、多視点カメラ画像の例を示す。図3aは視点02からのカメラ画像を、図3bは視点06からのカメラ画像を示す。図4は、オリジナルの3次元形状モデルを示す。図5は、入力のVisual Hullを示す。図6は、ステップ4を終了した時点で整形されたVisual Hullを示す。図7は、最終的に整形された3次元形状モデルを示す。 FIG. 3 shows an example of a multi-viewpoint camera image. FIG. 3 a shows a camera image from the viewpoint 02, and FIG. 3 b shows a camera image from the viewpoint 06. FIG. 4 shows the original three-dimensional shape model. FIG. 5 shows the input Visual Hull. FIG. 6 shows the Visual Hull that has been shaped when Step 4 is completed. FIG. 7 shows the finally shaped three-dimensional shape model.
図4と図5を比較すると、視体積交差法のみで作成されたVisual Hullは、物体の凹領域を復元できていないことが分かる。図4と図6を比較すると、本発明のステップ1から4の処理で、物体の凹領域が復元されていることが分かる。図6と図7を比較すると、本発明のステップ5から9の処理で、物体の凹領域がより正確に再現できていることが分かる。 Comparing FIG. 4 and FIG. 5, it can be seen that Visual Hull created only by the visual volume intersection method cannot restore the concave area of the object. Comparing FIG. 4 and FIG. 6, it can be seen that the concave region of the object is restored by the processing of steps 1 to 4 of the present invention. Comparing FIG. 6 and FIG. 7, it can be seen that the concave region of the object can be reproduced more accurately by the processing of steps 5 to 9 of the present invention.
上記の実験結果を定量的に示す。表1は、オリジナルの3次元形状モデルに対するPrecision/Recall/F値を示す。ここで、Recallは誤って削られたボクセルの比率を示し、Precisionは、本来削るべきボクセルが削れていない比率を示す。F値は、RecallとPrecisionをもとに計算された、3次元形状モデルの正確さを表す指標である。
表1によると、F値は、最終的に整形された3次元形状モデルが最も良い値を示し、本発明のステップ1から9を実行することにより、物体の凹領域が復元されていることが分かる。 According to Table 1, the three-dimensional shape model finally shaped shows the best F value, and the concave region of the object is restored by executing steps 1 to 9 of the present invention. I understand.
以上のように、本発明では、物体の凹領域の復元を行うことができ、Visual Hullの高精度化を実現でき、最終的に復元される3次元形状をもとに生成される自由視点映像を高画質化することが可能となる。 As described above, according to the present invention, the concave region of the object can be restored, the Visual Hull can be improved in accuracy, and the free viewpoint video generated based on the finally restored three-dimensional shape. Can be improved in image quality.
また、以上述べた実施形態は全て本発明を例示的に示すものであって限定的に示すものではなく、本発明は他の種々の変形態様および変更態様で実施することができる。従って本発明の範囲は特許請求の範囲およびその均等範囲によってのみ規定されるものである。 Moreover, all the embodiments described above are illustrative of the present invention and are not intended to limit the present invention, and the present invention can be implemented in other various modifications and changes. Therefore, the scope of the present invention is defined only by the claims and their equivalents.
Claims (8)
各撮像カメラの被写体シルエット画像から視体積交差法により復元されたVisual Hullあるいは整形されたVisual Hullを入力とし、該Visual Hullの表面に存在するボクセルのオブジェクトらしさに関する尤度を算出する算出ステップと、
前記オブジェクトらしさに関する尤度をもとに当該Visual Hullの整形を行う第1の整形ステップと、
前記第1の整形ステップで整形されたVisual Hullと前記算出ステップで入力とした直前のVisual Hullとの比較をもとにVisual Hullの整形が収束したか否かを判定し、Visual Hullの整形が収束したと判定されるまで、前記第1の整形ステップで整形されたVisual Hullを前記算出ステップの入力として、前記算出ステップと前記第1の整形ステップを繰り返し適用する第1の収束ステップと、
前記第1の収束ステップで整形が収束したと判定されたVisual Hullから獲得される3次元形状モデルあるいは整形された3次元形状モデルを入力とし、該3次元形状モデルのテクスチャ状態を評価する評価ステップと、
前記3次元形状モデルのテクスチャ状態の評価をもとに該3次元形状モデルの整形を行う第2の整形ステップと、
前記第2の整形ステップで整形された3次元形状モデルと前記評価ステップで入力とした直前の3次元形状モデルとの比較をもとに3次元形状モデルの整形が収束したか否かを判定し、3次元形状モデルの整形が収束したと判定されるまで、前記第2の整形ステップで整形された3次元形状モデルを前記評価ステップの入力として、前記評価ステップと前記第2の整形ステップを繰り返し適用する第2の収束ステップと、
を含むことを特徴とする3次元形状モデルを復元する方法。 A method for restoring a three-dimensional shape model of a subject from a multi-viewpoint camera image,
A calculation step for calculating a likelihood related to the object likeness of a voxel existing on the surface of the Visual Hull, using the Visual Hull restored by the visual volume intersection method or the shaped Visual Hull from the subject silhouette image of each imaging camera as an input ;
A first shaping step of based on shaping of the Visual Hull a likelihood for said object ness,
Based on the comparison between the Visual Hull shaped in the first shaping step and the previous Visual Hull input in the calculation step, it is determined whether or not the Visual Hull shaping has converged, and the Visual Hull shaping is completed. until it is determined converged with the Visual Hull shaped by the first shaping step as the input of the calculation step, a first converging step of repeatedly applying the said calculating step first shaping step,
An evaluation step for evaluating a texture state of the three-dimensional shape model by using the three-dimensional shape model acquired from the Visual Hull determined to have converged in the first convergence step or the shaped three-dimensional shape model as input. When,
A second shaping step of shaping of the three-dimensional shape model based on the evaluation of the texture state of the three-dimensional shape model,
It is determined whether or not the shaping of the 3D shape model has converged based on a comparison between the 3D shape model shaped in the second shaping step and the immediately preceding 3D shape model input in the evaluation step. , it is determined that the shaping of a three-dimensional shape model has converged until a three-dimensional shape model that is shaped by the second shaping step as the input of said evaluation step, repeat the second shaping step and the evaluation step A second convergence step to apply;
A method for restoring a three-dimensional shape model characterized by comprising:
前記Visual Hullの表面に存在する各ボクセルを各撮影カメラ視点に投影し、
撮影カメラ間における投影画素値の分散を算出し、
前記分散を正規化することで前記オブジェクトらしさに関する尤度を算出することを特徴とする請求項1に記載の方法。 The calculating step includes:
Projecting each voxel present on the surface of the Visual Hull onto each photographing camera viewpoint,
Calculate the variance of the projected pixel values between the shooting cameras,
The method according to claim 1, wherein the likelihood related to the object-likeness is calculated by normalizing the variance.
3次元ボクセル空間における各ボクセル間の隣接関係を考慮したエネルギー関数を定義し、
前記エネルギー関数を最小化する枠組みで、各ボクセルを被写体領域または背景領域のいずれかに割り当てることで被写体領域を決定し、背景領域を不要部として除去することで、整形を行うことを特徴とする請求項1または2に記載の方法。 The first shaping step includes
Define an energy function that considers the adjacency relationship between each voxel in the 3D voxel space,
In the framework of minimizing the energy function, the subject area is determined by assigning each voxel to either the subject area or the background area, and shaping is performed by removing the background area as an unnecessary part. The method according to claim 1 or 2.
前記第1の整形ステップで整形されたVisual Hullと前記算出ステップで入力とした直前のVisual Hullを比較し、
表面として指定したボクセルより内側のボクセルが削られていない場合を整形が収束したと判定することを特徴とする請求項3に記載の方法。 The first convergence step includes:
The Visual Hull shaped in the first shaping step is compared with the Visual Hull just before input in the calculation step ,
The method according to claim 3, wherein the shaping is determined to have converged when a voxel inside the voxel designated as the surface is not cut.
各撮影カメラ視点で、前記3次元形状モデルから生成される自由視点画像と前記カメラ画像との差分画像を抽出することで、該3次元形状モデルのテクスチャ状態を評価することを特徴とする請求項1から4のいずれか1項に記載の方法。 The evaluation step includes
In each photographic camera viewpoint, by extracting a difference image between the free viewpoint image generated from the 3-dimensional shape model and the camera image, claims and evaluating the texture state of the three-dimensional shape model Item 5. The method according to any one of Items 1 to 4.
各撮影カメラ視点において、前記差分画像の画素間での隣接関係を考慮したエネルギー関数を定義し、
前記エネルギー関数を最小化する枠組みで、各画素を被写体領域または背景領域のいずれに割り当てるかを決定し、
背景領域と判断される整形候補内に存在する画素の光線を探索し、前記3次元形状モデルとの交点を不要部として除去することで、前記3次元形状モデルの整形を行うことを特徴とする請求項5に記載の方法。 The second shaping step includes
At each shooting camera viewpoint, define an energy function that considers the adjacent relationship between the pixels of the difference image,
In a framework that minimizes the energy function, determine whether to assign each pixel to a subject area or a background area,
Searching for a ray of a pixel existing in a shaping candidate determined to be a background region, and removing the intersection with the three-dimensional shape model as an unnecessary part, thereby shaping the three-dimensional shape model The method of claim 5.
前記第2の整形ステップで整形された3次元形状モデルと前記評価ステップで入力とした直前の3次元形状モデルを比較し、
削られるボクセル数が一定数以下である場合を整形が収束したと判定することを特徴とする請求項6に記載の方法。 The second convergence step includes
Comparing the three-dimensional shape model shaped in the second shaping step with the previous three-dimensional shape model input in the evaluation step ;
The method of claim 6, shaping the case number of voxels to be scraped or less one constant and judging to have converged.
各撮像カメラの被写体シルエット画像から視体積交差法により復元されたVisual Hullあるいは整形されたVisual Hullを入力とし、該Visual Hullの表面に存在するボクセルのオブジェクトらしさに関する尤度を算出する算出手段と、
前記オブジェクトらしさに関する尤度をもとに当該Visual Hullの整形を行う第1の整形手段と、
前記第1の整形手段で整形されたVisual Hullと前記算出手段で入力とした直前のVisual Hullとの比較をもとにVisual Hullの整形が収束したか否かを判定し、Visual Hullの整形が収束したと判定されるまで、前記第1の整形手段で整形されたVisual Hullを前記算出手段の入力として、前記算出手段と前記第1の整形手段を繰り返し適用する第1の収束手段と、
前記第1の収束手段で整形が収束したと判定されたVisual Hullから獲得される3次元形状モデルあるいは整形された3次元形状モデルを入力とし、該3次元形状モデルのテクスチャ状態を評価する評価手段と、
前記3次元形状モデルのテクスチャ状態の評価をもとに該3次元形状モデルの整形を行う第2の整形手段と、
前記第2の整形手段で整形された3次元形状モデルと前記評価手段で入力とした直前の3次元形状モデルとの比較をもとに3次元形状モデルの整形が収束したか否かを判定し、前記3次元形状モデルの整形が収束したと判定されるまで、前記第2の整形手段で整形された3次元形状モデルを前記評価手段の入力として、前記評価手段と前記第2の整形手段を繰り返し適用する第2の収束手段と、
して機能させ、3次元形状モデルを復元することを特徴とするプログラム。 A computer for restoring a 3D shape model of a subject from multi-viewpoint camera images,
A calculation means for receiving a Visual Hull restored by a visual volume intersection method from a subject silhouette image of each imaging camera or a shaped Visual Hull, and calculating a likelihood related to the object likeness of a voxel existing on the surface of the Visual Hull;
A first shaping means for performing based on shaping of the Visual Hull a likelihood for said object ness,
Based on the comparison between the Visual Hull shaped by the first shaping means and the Visual Hull just before input by the calculation means, it is determined whether or not the Visual Hull shaping has converged, and the Visual Hull shaping is completed. until it is determined converged with, as an input of said calculating means the shaped Visual Hull by the first shaping means, a first converging means for repeatedly applying said first shaping means and the calculating means,
Evaluation means for evaluating the texture state of the three-dimensional shape model by using as input the three-dimensional shape model acquired from the Visual Hull that has been determined that the shaping has converged by the first convergence means or the shaped three-dimensional shape model When,
A second shaping means for performing a shaping of the three-dimensional shape model based on the evaluation of the texture state of the three-dimensional shape model,
It is determined whether or not the shaping of the 3D shape model has converged based on a comparison between the 3D shape model shaped by the second shaping unit and the immediately preceding 3D shape model input by the evaluation unit. , until it is determined that the shaping of the three-dimensional shape model has converged, the three-dimensional shape model that is shaped by the second shaping means as an input of the evaluation unit, the said evaluation means second shaping means A second convergence means to apply repeatedly;
And a program that restores a three-dimensional shape model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011074340A JP5561786B2 (en) | 2011-03-30 | 2011-03-30 | Three-dimensional shape model high accuracy method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011074340A JP5561786B2 (en) | 2011-03-30 | 2011-03-30 | Three-dimensional shape model high accuracy method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012208759A JP2012208759A (en) | 2012-10-25 |
JP5561786B2 true JP5561786B2 (en) | 2014-07-30 |
Family
ID=47188421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011074340A Active JP5561786B2 (en) | 2011-03-30 | 2011-03-30 | Three-dimensional shape model high accuracy method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5561786B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015033047A (en) * | 2013-08-05 | 2015-02-16 | Kddi株式会社 | Depth estimation device employing plural cameras |
JP6342128B2 (en) | 2013-08-23 | 2018-06-13 | キヤノンメディカルシステムズ株式会社 | Image processing apparatus, method, program, and stereoscopic image display apparatus |
JP6840968B2 (en) | 2016-09-20 | 2021-03-10 | 富士通株式会社 | Shape estimation method, shape estimation device and shape estimation program |
US11100677B2 (en) | 2017-09-22 | 2021-08-24 | Nec Corporation | Information processing device, information processing method and recording medium |
CN111480342B (en) | 2017-12-01 | 2024-04-23 | 索尼公司 | Encoding device, encoding method, decoding device, decoding method, and storage medium |
KR102273577B1 (en) * | 2019-10-30 | 2021-07-07 | 한국전자통신연구원 | Apparatus and method for guiding multi-view capture |
JP2023134186A (en) | 2022-03-14 | 2023-09-27 | キヤノン株式会社 | Shape estimation device, processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05288543A (en) * | 1992-04-07 | 1993-11-02 | Fujitsu Ltd | Recognizing device integrated with visual information and tactile information |
JP3347508B2 (en) * | 1995-02-24 | 2002-11-20 | キヤノン株式会社 | Captured image processing device and captured image processing method |
JP3813343B2 (en) * | 1997-09-09 | 2006-08-23 | 三洋電機株式会社 | 3D modeling equipment |
-
2011
- 2011-03-30 JP JP2011074340A patent/JP5561786B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012208759A (en) | 2012-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5561786B2 (en) | Three-dimensional shape model high accuracy method and program | |
EP3108449B1 (en) | View independent 3d scene texturing | |
US20160321838A1 (en) | System for processing a three-dimensional (3d) image and related methods using an icp algorithm | |
JP2009525543A (en) | 3D face reconstruction from 2D images | |
Konrad et al. | Automatic 2d-to-3d image conversion using 3d examples from the internet | |
Dellepiane et al. | Flow-based local optimization for image-to-geometry projection | |
JP2010510569A5 (en) | ||
WO2018053952A1 (en) | Video image depth extraction method based on scene sample library | |
JP5559349B2 (en) | Method and configuration for improved image matching | |
WO2024103890A1 (en) | Model construction method and apparatus, reconstruction method and apparatus, and electronic device and non-volatile readable storage medium | |
CN111462030A (en) | Multi-image fused stereoscopic set vision new angle construction drawing method | |
CN113538569A (en) | Weak texture object pose estimation method and system | |
CN116805356A (en) | Building model construction method, building model construction equipment and computer readable storage medium | |
Ling et al. | Image quality assessment for DIBR synthesized views using elastic metric | |
EP3906530B1 (en) | Method for 3d reconstruction of an object | |
CN117710603B (en) | Unmanned aerial vehicle image three-dimensional building modeling method under constraint of linear geometry | |
CN107578419B (en) | Stereo image segmentation method based on consistency contour extraction | |
JP3514373B2 (en) | Three-dimensional information extraction method and apparatus, and recording medium storing three-dimensional information extraction program | |
CN110490877B (en) | Target segmentation method for binocular stereo image based on Graph Cuts | |
Rasmuson et al. | User-guided 3D reconstruction using multi-view stereo | |
Liu et al. | 3D point cloud denoising and normal estimation for 3D surface reconstruction | |
JP2011113177A (en) | Method and program for structuring three-dimensional object model | |
CN118379436B (en) | Three-dimensional virtual scene generation method, device, equipment and storage medium | |
Dickson et al. | User-centred Depth Estimation Benchmarking for VR Content Creation from Single Images. | |
JP5495321B2 (en) | Method and program for constructing three-dimensional object model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130408 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130524 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140226 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5561786 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |