JP5068732B2 - 3D shape generator - Google Patents

3D shape generator Download PDF

Info

Publication number
JP5068732B2
JP5068732B2 JP2008293090A JP2008293090A JP5068732B2 JP 5068732 B2 JP5068732 B2 JP 5068732B2 JP 2008293090 A JP2008293090 A JP 2008293090A JP 2008293090 A JP2008293090 A JP 2008293090A JP 5068732 B2 JP5068732 B2 JP 5068732B2
Authority
JP
Japan
Prior art keywords
silhouette
solid model
cross
dimensional shape
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008293090A
Other languages
Japanese (ja)
Other versions
JP2010121945A (en
Inventor
祐一 岩舘
健介 久富
仁博 冨山
美和 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2008293090A priority Critical patent/JP5068732B2/en
Publication of JP2010121945A publication Critical patent/JP2010121945A/en
Application granted granted Critical
Publication of JP5068732B2 publication Critical patent/JP5068732B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、被写体の多視点画像から3次元形状モデルを生成する3次元形状生成装置に関するものである。   The present invention relates to a three-dimensional shape generation apparatus that generates a three-dimensional shape model from a multi-viewpoint image of a subject.

被写体の多視点画像から3次元形状を生成する方法として、視体積交差法により得られる近似形状を初期形状とし、得られた初期形状について補正を行う方法が既知である。補正手法として、複数のステレオ画像対を用いて対応点探索を行う手法(例えば、非特許文献1参照)、あるいは初期形状の表面頂点を複数のカメラ画像に投影し、その対応度に応じて頂点位置を補正する手法(例えば、非特許文献2参照)が知られている。また、別の補正方法として、最大フロー/最小カットアルゴリズムを用いて初期形状を補正する方法が注目されている。最大フロー/最小カットアルゴリズムは、ネットワーク中の離れた2つのノード間の通信容量の最小値を求めることにより最大フローの計算が行われている。このアルゴリズムを画像処理に応用する場合、例えばノードを画素に対応させ、隣接するノード間を接続するエッジを画素間の相関エネルギーなどに置き換えることにより、領域分割処理に応用することができる。このアルゴリズムでは、ノードとエッジにより表されるグラフにおいて、大局的なエネルギーを最小にできることに特徴があり、グラフカットとも称されている。   As a method for generating a three-dimensional shape from a multi-viewpoint image of a subject, a method is known in which an approximate shape obtained by a visual volume intersection method is used as an initial shape and the obtained initial shape is corrected. As a correction method, a method of searching for corresponding points using a plurality of pairs of stereo images (for example, see Non-Patent Document 1), or by projecting initial surface vertices onto a plurality of camera images, and depending on the degree of correspondence A method for correcting the position (for example, see Non-Patent Document 2) is known. As another correction method, a method of correcting an initial shape using a maximum flow / minimum cut algorithm has attracted attention. In the maximum flow / minimum cut algorithm, the maximum flow is calculated by obtaining the minimum value of the communication capacity between two distant nodes in the network. When this algorithm is applied to image processing, it can be applied to region segmentation processing, for example, by associating nodes with pixels and replacing edges connecting adjacent nodes with correlation energy between pixels. This algorithm is characterized in that global energy can be minimized in a graph represented by nodes and edges, and is also called a graph cut.

最大フロー/最小カットアルゴリズムを、多視点画像から3次元形状を生成する画像再生技術に適用する際、3次元座標で規定される被写体の頂点をノードとに対応させ、隣接する頂点間の接続部をエッジに対応させる。各ノードには、カメラ画像間の相互相関値が与えられ、各エッジには両端ノードの相互相関値の平均値が与えられてグラフが形成される。得られたグラフに最大フロー/最小カットアルゴリズムを適用して、被写体の形状が切り出される。しかし、このアルゴリズムは大局的なエネルギーを最小化するので、切り出される形状が小さく縮退する傾向にある。縮退する不具合を解消するためには、なんらかの改良が必要であり、例えば、初期形状の内部にエネルギーの大きなノードを設けて不必要にカットされるのを抑制したり、多視点画像から画像エッジや特徴点等の信頼性の高い形状情報が得られる頂点を拘束条件に用いる方法が提案されている(例えば、非特許文献3及び4参照)。
「局所的形状特徴に拘束された3次元形状復元手法とそのリアルタイム動画表示」,映情学誌,Vol.61,No.4,pp.471-481(Apr.2007) 「弾性メッシュモデルを用いた多視点画像からの高精度3次元形状復元」,情処学論,Vol.43,No.SIG11(CVIM5),pp.53-63,(2002) 「Surface Capture for Performance-Bases Animation」,IEEE Computer Graphics and Applications,Vol.27,No.3,pp.21-31,(2007) 「Multi-view stereo volumetric graph-cuts」,IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2:391-398,(2005)
When the maximum flow / minimum cut algorithm is applied to an image reproduction technique for generating a three-dimensional shape from a multi-viewpoint image, the vertex of the subject specified by the three-dimensional coordinates is made to correspond to the node, and the connection portion between adjacent vertices Correspond to the edge. Each node is given a cross-correlation value between camera images, and each edge is given an average value of cross-correlation values of both end nodes to form a graph. The shape of the subject is cut out by applying the maximum flow / minimum cut algorithm to the obtained graph. However, since this algorithm minimizes the global energy, the cut shape tends to be small and degenerate. In order to eliminate the problem of degeneracy, some improvement is necessary.For example, it is possible to prevent unnecessary cutting by providing a large energy node inside the initial shape, A method has been proposed in which vertices capable of obtaining highly reliable shape information such as feature points are used as constraint conditions (see, for example, Non-Patent Documents 3 and 4).
"Reconstruction method of 3D shape constrained by local shape features and its real-time video display", Eiji Journal, Vol.61, No.4, pp.471-481 (Apr.2007) "High-precision 3D shape restoration from multi-viewpoint images using elastic mesh model", Information Processing, Vol.43, No.SIG11 (CVIM5), pp.53-63, (2002) "Surface Capture for Performance-Bases Animation", IEEE Computer Graphics and Applications, Vol.27, No.3, pp.21-31, (2007) "Multi-view stereo volumetric graph-cuts", IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2: 391-398, (2005)

本発明の目的は、複数のカメラ画像から被写体の3次元形状を生成するに当たり、視体積交差法で得られる初期形状を大きく崩すことなく、3次元形状モデルを安定して生成できる3次元形状生成装置を実現することにある。特に、最大フロー/最小カットアルゴリズムを適用することにより、3次元形状モデルを生成する手法を具体化することにある。この目的を達成するためには、以下の解決すべき課題が想定される。
A.視体積交差法により形成された画像データに最大フロー/最小カットアルゴリズムを適用した場合、例えば被写体が着物を着た人物の場合、着物の袖などの薄い部分が切り離され易い傾向にある。その対策として、視体積交差法により得られる初期形状の内部に、カットされにくい硬い芯となるソリッド部分を設けることが想定される。しかし、硬い芯となるソリッド部分を設けると、カットされるべきエッジがカットされない問題が発生し、芯となるソリッド部分の設定手段を開発する必要がある。
B.視体積交差法では、原理的に、被写体の凹状形状を正確に再現することができない。他方、滑らかに変化する凸状形状については概ね正確な形状を再現できる。従って、視体積交差法で得られる初期形状に最大フロー/最小カットアルゴリズムを適用する場合、被写体の凹状部分と凸状部分とを判別し、各部位に応じて拘束条件を設定する必要がある。従って、凹凸形状の判別条件と拘束条件の設定手法を開発する必要がある。
C.最大フロー/最小カットアルゴリズムを適用する際、各頂点毎にカメラ間の相互相関値はエネルギーとしてノードを介してエッジに与えられる。この場合、エッジに与えられる相互相関値を適応的に演算できる演算手段が必要である。また、1つの頂点の相互相関値をカメラの組合せから求める場合、カメラの組合せ毎に得られる相互相関値を適切に統合する手段も必要である。
An object of the present invention is to generate a three-dimensional shape that can stably generate a three-dimensional shape model without greatly changing the initial shape obtained by the visual volume intersection method when generating a three-dimensional shape of a subject from a plurality of camera images. To implement the device. In particular, a method for generating a three-dimensional shape model is realized by applying a maximum flow / minimum cut algorithm. In order to achieve this purpose, the following problems to be solved are assumed.
A. When the maximum flow / minimum cut algorithm is applied to image data formed by the visual volume intersection method, for example, when the subject is a person wearing a kimono, thin portions such as kimono sleeves tend to be cut off. As a countermeasure, it is assumed that a solid portion that is hard to be cut is provided in the initial shape obtained by the visual volume intersection method. However, if a solid portion that becomes a hard core is provided, there is a problem that an edge to be cut is not cut, and it is necessary to develop a setting means for the solid portion that becomes a core.
B. In principle, the visual volume intersection method cannot accurately reproduce the concave shape of the subject. On the other hand, for a convex shape that changes smoothly, a generally accurate shape can be reproduced. Therefore, when the maximum flow / minimum cut algorithm is applied to the initial shape obtained by the visual volume intersection method, it is necessary to discriminate the concave portion and the convex portion of the subject and set a constraint condition according to each part. Therefore, it is necessary to develop a method for setting the concave / convex shape discrimination condition and the constraint condition.
C. When applying the maximum flow / minimum cut algorithm, the cross-correlation value between cameras for each vertex is given as energy to the edge via the node. In this case, a calculation means capable of adaptively calculating the cross-correlation value given to the edge is required. Further, when the cross-correlation value of one vertex is obtained from a combination of cameras, a means for appropriately integrating the cross-correlation values obtained for each camera combination is also necessary.

本発明の目的は、視体積交差法により得られる3次元形状モデルについて最大フロー/最小カットアルゴリズムを適用することにより被写体の3次元形状を生成する3次元形状生成装置において、上述した課題が解決された3次元形状生成装置を実現することにある。   An object of the present invention is to solve the above-described problems in a three-dimensional shape generation apparatus that generates a three-dimensional shape of a subject by applying a maximum flow / minimum cut algorithm to a three-dimensional shape model obtained by a visual volume intersection method. Another object is to realize a three-dimensional shape generation apparatus.

本発明による3次元形状生成装置は、被写体を複数の角度方向から撮像した多視点カメラ画像から被写体の3次元形状モデルを生成する3次元形状生成装置であって、
多視点カメラ画像からシルエット画像を生成するシルエット画像生成手段と、
生成されたシルエット画像について視体積交差法を適用し、被写体の近似された3次元形状モデルであるソリッドモデルを生成するソリッドモデル生成手段と、
前記シルエット画像とソリッドモデルとに基づいてシルエット拘束値を生成するシルエット拘束情報生成手段と、
前記ソリッドモデルを用いて、被写体表面を可視的に撮像したカメラを各頂点毎に特定する頂点可視情報生成手段と、
前記特定されたカメラにより撮像されたカメラ画像間の相互相関値を演算する相互相関値演算手段と、
前記生成されたシルエット拘束値を用いて、演算された相互相関値について重み付けを行い、重み付けされた相互相関値を出力する手段と、
前記ソリッドモデルについて、表面頂点に対応するノードと、隣接するノード間を接続するエッジとから構成されるグラフを形成し、前記重み付けされた相互相関値を用いて最大フロー/最小カットアルゴリズムを適用して被写体の3次元形状モデルを生成する最大フロー/最小カット演算手段とを具えることを特徴とする。
A three-dimensional shape generation apparatus according to the present invention is a three-dimensional shape generation apparatus that generates a three-dimensional shape model of a subject from a multi-viewpoint camera image obtained by imaging the subject from a plurality of angular directions.
Silhouette image generation means for generating a silhouette image from a multi-viewpoint camera image;
A solid model generation unit that applies a visual volume intersection method to the generated silhouette image and generates a solid model that is an approximated three-dimensional shape model of the subject;
Silhouette constraint information generating means for generating a silhouette constraint value based on the silhouette image and the solid model;
Using the solid model, vertex visible information generating means for specifying a camera that visually images the surface of the subject for each vertex;
A cross-correlation value calculating means for calculating a cross-correlation value between camera images captured by the specified camera;
Means for weighting the calculated cross-correlation value using the generated silhouette constraint value, and outputting the weighted cross-correlation value;
For the solid model, a graph composed of nodes corresponding to surface vertices and edges connecting adjacent nodes is formed, and a maximum flow / minimum cut algorithm is applied using the weighted cross-correlation values. And a maximum flow / minimum cut calculating means for generating a three-dimensional shape model of the subject.

本発明では、シルエット画像について視体積交差法を適用することにより得られるソリッドモデルをベースとし、当該ソリッドモデルから各種ソリッドモデルを生成し、生成されたソリッドモデルについて最大フロー/最小カットアルゴリズムを適用しているので、最大フロー/最小カットアルゴリズムを適用しても被写体の薄い部分が切り離される不具合が解消され、再現性に優れた3次元形状生成装置が実現される。しかも、シルエット画像について視体積交差法を適用することにより得られる初期形状について、凸状部分の形状が拘束(保持)され凹状部分の形状が強く補正されるように拘束条件を規定し、得られた拘束条件を用いて相互相関値を重み付けしているので、視体積交差法を適用することにより得られる初期形状を大きく崩すことなく、被写体の3次元形状を再現することができる。   In the present invention, based on a solid model obtained by applying the visual volume intersection method to a silhouette image, various solid models are generated from the solid model, and the maximum flow / minimum cut algorithm is applied to the generated solid model. Therefore, even if the maximum flow / minimum cut algorithm is applied, the problem that the thin part of the subject is cut off is solved, and a three-dimensional shape generation apparatus with excellent reproducibility is realized. Moreover, the initial shape obtained by applying the visual volume intersection method to the silhouette image is obtained by defining a constraint condition so that the shape of the convex portion is constrained (held) and the shape of the concave portion is strongly corrected. Since the cross-correlation value is weighted using the above constraint conditions, the three-dimensional shape of the subject can be reproduced without greatly damaging the initial shape obtained by applying the visual volume intersection method.

本発明による3次元形状生成装置の好適実施例は、ソリッドモデル生成手段は、シルエット画像に視体積交差法を適用することにより形成される第1のソリッドモデルと、第1のソリッドモデルにエロージョン処理を行うことにより得られる第2のソリッドモデルと、第1のソリッドモデルにダイレーション処理を行うことにより得られる第3のソリッドモデルと、第1のソリッドモデルに適応的エロージョン処理を行うことにより得られる第4のソリッドモデルとを生成し、
前記最大フロー/最小カット演算手段は、第3のソリッドモデルと第4のソリッドモデルとの間に位置するカット領域について最大フロー/最小カットアルゴリズムを適用し、エネルギーの総和が最小となる3次元形状モデルを生成することを特徴とする。
In a preferred embodiment of the three-dimensional shape generation apparatus according to the present invention, the solid model generation means includes a first solid model formed by applying a visual volume intersection method to a silhouette image, and an erosion process on the first solid model. Obtained by performing erosion processing on the first solid model, the third solid model obtained by performing dilation processing on the first solid model, and the first solid model. A fourth solid model to be generated,
The maximum flow / minimum cut calculation means applies a maximum flow / minimum cut algorithm to a cut region located between the third solid model and the fourth solid model, and a three-dimensional shape that minimizes the total energy. It is characterized by generating a model.

本発明では、シルエット画像について視体積交差法を適用することにより得られるソリッドモデルをベースとして各種ソリッドモデルを生成すると共に、生成されたソリッドモデルに対してシルエット拘束情報により重み付けされた相互相関値を用いて最大フロー/最小カットアルゴリズムを適用しているので、被写体の薄い部分が良好に再現されると共に視体積交差法を適用して得られる3次元形状を大きく崩すことなく被写体の3次元形状を良好に再現することができる。   In the present invention, various solid models are generated based on a solid model obtained by applying the visual volume intersection method to a silhouette image, and cross-correlation values weighted by silhouette constraint information are generated for the generated solid model. Since the maximum flow / minimum cut algorithm is applied, the thin part of the subject is reproduced well, and the three-dimensional shape of the subject can be obtained without greatly breaking the three-dimensional shape obtained by applying the visual volume intersection method. Can be reproduced well.

本実施例では、3次元世界座標系に頂点空間を設定し、各頂点にカメラ画像から計算した対応度と被写体のシルエットから生成した拘束値とを与えることにより、対応度と拘束値で規定されるエネルギーを頂点毎に設定する。隣り合う頂点の平均エネルギーを頂点間を結ぶエッジのエネルギーとし、その総和が最小となる頂点群を最大フロー/最小カットアルゴリズムを用いて求める。この処理により、求められた頂点群を表面頂点とする3次元形状モデルが生成される。本発明による処理フローは以下のa〜fの処理に大別される。以下において、処理a〜eの順序にしたがって処理工程を説明する。尚、各カメラの姿勢、位置、焦点距離等のカメラパラメータは既知のものとする。
a.各種ソリッドモデルの生成
b.シルエット拘束情報の生成
c.頂点毎の可視カメラ情報の生成
d.頂点毎の対応度情報の生成
e.相互相関値に対する重み付け処理
f.最大フロー/最小カットアルゴリズムによる3次元形状の生成
In this embodiment, the vertex space is set in the three-dimensional world coordinate system, and the correspondence degree calculated from the camera image and the constraint value generated from the silhouette of the subject are given to each vertex, thereby defining the correspondence degree and the constraint value. Set energy for each vertex. The average energy of adjacent vertices is defined as the energy of the edges connecting the vertices, and the vertex group having the minimum sum is obtained using the maximum flow / minimum cut algorithm. By this processing, a three-dimensional shape model having the obtained vertex group as the surface vertex is generated. The processing flow according to the present invention is roughly divided into the following processes a to f. Hereinafter, the processing steps will be described in the order of processing a to e. Note that camera parameters such as the posture, position, and focal length of each camera are known.
a. Generation of various solid models b. Generation of silhouette constraint information c. Generation of visible camera information for each vertex d. Generation of correspondence information for each vertex e. Weighting process for cross-correlation value f. 3D shape generation with maximum flow / minimum cut algorithm

図1は本発明による3次元形状生成装置の一例を示す線図である。被写体を取り囲むようにn台のカメラを配置し、カメラ1a〜1nにより被写体を種々の角度方向から撮像し、撮像されたカメラ画像を3次元形状生成装置に供給する。尚、本例では、カメラ画像についてコンピュータによるソフトウェァ処理を行って被写体の3次元形状を再生する。また、本例の実行に先立ち、各カメラの位置、姿勢、焦点距離などのカメラパラメータは計測して、記録されているものとする。   FIG. 1 is a diagram showing an example of a three-dimensional shape generation apparatus according to the present invention. N cameras are arranged so as to surround the subject, the subject is imaged from various angles by the cameras 1a to 1n, and the captured camera images are supplied to the three-dimensional shape generation device. In this example, the camera image is subjected to software processing by a computer to reproduce the three-dimensional shape of the subject. In addition, prior to execution of this example, camera parameters such as the position, posture, and focal length of each camera are measured and recorded.

n個のカメラ画像は、シルエット画像生成部2に供給され、n個のシルエット画像が形成される。シルエット画像生成部2では、個々のカメラ画像から被写体以外の背景領域を除去し、被写体領域のみを切り出したシルエット画像を生成する。尚、シルエット画像の生成方法として、被写体が存在するカメラ画像と背景だけの画像との差分をとり、被写体のみを抽出する背景差分法により生成することができ、又はクロマキー法により生成することもできる。   The n camera images are supplied to the silhouette image generation unit 2 to form n silhouette images. The silhouette image generation unit 2 removes background regions other than the subject from individual camera images, and generates a silhouette image obtained by cutting out only the subject region. As a method for generating a silhouette image, a difference between a camera image in which a subject is present and an image of only the background can be obtained, and can be generated by a background difference method that extracts only the subject, or can be generated by a chroma key method. .

生成されたシルエット画像は、被写体の各種3次元形状モデルであるソリッドモデルを生成するソリッドモデル生成部3に供給する。初めに、シルエット画像は、視体積交差法部4に供給される。視体積交差法部4では、シルエット画像とカメラパラメータとを用い、視体積交差法により被写体の近似的な3次元形状を生成する。視体積交差法により得られた近似的な3次元形状をソリッドモデル1と称することにする。   The generated silhouette image is supplied to a solid model generation unit 3 that generates a solid model that is a variety of three-dimensional shape models of the subject. First, the silhouette image is supplied to the visual volume intersection method unit 4. The visual volume intersection method unit 4 generates an approximate three-dimensional shape of the subject by the visual volume intersection method using the silhouette image and the camera parameters. An approximate three-dimensional shape obtained by the visual volume intersection method will be referred to as a solid model 1.

さらに、ソリッドモデル生成部3は、エロージョン処理部5、ダイレーション処理部6及び適応的エロージョン処理部7を有する。エロージョン処理部5は、視体積交差法により生成された3次元形状モデルであるソリッドモデル1について、モルフォロジ法の一つであるエロージョン処理を適用して、ソリッドモデル1から頂点1個分だけ縮小した3次元形状データ(ソリッドモデル2)を生成する。ダイレーション処理部6は、ソリッドモデル1について、モルフォロジ法の一つであるダイレーション処理を適用して、ソリッドモデル1から頂点1個分だけ拡大された3次元形状データ(ソリッドモデル3)を生成する。   Further, the solid model generation unit 3 includes an erosion processing unit 5, a dilation processing unit 6, and an adaptive erosion processing unit 7. The erosion processing unit 5 applies the erosion processing that is one of the morphological methods to the solid model 1 that is a three-dimensional shape model generated by the visual volume intersection method, and reduces the solid model 1 by one vertex. Three-dimensional shape data (solid model 2) is generated. Dilation processing unit 6 applies dilation processing, which is one of the morphological methods, to solid model 1 to generate three-dimensional shape data (solid model 3) expanded from solid model 1 by one vertex. To do.

適応的エロージョン処理部7は、ソリッドモデル1について適応的なエロージョン処理を行って、ソリッドモデル1の各部の厚みに応じて縮小した3次元形状データ(ソリッドモデル4)を生成する。この場合、単純にエロージョン処理を行うと、ソリッドモデル1中の薄い部分が欠落する不具合が発生する場合がある。例えば、縮小頂点数をN=2としてエロージョン処理を実施すると、ソリッドモデル1の厚さが(2N+1)頂点分以下の部位は欠落してしまう。そこで、本発明では、ソリッドモデル1の各頂点について表面頂点までの距離を計測し、縮小対象となる頂点から頂点がN個分だけ内側に位置する領域内における距離の最大値を求め、その最大値をM(整数)で割った数だけエロージョン処理により縮小する。この適用的エロージョン処理の例を図2に示す。図2において、N=2、M=2とし、2次元で示す。図2(a)は、ソリッドモデル1を2次元的に示す。図2(b)に示すように、各頂点から表面頂点までの距離を計測し、これを距離値Aとする。次に、同図(c)に示すように、対象頂点の周り(N×M+1)×(N×M+1)の範囲で、距離Aの最大値を検出する。次に、同図(d)に示すように、その最大値の1/M(四捨五入)の距離値を計算する。これを距離Bとする。頂点毎に構造要素の大きさを(2×距離B+1)とし、エロージョン処理を実行する。距離B=1の領域では3×3の構造要素を用い、距離B=2の領域では5×5の構造要素を用いてエロージョン処理を行う。図2(e)に示すように、適応的エロージョン処理を実行することにより、薄い部分も残り、破線及びドット点で示す頂点がソリッドモデル4となる。このようにして生成された4個のソリッドモデル1〜ソリッドモデル4を用いて被写体の3次元形状を再生する。
尚、ソリッドモデル1〜4は、頂点ごとに「1」又は「0」のいずれかの値をとる2値データである。以下の説明では、「1」が割り振られた頂点が被写体形状を表し、「0」が割り振られた頂点は被写体の外側を表すものとする。
The adaptive erosion processing unit 7 performs adaptive erosion processing on the solid model 1 and generates three-dimensional shape data (solid model 4) reduced according to the thickness of each part of the solid model 1. In this case, if the erosion process is simply performed, there may be a problem that a thin portion in the solid model 1 is missing. For example, when the erosion process is performed with the number of reduced vertices set to N = 2, a portion where the thickness of the solid model 1 is equal to or less than (2N + 1) vertices is lost. Therefore, in the present invention, the distance to the surface vertex of each vertex of the solid model 1 is measured, and the maximum value of the distance in the region where the vertexes are located inward by N from the vertex to be reduced is obtained. The value is reduced by erosion processing by the number divided by M (integer). An example of this adaptive erosion process is shown in FIG. In FIG. 2, N = 2 and M = 2 are shown in two dimensions. FIG. 2A shows the solid model 1 two-dimensionally. As shown in FIG. 2B, the distance from each vertex to the surface vertex is measured, and this is set as a distance value A. Next, as shown in FIG. 9C, the maximum value of the distance A is detected in the range of (N × M + 1) × (N × M + 1) around the target vertex. Next, as shown in FIG. 4D, a distance value of 1 / M (rounded off) of the maximum value is calculated. This is distance B. The size of the structural element is set to (2 × distance B + 1) for each vertex, and the erosion process is executed. The erosion process is performed using a 3 × 3 structural element in the region of distance B = 1 and using a 5 × 5 structural element in the region of distance B = 2. As shown in FIG. 2E, by executing the adaptive erosion process, a thin portion remains, and the vertex indicated by a broken line and a dot point becomes the solid model 4. The three-dimensional shape of the subject is reproduced using the four solid models 1 to 4 generated in this way.
The solid models 1 to 4 are binary data that takes a value of “1” or “0” for each vertex. In the following description, it is assumed that the vertex assigned “1” represents the subject shape, and the vertex assigned “0” represents the outside of the subject.

次に、シルエット拘束情報生成処理について説明する。ここで、「シルエット拘束値」とは、視体積交差法により得られる3次元形状について、真の被写体形状に忠実に対応する凸状部分の形状を拘束(保持)するための変数としての意義を有し、凸状部分については拘束値が小さく凹状部分について拘束値が大きくなるように処理する。各カメラ画像から求められたシルエット画像並びにソリッドモデル1及び3をシルエット拘束情報生成部10に供給する。シルエット拘束情報生成部10は、シルエット数を計数するシルエット数生成部11と、得られシルエット数に基づいてシルエット拘束値を生成するシルエット拘束値変換部12とを有する。   Next, the silhouette constraint information generation process will be described. Here, the “silhouette constraint value” has a significance as a variable for constraining (holding) the shape of the convex portion corresponding to the true object shape faithfully with respect to the three-dimensional shape obtained by the visual volume intersection method. The convex portion is processed so that the constraint value is small and the constraint value is large for the concave portion. The silhouette image obtained from each camera image and the solid models 1 and 3 are supplied to the silhouette constraint information generation unit 10. The silhouette constraint information generation unit 10 includes a silhouette number generation unit 11 that counts the number of silhouettes, and a silhouette constraint value conversion unit 12 that generates a silhouette constraint value based on the obtained number of silhouettes.

各カメラ画像から得られたシルエット画像並びにソリッドモデル1及び3は、シルエット数生成部11に入力する。シルエット数生成部11では、各カメラのシルエット画像にソリッドモデル3の表面頂点を投影し、投影点の近傍にシルエット端が存在するか否かについて、以下の手法を用いて判定する。尚、本明細書において、シルエット端とは、被写体のシルエットと背景との境界点を意味する。   The silhouette image obtained from each camera image and the solid models 1 and 3 are input to the silhouette number generation unit 11. The silhouette number generation unit 11 projects the surface vertices of the solid model 3 on the silhouette image of each camera, and determines whether or not there is a silhouette edge near the projection point using the following method. In this specification, the silhouette edge means a boundary point between the silhouette of the subject and the background.

初めに、投影点が背景画素であり、投影点の周りにシルエット画像を構成する画素が少なくとも1画素あれば、当該頂点をシルエット端の頂点であると判定する。例えば、図3に示す例では、頂点Aはシルエット端と判定され、頂点Bはシルエットに該当しない。   First, if the projection point is a background pixel and there is at least one pixel constituting the silhouette image around the projection point, the vertex is determined to be the vertex at the silhouette end. For example, in the example shown in FIG. 3, the vertex A is determined as the silhouette end, and the vertex B does not correspond to the silhouette.

上述したシルエット端の検出処理を全てのカメラについて(全てのシルエット画像について)行い、シルエット端と判定されたカメラ数を計数し、計数されたカメラ数をシルエット数と定義する。そして、計数されたシルエット数をシルエット拘束情報としてソリッドモデル3の表面頂点に付与する。生成されたシルエット拘束情報は、後述する相互相関演算30の重み付け演算部32に供給され、相互相関値に対する重み付け因子として利用する。   The silhouette edge detection process described above is performed for all cameras (for all silhouette images), the number of cameras determined to be silhouette edges is counted, and the counted number of cameras is defined as the number of silhouettes. Then, the counted number of silhouettes is given to the surface vertex of the solid model 3 as silhouette constraint information. The generated silhouette constraint information is supplied to a weighting calculation unit 32 of the cross-correlation calculation 30 described later, and is used as a weighting factor for the cross-correlation value.

図4は、視体積交差法により生成されたソリッドモデル1の生成状況を示す図である。図4に示すように、被写体の凹部はシルエット数が少なく、凸部はシルエット数が多いことが理解できる。凹状形状の部分では、シルエット数が少なく、シルエットの交差角度も小さい。これに対して、表面形状が滑らかに変化する凸状形状の部分では、シルエット数が多く、その交差角度も大きくなる傾向にある。従って、このような特性を考慮して、シルエット拘束値を決定する。また、図5は、真の被写体形状、ソリッドモデル1及びソリッドモデル3の位置関係を示す図である。   FIG. 4 is a diagram illustrating a generation state of the solid model 1 generated by the visual volume intersection method. As shown in FIG. 4, it can be understood that the concave portion of the subject has a small number of silhouettes and the convex portion has a large number of silhouettes. In the concave shape, the number of silhouettes is small and the crossing angle of silhouettes is also small. On the other hand, in the convex shape part where the surface shape changes smoothly, the number of silhouettes is large and the intersection angle tends to be large. Therefore, the silhouette constraint value is determined in consideration of such characteristics. FIG. 5 is a diagram showing the true subject shape and the positional relationship between the solid model 1 and the solid model 3.

尚、シルエット拘束値を補正する方法として、シルエット数=2の場合において、2台のカメラから当該頂点に向かうベクトル間の交差角が例えば120°以下の場合、シルエット数は0とすることができる。この理由は、被写体表面が滑らかに形状変化するする凸状部分についてだけシルエット情報を与えるためである。図4、図5の頂点Cはシルエット数=2であるが、交差角が120度程度以下であれば、シルエット数は0とする。   As a method for correcting the silhouette constraint value, when the number of silhouettes = 2, the number of silhouettes can be set to 0 when the intersection angle between the vectors from the two cameras toward the vertex is, for example, 120 ° or less. . This is because the silhouette information is given only to the convex portion where the shape of the subject surface changes smoothly. The vertex C in FIGS. 4 and 5 has the number of silhouettes = 2, but if the intersection angle is about 120 degrees or less, the number of silhouettes is zero.

シルエット数生成部11において生成されたシルエット数は、シルエット拘束値変換部12に供給される。シルエット数は頂点毎に付与されるが、拘束の程度を調整するため、シルエット拘束値変換部において、以下のようなシルエット拘束値に変換する。
Tを定数とし、シルエット数を以下のように制御する。
IF(シルエット数>Tの場合) A=T
IF(シルエット数<Tの場合) A=シルエット数
すなわち、シルエット数が閾値Tを超える場合、シルエット数をTで頭打ちにする。さらに、シルエット拘束値は以下の式により規定し、正規化する。
シルエット拘束値=1−A/T
The number of silhouettes generated by the silhouette number generation unit 11 is supplied to the silhouette constraint value conversion unit 12. The number of silhouettes is given for each vertex. In order to adjust the degree of constraint, the silhouette constraint value conversion unit converts the silhouette number into the following silhouette constraint values.
T is a constant, and the number of silhouettes is controlled as follows.
IF (if silhouette> T) A = T
IF (if the number of silhouettes <T) A = number of silhouettes
That is, when the number of silhouettes exceeds the threshold T, the number of silhouettes reaches a peak at T. Furthermore, the silhouette constraint value is defined by the following formula and normalized.
Silhouette constraint value = 1-A / T

次に、被写体表面を可視的に撮像しているカメラを特定する可視カメラ情報の生成処理について説明する。後述する相互相関値の演算処理においては、被写体の各頂点を直接すなわち可視的に撮像するカメラから出力されるカメラ画像が必要である。そこで、可視カメラ情報生成部20において、ソリッドモデル1〜3を用いて各頂点を可視的に撮像しているカメラを以下の手法により特定する。   Next, a process for generating visible camera information for identifying a camera that visually captures the surface of a subject will be described. In the cross correlation value calculation process described later, a camera image output from a camera that directly captures each vertex of a subject, that is, visually, is necessary. Therefore, in the visible camera information generation unit 20, a camera that visually captures each vertex using the solid models 1 to 3 is specified by the following method.

本例では、ソリッドモデル1が「1」となり、ソリッドモデル2が「0」となる頂点をソリッドモデル1の表面頂点とし、表面頂点を可視的に撮像するカメラを特定する。ある表面頂点からカメラに向かう単位ベクトルを求め、そのベクトルに沿って、表面頂点の位置を頂点間隔ずつ移動させ、移動した位置に別の頂点が存在する場合、当該カメラは当該頂点を直接撮像していない状態にある(不可視)と判定する。一方、3次元頂点空間の端まで移動を繰り返し、別の頂点が存在しない場合、当該カメラは当該頂点を可視的に撮像する状態にある(可視)と判定する。この処理を全てのカメラについて行い、表面頂点を可視的に撮像しているカメラを特定した可視カメラ情報を生成する。この処理により、各表面頂点ごとに可視的に撮像するカメラが特定される。   In this example, the vertex where the solid model 1 is “1” and the solid model 2 is “0” is defined as the surface vertex of the solid model 1, and the camera that visually images the surface vertex is specified. A unit vector from one surface vertex to the camera is obtained, the position of the surface vertex is moved by the vertex interval along the vector, and if another vertex exists at the moved position, the camera directly images the vertex. It is determined that it is not (invisible). On the other hand, if the movement is repeated to the end of the three-dimensional vertex space and another vertex does not exist, it is determined that the camera is in a state of visually capturing the vertex (visible). This process is performed for all the cameras, and visible camera information that identifies the camera that visually captures the surface vertex is generated. By this processing, a camera that visually shoots for each surface vertex is specified.

次に、基準カメラを特定する。表面頂点から特定されたカメラに向かう単一ベクトルと平均方向ベクトルを求め、平均方向ベクトルと各カメラの単位ベクトルとの角度の小さい順に、特定されたカメラ番号を並び替え、可視カメラ情報を生成する。可視カメラ情報において、先頭のカメラを基準カメラとし、それ以外のカメラを参照カメラと称する。この基準カメラ及び参照カメラの特定処理を、図6を参照しながら説明する。図6において、被写体を10台のカメラC1〜C10により撮像しているものとする。初めに、表面頂点AについてカメラC1〜C10の方向に移動させ、可視的に撮像しているカメラを特定する。図6に示す場合、表面頂点Aを直接撮像しているカメラは、C6、C7、C8、及びC9である。次に、頂点Aから各カメラに向かうベクトルと平均方向ベクトルとの内積をそれぞれ計算し、内積値が最大となるカメラを基準カメラに設定する。従って、図6に示す例では、カメラC7が基準カメラとなり、残りのカメラC6、C8、及びC9は参照カメラとなる。一方、カメラC9に向かうベクトルは、平均方向ベクトルに対して90°を超える角度をなしており、対応度(相互相関)の計算に不適当である。よって、このようなカメラは、角度差に基づく判定により、相互相関値の演算対象から排除する。従って、最終的に、カメラC7が基準カメラとなり、カメラC6及びC8が参照カメラとなる。そして、カメラC6〜C8が相互相関値の演算対象となり、可視カメラ情報として相互相関演算部30に供給する。   Next, the reference camera is specified. A single vector and an average direction vector from the surface vertex to the specified camera are obtained, and the specified camera numbers are rearranged in ascending order of the angle between the average direction vector and each camera unit vector to generate visible camera information. . In the visible camera information, the first camera is referred to as a reference camera, and the other cameras are referred to as reference cameras. The process for specifying the base camera and the reference camera will be described with reference to FIG. In FIG. 6, it is assumed that the subject is imaged by ten cameras C1 to C10. First, the surface vertex A is moved in the direction of the cameras C1 to C10, and the camera that is visibly imaged is specified. In the case shown in FIG. 6, the cameras that directly image the surface vertex A are C6, C7, C8, and C9. Next, the inner product of the vector from the vertex A toward each camera and the average direction vector is calculated, and the camera having the maximum inner product value is set as the reference camera. Therefore, in the example shown in FIG. 6, the camera C7 is a reference camera, and the remaining cameras C6, C8, and C9 are reference cameras. On the other hand, the vector toward the camera C9 makes an angle exceeding 90 ° with respect to the average direction vector, and is inappropriate for calculating the correspondence (cross-correlation). Therefore, such a camera is excluded from the calculation target of the cross correlation value by the determination based on the angle difference. Therefore, finally, the camera C7 becomes a reference camera, and the cameras C6 and C8 become reference cameras. Then, the cameras C6 to C8 are subjected to cross correlation value calculation, and are supplied to the cross correlation calculation unit 30 as visible camera information.

次に、相互相関演算処理について説明する。可視カメラ情報、ソリッドモデル3及び4、及びカメラ画像を相互相関演算部30に供給する。相互相関演算部30は、カメラ画像間の相互相関値を計算する相互相関値計算部31と、計算された相互相関値をシルエット拘束情報で重み付けを行う重み付け演算部32とを有する。相互相関計算部31では、ソリッドモデル3の表面頂点及び内部頂点を、可視カメラ情報生成部20において特定されたカメラのカメラ画像に投影し、投影点近傍においてカメラ画像間の相互相関値を計算し、各頂点の対応度として利用する。   Next, the cross correlation calculation process will be described. The visible camera information, the solid models 3 and 4, and the camera image are supplied to the cross correlation calculation unit 30. The cross-correlation calculation unit 30 includes a cross-correlation value calculation unit 31 that calculates a cross-correlation value between camera images, and a weighting calculation unit 32 that weights the calculated cross-correlation value with silhouette constraint information. The cross-correlation calculation unit 31 projects the surface vertex and the internal vertex of the solid model 3 onto the camera image of the camera specified by the visible camera information generation unit 20, and calculates the cross-correlation value between the camera images in the vicinity of the projection point. This is used as the degree of correspondence of each vertex.

図7は、相互相関値計算用のブロックの構成を示す。画像相関値の計算は、ブロック単位で行い、一例として以下の手順でブロックを構成する。初めに、相互相関値の計算対象となる頂点の世界座標を基準カメラのカメラ座標に変換し、頂点の近傍に一定間隔で、図面上の横方向にW個、縦方向にW個の仮想頂点からなる平面ブロックを設ける。図7に示すように、仮想頂点ブロックは基準カメラの方向ベクトルに直交する面となる。仮想頂点ブロックを世界座標に変換し、基準カメラC7及び参照カメラC6及びC8上に投影する。この投影により、各カメラ画像上にはW×W個の投影点群が形成されるので、これをブロックとして相互相関値を計算する。   FIG. 7 shows the configuration of a block for calculating cross-correlation values. The calculation of the image correlation value is performed in units of blocks, and as an example, the blocks are configured by the following procedure. First, the world coordinates of vertices for which cross-correlation values are to be calculated are converted into camera coordinates of the reference camera, and W virtual vertices in the horizontal direction on the drawing and W virtual vertices in the vertical direction in the vicinity of the vertex. A plane block is provided. As shown in FIG. 7, the virtual vertex block is a plane orthogonal to the direction vector of the reference camera. The virtual vertex block is converted into world coordinates and projected onto the base camera C7 and the reference cameras C6 and C8. As a result of this projection, W × W projection point groups are formed on each camera image, and this is used as a block to calculate the cross-correlation value.

複数の参照カメラが利用可能な場合、各参照カメラと基準カメラとの間相互相関値、あるいは2つの参照カメラ間の相互相関値の平均値をとることができる。平均値を求める際には、単純平均、重み付け平均等の方法を用いることができる。例えば、近接するカメラ間には大きな重み係数を与え、遠く離間するカメラ間には小さな重み係数を与えて平均化してもよい。   When a plurality of reference cameras are available, the cross-correlation value between each reference camera and the reference camera or the average value of the cross-correlation values between two reference cameras can be taken. When calculating the average value, methods such as simple average and weighted average can be used. For example, averaging may be performed by giving a large weighting factor between adjacent cameras and giving a small weighting factor between cameras far away.

相互相関値は、カメラ画像の輝度信号を用いて計算される。一方、輝度信号を用いた相互相関値の計算と共に、RGBの各色成分についても相互相関値を計算し、色成分から得た相互相関値を用いて重み付け加算することも可能である。   The cross correlation value is calculated using the luminance signal of the camera image. On the other hand, along with the calculation of the cross-correlation value using the luminance signal, it is also possible to calculate the cross-correlation value for each of the RGB color components and perform weighted addition using the cross-correlation value obtained from the color components.

上述した処理を、ソリッドモデル3が「=1」且つソリッドモデル4が「=0」となる頂点、すなわちソリッドモデル3の表面とソリッドモデル4の表面とで挟まれた領域内の頂点について行い、頂点毎の相互相関値を計算する。   The above-described processing is performed for vertices in which the solid model 3 is “= 1” and the solid model 4 is “= 0”, that is, vertices in a region sandwiched between the surface of the solid model 3 and the surface of the solid model 4. Calculate the cross-correlation value for each vertex.

次に、相互相関値の重み付け処理について説明する。相互相関値計算部31において計算された相互相関値は、重み付け演算部32に供給する。重み付け演算部32には、シルエット拘束情報生成部10において生成されたシルエット拘束情報も供給される。重み付け演算部32では、入力した相互相関値に対してシルエット拘束情報で重み付けを行い、重み付けされた相互相関値を最大フロー/最小カット演算部40に供給する。シルエット拘束情報を用いて重み付けを行うことにより、ソリッドモデル1の凸状部分の形状が拘束され、拘束されない部分の形状については補正が行われる。   Next, cross correlation value weighting processing will be described. The cross correlation value calculated by the cross correlation value calculation unit 31 is supplied to the weighting calculation unit 32. The weight calculation unit 32 is also supplied with the silhouette constraint information generated by the silhouette constraint information generation unit 10. The weighting calculation unit 32 weights the input cross-correlation value with the silhouette constraint information, and supplies the weighted cross-correlation value to the maximum flow / minimum cut calculation unit 40. By weighting using the silhouette constraint information, the shape of the convex portion of the solid model 1 is constrained, and the shape of the unconstrained portion is corrected.

次に、最大フロー/最小カット演算による3次元形状モデルの生成処理について説明する。最大フロー/最小カット演算部40には、重み付けされた相互相関値と共にソリッドモデル3及び4が供給される。最大フロー/最小カット演算部40は、供給されるソリッドモデル3及び4並びに相互相関値を用いて、頂点に対応するノード及び隣接するノード間を接続するエッジにより構成されるグラフを生成し、生成されたグラフについて最大フロー/最小カットアルゴリズムを適用して3次元形状モデルを生成する。図8は、3次元頂点空間に設定されたグラフの一例を示す。ソリッドモデル4とソリッドモデル3とにより挟まれた領域はカット領域であり、ソリッドモデル3=が「1」、且つ、ソリッドモデル4が「=0」により規定される頂点群である。   Next, a process for generating a three-dimensional shape model by the maximum flow / minimum cut calculation will be described. The maximum flow / minimum cut calculation unit 40 is supplied with the solid models 3 and 4 together with the weighted cross-correlation values. The maximum flow / minimum cut calculation unit 40 generates and generates a graph composed of nodes corresponding to vertices and edges connecting adjacent nodes, using the supplied solid models 3 and 4 and cross-correlation values. A maximum flow / minimum cut algorithm is applied to the generated graph to generate a three-dimensional shape model. FIG. 8 shows an example of a graph set in the three-dimensional vertex space. An area sandwiched between the solid model 4 and the solid model 3 is a cut area, and the solid model 3 = is “1” and the solid model 4 is a vertex group defined by “= 0”.

図8に示すように、ソリッドモデル4の内側及びソリッドモデル3の外側のエッジには大きな重みを与え、それぞれSノード、Tノードに大きな重みのエッジで接続する。図8(a)のカット領域にシルエット拘束値で重みづけされた相互相関値より決定されたエッジ重みが与えられている。このように生成したグラフに最大フロー/最小カットアルゴリズムを適用する。このアルゴリズムは通信ネットワーク網のノード間の最大フロー(最大情報伝送量)を計算するアルゴリズムである。本実施例では、エッジ重みを頂点間の通信容量と見なしてSノードからTノードへ最大フローを流す。その際に、エッジ毎にフローの飽和度を調べる。飽和している全てエッジを境界面として、グラフを2つに分割する。2つの領域のうち、Tノードとつながっているノード(頂点)群が3次元形状として切り出される。なお、グラフを2つに分割する境界面はいくつも有るが、上記の境界面のエッジの通信容量の相和が最小となるため、その境界面を最小カットと呼ぶ。   As shown in FIG. 8, a large weight is given to the inner edge of the solid model 4 and the outer edge of the solid model 3, and the S node and the T node are connected to the edge with a large weight, respectively. Edge weights determined from cross-correlation values weighted with silhouette constraint values are given to the cut regions in FIG. The maximum flow / minimum cut algorithm is applied to the graph generated in this way. This algorithm is an algorithm for calculating a maximum flow (maximum information transmission amount) between nodes of a communication network. In the present embodiment, the maximum flow is made to flow from the S node to the T node by regarding the edge weight as the communication capacity between the vertices. At that time, the saturation of the flow is examined for each edge. The graph is divided into two with all saturated edges as boundary surfaces. Of the two regions, a node (vertex) group connected to the T node is cut out as a three-dimensional shape. Although there are many boundary surfaces that divide the graph into two, the sum of the communication capacities at the edges of the boundary surface is minimized, and the boundary surface is called a minimum cut.

本発明による3次元形状生成装置の一例を示す線図である。It is a diagram which shows an example of the three-dimensional shape production | generation apparatus by this invention. ソリッド4を生成する手法の一例を示す図である。It is a figure which shows an example of the method of producing | generating the solid 4. FIG. シルエット端の判定処理を示す図である。It is a figure which shows the determination process of a silhouette end. 視体積交差法により生成されたソリッドモデル1の生成状況を示す図である。It is a figure which shows the production | generation condition of the solid model 1 produced | generated by the visual volume intersection method. 真の被写体形状、ソリッドモデル1及びソリッドモデル3の位置関係を示す図である。It is a figure which shows the positional relationship of a true to-be-photographed object shape, the solid model 1, and the solid model 3. FIG. 可視判定処理を説明するための図である。It is a figure for demonstrating visibility determination processing. 相互相関値の計算方法を説明するための図である。It is a figure for demonstrating the calculation method of a cross correlation value. 3次元頂点空間を断面として示す図及び一部を拡大して示す図である。It is the figure which shows three-dimensional vertex space as a cross section, and the figure which expands and shows a part.

符号の説明Explanation of symbols

1a〜1n カメラ
2 シルエット画像生成部
3 ソリッドモデル生成部
4 視体積交差法部
5 エロージョン処理部
6 ダイレーション処理部
7 適応エロージョン処理部
10 シルエット拘束情報生成部
11 シルエット数生成部
12 シルエット拘束値変換部
20 可視情報生成部
30 相互相関演算部
31 相互相関計算部
32 重み付け演算部
40 最大フロー/最小カット演算部
DESCRIPTION OF SYMBOLS 1a-1n Camera 2 Silhouette image generation part 3 Solid model generation part 4 Visual volume intersection method part 5 Erosion process part 6 Dilation process part 7 Adaptive erosion process part 10 Silhouette constraint information generation part 11 Silhouette number generation part 12 Silhouette constraint value conversion 20 Visible information generator 30 Cross-correlation calculator 31 Cross-correlation calculator 32 Weighting calculator 40 Maximum flow / minimum cut calculator

Claims (4)

被写体を複数の角度方向から撮像した多視点カメラ画像から被写体の3次元形状モデルを生成する3次元形状生成装置であって、
多視点カメラ画像からシルエット画像を生成するシルエット画像生成手段と、
生成されたシルエット画像について視体積交差法を適用し、被写体の近似された3次元形状モデルである各種ソリッドモデルを生成するソリッドモデル生成手段と、
前記シルエット画像とソリッドモデルとに基づいてシルエット拘束値を生成するシルエット拘束情報生成手段と、
前記ソリッドモデルを用いて、被写体表面を可視的に撮像したカメラを各頂点毎に特定する可視カメラ情報生成手段と、
前記特定されたカメラにより撮像されたカメラ画像間の相互相関値を演算する相互相関値演算手段と、
前記生成されたシルエット拘束値を用いて、演算された相互相関値について重み付けを行い、重み付けされた相互相関値を出力する手段と、
前記ソリッドモデルについて、表面頂点に対応するノードと、隣接するノード間を接続するエッジとから構成されるグラフを形成し、前記重み付けされた相互相関値を用いて最大フロー/最小カットアルゴリズムを適用して被写体の3次元形状モデルを生成する最大フロー/最小カット演算手段とを具えることを特徴とする3次元形状生成装置。
A three-dimensional shape generation device that generates a three-dimensional shape model of a subject from a multi-viewpoint camera image obtained by imaging the subject from a plurality of angular directions,
Silhouette image generation means for generating a silhouette image from a multi-viewpoint camera image;
A solid model generation means for generating various solid models that are approximated three-dimensional shape models of a subject by applying a visual volume intersection method to the generated silhouette image;
Silhouette constraint information generating means for generating a silhouette constraint value based on the silhouette image and the solid model;
Using the solid model, a visible camera information generating unit that specifies a camera that visually images the surface of the subject for each vertex;
A cross-correlation value calculating means for calculating a cross-correlation value between camera images captured by the specified camera;
Means for weighting the calculated cross-correlation value using the generated silhouette constraint value, and outputting the weighted cross-correlation value;
For the solid model, a graph composed of nodes corresponding to surface vertices and edges connecting adjacent nodes is formed, and a maximum flow / minimum cut algorithm is applied using the weighted cross-correlation values. And a maximum flow / minimum cut calculating means for generating a three-dimensional shape model of the subject.
請求項1に記載の3次元形状生成装置において、前記ソリッドモデル生成手段は、シルエット画像に視体積交差法を適用することにより形成される第1のソリッドモデルと、第1のソリッドモデルにエロージョン処理を行うことにより得られる第2のソリッドモデルと、第1のソリッドモデルにダイレーション処理を行うことにより得られる第3のソリッドモデルと、第1のソリッドモデルに適応的エロージョン処理を行うことにより得られる第4のソリッドモデルとを生成し、
前記最大フロー/最小カット演算手段は、第4のソリッドモデルの表面と第3のソリッドモデルの表面との間に形成される領域について最大フロー/最小カットアルゴリズムを適用し、エネルギーの総和が最小となる頂点群を求めて3次元形状モデルを生成することを特徴とする3次元形状生成装置。
2. The three-dimensional shape generation apparatus according to claim 1, wherein the solid model generation unit performs an erosion process on the first solid model formed by applying the visual volume intersection method to the silhouette image and the first solid model. Obtained by performing erosion processing on the first solid model, the third solid model obtained by performing dilation processing on the first solid model, and the first solid model. A fourth solid model to be generated,
The maximum flow / minimum cut calculation means applies a maximum flow / minimum cut algorithm to a region formed between the surface of the fourth solid model and the surface of the third solid model, so that the total energy is minimum. A three-dimensional shape generation apparatus characterized in that a three-dimensional shape model is generated by obtaining a vertex group.
請求項2に記載の3次元形状生成装置において、前記シルエット拘束情報生成手段は、前記第3のソリッドモデルの表面頂点を各シルエット画像上に投影し、被写体シルエットと背景との境界点であるシルエット端を検出し、シルエット端を形成するシルエット画像と関連するカメラの数を用いてシルエット拘束値を生成することを特徴とする3次元形状生成装置。   3. The three-dimensional shape generation apparatus according to claim 2, wherein the silhouette constraint information generation unit projects a surface vertex of the third solid model onto each silhouette image, and is a silhouette that is a boundary point between the subject silhouette and the background. An apparatus for generating a three-dimensional shape, wherein an edge is detected and a silhouette constraint value is generated using a number of cameras associated with a silhouette image forming a silhouette edge. 請求項2又は3に記載の3次元形状生成装置において、前記相互相関値演算手段は、カメラ画像の輝度信号を用いて相互相関値を計算すると共に、RGBの各色成分についても相互相関値を計算し、色成分から得た相互相関値を用いて重み付け加算することを特徴とする3次元形状生成装置。   4. The three-dimensional shape generation apparatus according to claim 2, wherein the cross-correlation value calculation means calculates a cross-correlation value using a luminance signal of a camera image and also calculates a cross-correlation value for each color component of RGB. And a weighted addition using a cross-correlation value obtained from the color component.
JP2008293090A 2008-11-17 2008-11-17 3D shape generator Expired - Fee Related JP5068732B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008293090A JP5068732B2 (en) 2008-11-17 2008-11-17 3D shape generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008293090A JP5068732B2 (en) 2008-11-17 2008-11-17 3D shape generator

Publications (2)

Publication Number Publication Date
JP2010121945A JP2010121945A (en) 2010-06-03
JP5068732B2 true JP5068732B2 (en) 2012-11-07

Family

ID=42323430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008293090A Expired - Fee Related JP5068732B2 (en) 2008-11-17 2008-11-17 3D shape generator

Country Status (1)

Country Link
JP (1) JP5068732B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11302061B2 (en) 2018-01-22 2022-04-12 Canon Kabushiki Kaisha Image processing apparatus and method, for gerneration of a three-dimensional model used for generating a virtual viewpoint image

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011251395A (en) * 2010-06-04 2011-12-15 Takamaru Kogyo Kk Robot teaching system
CL2010000884A1 (en) * 2010-08-19 2011-02-18 Andres Bienzobas Saffie Fernando Two-dimensional printing method on a three-dimensional printing support, which comprises providing a printing support, filling support means of the printing support with a coloring medium, waiting for the coloring medium to dry, and cutting transversely in a manner parallel the face of impression in a plurality of fish markets; and a block of impression.
JP5648600B2 (en) * 2011-06-17 2015-01-07 株式会社デンソー Image processing device
JP5879291B2 (en) * 2013-03-27 2016-03-08 富士フイルム株式会社 Image processing apparatus, image processing program, and method of operating image processing apparatus
JP7013144B2 (en) * 2016-10-12 2022-01-31 キヤノン株式会社 Image processing equipment, image processing methods and programs
JP7163049B2 (en) * 2018-04-03 2022-10-31 キヤノン株式会社 Information processing device, information processing method and program
CN111855712B (en) * 2020-07-03 2023-04-11 大连理工大学 Three-dimensional modeling method for cemented hydrate sediment based on CT image
JP7309132B1 (en) * 2023-02-07 2023-07-18 株式会社ヘミボーラ Image Synthesis Method in Chroma Key Processing

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6046763A (en) * 1997-04-11 2000-04-04 Nec Research Institute, Inc. Maximum flow method for stereo correspondence
JP3764857B2 (en) * 2001-07-06 2006-04-12 日産自動車株式会社 Method for detecting local deformation of measured surface
JP2006266943A (en) * 2005-03-24 2006-10-05 Sony Corp Apparatus and method for inspecting defect
JP2008017386A (en) * 2006-07-10 2008-01-24 Nippon Hoso Kyokai <Nhk> Key image generation device
JP4839237B2 (en) * 2007-02-07 2011-12-21 日本電信電話株式会社 3D shape restoration method, 3D shape restoration device, 3D shape restoration program implementing the method, and recording medium recording the program
JP4915737B2 (en) * 2007-03-13 2012-04-11 興和株式会社 Image analysis system and image analysis program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11302061B2 (en) 2018-01-22 2022-04-12 Canon Kabushiki Kaisha Image processing apparatus and method, for gerneration of a three-dimensional model used for generating a virtual viewpoint image

Also Published As

Publication number Publication date
JP2010121945A (en) 2010-06-03

Similar Documents

Publication Publication Date Title
JP5068732B2 (en) 3D shape generator
JP6425780B1 (en) Image processing system, image processing apparatus, image processing method and program
JP6201476B2 (en) Free viewpoint image capturing apparatus and method
KR100799990B1 (en) Device and Method for transforming 2-D Image into 3-D Image
CN107798704B (en) Real-time image superposition method and device for augmented reality
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
KR102152436B1 (en) A skeleton processing system for dynamic 3D model based on 3D point cloud and the method thereof
JP6406853B2 (en) Method and apparatus for generating optical field images
TW201436552A (en) Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream
JP2017092756A (en) Image processing system, image processing method, image projecting system and program
CN116168143A (en) Multi-view three-dimensional reconstruction method
JPH05303629A (en) Method for synthesizing shape
JP6552256B2 (en) Image processing apparatus and image processing apparatus control method
Pathak et al. Virtual reality with motion parallax by dense optical flow-based depth generation from two spherical images
KR20110112143A (en) A method for transforming 2d video to 3d video by using ldi method
WO2020209108A1 (en) Image processing device, 3d model generation method, and program
JP2010506482A (en) Method and filter for parallax recovery of video stream
KR102238794B1 (en) Method for increasing film speed of video camera
KR102146839B1 (en) System and method for building real-time virtual reality
JP2013069026A (en) Device, method, and program for restoring three-dimensional shape of subject
CN104463958A (en) Three-dimensional super-resolution method based on disparity map fusing
JP2022092685A (en) Three-dimensional shape model generation device, three-dimensional shape model generation method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP2002077941A (en) Apparatus and method for generating depth image as well as computer readable recording medium recording program to execute the method in computer
JP5970387B2 (en) Image generating apparatus, image generating method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120815

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5068732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees