JP2008310724A - Three-dimensional shape restoration device, three-dimensional shape restoration method, three-dimensional shape restoration program and recording medium with its program stored - Google Patents

Three-dimensional shape restoration device, three-dimensional shape restoration method, three-dimensional shape restoration program and recording medium with its program stored Download PDF

Info

Publication number
JP2008310724A
JP2008310724A JP2007159901A JP2007159901A JP2008310724A JP 2008310724 A JP2008310724 A JP 2008310724A JP 2007159901 A JP2007159901 A JP 2007159901A JP 2007159901 A JP2007159901 A JP 2007159901A JP 2008310724 A JP2008310724 A JP 2008310724A
Authority
JP
Japan
Prior art keywords
dimensional
texture
polygon
feature
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007159901A
Other languages
Japanese (ja)
Inventor
Katsuya Yamashita
勝也 山下
Xiaojun Wu
小軍 ウ
Yoshiori Wakabayashi
佳織 若林
Takayuki Yasuno
貴之 安野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007159901A priority Critical patent/JP2008310724A/en
Publication of JP2008310724A publication Critical patent/JP2008310724A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that calculation costs to be spent on the generation of a dot group which is unnecessary for three-dimensional shape restoration is huge. <P>SOLUTION: An image acquired by picking up the image of a target object by a plurality of imaging devices installed according to multi-aspects is input as an input image (201). Then, a section corresponding to the target object is extracted from the input image, and the outline of the extracted section is calculated, and a polygon approximate outline is extracted by approximating the outline to a polygon (S2021). Then, texture featured dots as two-dimensional dots showing the characteristics of the texture of the target object are extracted from the input image (2022). Then, a three-dimensional polyhedron is restored based on the extracted polygon approximate outline, and featured dots as three-dimensional dots following the texture are added based on the extracted texture featured dots, and a polygon is generated (203). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カメラなどの撮影装置で撮影もしくは撮像された画像に写った被写体の3次元形状を復元する技術に関するものである。   The present invention relates to a technique for restoring a three-dimensional shape of a subject captured in an image captured or captured by an imaging device such as a camera.

物体における3次元表面の幾何構造(3次元形状)を記述する技術は、3次元計測分野やCG(Computer Graphic)作成分野で多くの研究が行われている。その3次元表面の幾何構造の記述には、ポリゴン表現がよく用いられている。   Much research has been conducted on techniques for describing the geometric structure (three-dimensional shape) of a three-dimensional surface of an object in the three-dimensional measurement field and the CG (Computer Graphic) creation field. Polygon representation is often used to describe the geometric structure of the three-dimensional surface.

ボリゴンは対象物体(以下、単に対象)の表面形状を現しているが、ポリゴンの面が対象の表面に一致していることに加え、ポリゴンの頂点やエッジの位置が対象の表面テクスチャの特徴点やエッジと一致している場合、即ち、対象表面のテクスチャに沿うポリゴンを計算することはさまざまなメリットを有する。   Boligon represents the surface shape of the target object (hereinafter simply the target), but in addition to the surface of the polygon matching the target surface, the vertex and edge positions of the polygon are the feature points of the target surface texture. In other words, the calculation of the polygon along the texture of the target surface has various advantages.

例えば、ポリゴンが表面テクスチャの特徴と一致していれば、ポリゴンの面毎に色や反射特性などを解析することや、色や反射特性を修正することが容易となるため、解析やレンダリングを行い易くなる。   For example, if a polygon matches the characteristics of the surface texture, it is easy to analyze the color and reflection characteristics for each surface of the polygon, and to correct the color and reflection characteristics. It becomes easy.

実世界の対象から上述のようなテクスチャに沿うポリゴンを獲得する従来方法を図13の処理フローの一例に基づいて説明する。この従来方法は、カメラ(撮影装置の一種;例えば、デジタルカメラ)による入力か否かを判断するステップS101,ステップS1021〜S1025を有する点群形状獲得ステップS102,ステップS1031を有するポリゴン形状獲得ステップS103,ステップS1041〜S1045を有するポリゴン修正ステップS104を有する。   A conventional method for acquiring a polygon that follows the texture as described above from an object in the real world will be described based on an example of the processing flow of FIG. In this conventional method, step S101 for determining whether or not the input is performed by a camera (a kind of photographing apparatus; for example, a digital camera), point shape acquisition step S102 having steps S1021 to S1025, and polygon shape acquisition step S103 having step S1031. , Steps S1041 to S1045 have a polygon correction step S104.

まず、ステップS101では、カメラによる入力か否かを判断し、カメラによる入力の場合、ステップS1022へ進む。カメラによる入力でない場合、ステップS1021へ進む。   First, in step S101, it is determined whether or not the input is from a camera. If the input is from a camera, the process proceeds to step S1022. If it is not input by the camera, the process proceeds to step S1021.

点群形状獲得ステップS102では、既に知られている、実世界における対象の3次元形状を点群として獲得する。この獲得する手法にはいくつかの代表的な手法があり、例えば、カメラから得られた画像データ(以下、単に画像という)を入力として使う方法(S1022〜S1025)と、カメラを使わず対象表面の3次元位置を測定する方法(S1021)と、のいずれかを実行する。   In the point cloud shape acquisition step S102, a known three-dimensional shape in the real world is acquired as a point cloud. There are several typical techniques for this acquisition. For example, a method using image data obtained from a camera (hereinafter simply referred to as an image) as an input (S1022 to S1025), and a target surface without using a camera. Or the method of measuring the three-dimensional position (S1021).

前記カメラを使わず対象表面の3次元位置を測定する方法(S1021)は、例えば、3次元レーザスキャナ、レーザレンジファインダなどを用いる方法が知られており、レーザ光を対象表面に照射し、照射方向にある物体の表面点の位置を出力する。   As a method for measuring the three-dimensional position of the target surface without using the camera (S1021), for example, a method using a three-dimensional laser scanner, a laser range finder, or the like is known, and the target surface is irradiated with laser light. Outputs the position of the surface point of the object in the direction.

カメラから得られた画像を入力として使う方法(S1022〜S1025)は、入力画像処理(S1022)を行った後、ユーザの手法選択(S1023)によって、マルチベースラインステレオ法(S1024)、視体積交差法(S1025)のいずれかを選択し実行する。いずれの方法も入力画像取得処理として、対象を複数のカメラを用いて撮影した画像を用いる。   In the method of using an image obtained from a camera as an input (S1022 to S1025), after performing input image processing (S1022), a multi-baseline stereo method (S1024), a visual volume crossing is performed by a user method selection (S1023) One of the methods (S1025) is selected and executed. In either method, an image obtained by capturing an object using a plurality of cameras is used as the input image acquisition process.

マルチベースラインステレオ法(S1024)は、多数のカメラから得られた画像の中からステレオカメラ対を構成するカメラ2台毎に関して対象の距離画像(デプスマップ)を作成し、それを繋ぎ合わせることによって対象の3次元点群を計算する。   In the multi-baseline stereo method (S1024), a distance image (depth map) is created for each of two cameras constituting a stereo camera pair from images obtained from a large number of cameras, and these are connected together. Compute the 3D point cloud of interest.

視体積交差法(S1025)は、複数のカメラから得られた画像を用いて、カメラの共通視野内の対象を復元する方法であって、非特許文献1に基づいた一例を以下に説明する。   The visual volume intersection method (S1025) is a method for restoring an object in a common visual field of cameras using images obtained from a plurality of cameras, and an example based on Non-Patent Document 1 will be described below.

非特許文献1における視体積交差法による形状復元は、復元範囲となる3次元空間の各ボクセルを全てのカメラの画像面に投影して評価することによって、ボクセル内に対象があるか否かを決定する方法を用いており、得られるデータは点群である。   The shape restoration by the visual volume intersection method in Non-Patent Document 1 is performed by projecting and evaluating each voxel in the three-dimensional space as a restoration range on the image planes of all cameras, thereby determining whether or not there is an object in the voxel. The data to be obtained is a point cloud.

この方法で生成されたポリゴン頂点は、対象のテクスチャ特徴点(テクスチャの特徴を表す2次元点)やエッジとは無関係な点である場合が多く、表面のテクスチャ特徴点やエッジからずれていたり、表面テクスチャ特徴上に頂点やエッジがなかったり、あるいは逆にテクスチャの特徴がない部分に多数の点が生成されるなどの現象が生じる。つまり、得られたポリゴンはテクスチャに沿うポリゴンという観点で見た場合、点の過不足や位置のずれが発生している。   Polygon vertices generated by this method are often unrelated to the target texture feature point (two-dimensional point representing the texture feature) or edge, and are shifted from the texture feature point or edge on the surface, A phenomenon occurs in which there are no vertices or edges on the surface texture feature, or on the contrary, a large number of points are generated in a portion having no texture feature. In other words, when the obtained polygon is viewed from the viewpoint of a polygon along the texture, there are excess or deficiency of points and displacement of positions.

この視体積交差法では、対象の形状を数mm(ミリメートル)〜数cm(センチメートル)の均一な密度で復元する方法を用いており、膨大な数の点が生成される。   This visual volume intersection method uses a method of restoring the shape of an object with a uniform density of several millimeters (millimeters) to several centimeters (centimeters), and generates an enormous number of points.

ポリゴン形状獲得ステップ(S103)における点群−ポリゴン変換処理(S1031)は、ステップS102で得られた点群をポリゴンへ変換する処理であって、非特許文献1では点群を離散マーチングキューブ法によりポリゴンに変換する。   The point group-polygon conversion process (S1031) in the polygon shape acquisition step (S103) is a process of converting the point group obtained in step S102 into a polygon. In Non-Patent Document 1, the point group is converted by the discrete marching cube method. Convert to polygon.

一般に点群を面の張り間違えのないようにポリゴンに変換するためには、密な点群であることが望ましい。そのため、点数をこの段階で削減することは困難であり、前記点群形状獲得ステップ(S102)において得られた膨大な点を処理するために必要とされる計算コストが高いといった問題がある。また、得られたポリゴンは、密なメッシュであるためポリゴン数が大きくデータ量が大きく、テクスチャを表現する観点からみた場合、不必要な点が多数含まれるといった問題がある。   In general, in order to convert a point cloud into a polygon so that there is no mistake in surface tension, a dense point cloud is desirable. Therefore, it is difficult to reduce the number of points at this stage, and there is a problem that the calculation cost required for processing the enormous points obtained in the point cloud shape acquisition step (S102) is high. Further, since the obtained polygon is a dense mesh, the number of polygons is large and the amount of data is large. From the viewpoint of expressing a texture, there are problems that many unnecessary points are included.

ポリゴン修正ステップ(S104)における入力画像取得処理(S1041)は、前記のステップS1022と同じ処理であるため、説明を省略する。   The input image acquisition process (S1041) in the polygon correction step (S104) is the same process as that in step S1022, and will not be described.

表面特徴抽出処理(S1042)は、非特許文献1の場合、取得した画像中の画素の色を取得する処理である。   In the case of Non-Patent Document 1, the surface feature extraction process (S1042) is a process for acquiring the color of the pixel in the acquired image.

ポリゴン頂点評価処理(S1043)は、ポリゴン各頂点に対して動くエネルギー場を設定し、上記の画素の色に基づく拘束、シルエットに基づく拘束、ポリゴン交差を防ぐ拘束などに基づいて設計されたエネルギー場を評価し、頂点の修正値を計算する。   The polygon vertex evaluation process (S1043) sets an energy field that moves with respect to each vertex of the polygon, and is designed based on the constraints based on the color of the pixels, constraints based on silhouettes, constraints that prevent polygon intersection, and the like. Is evaluated and the correction value of the vertex is calculated.

なお、ポリゴン頂点評価処理(S1043)においても、前記多数のポリゴンを処理する必要があるため計算量が膨大であることと、複数の拘束条件に基づく頂点の評価アルゴリズムは複雑であり、拘束条件の想定範囲からずれた頂点は安定した結果にならないといった問題がある。   Also in the polygon vertex evaluation process (S1043), it is necessary to process the large number of polygons, so the calculation amount is enormous, and the vertex evaluation algorithm based on a plurality of constraint conditions is complicated. There is a problem that vertices that deviate from the expected range do not produce stable results.

ポリゴン修正処理(S1044)は、前記頂点の修正値にしたがってポリゴン頂点の座標を変更する処理であって、当該頂点の座標が修正されたポリゴンを出力する。   The polygon correction process (S1044) is a process of changing the coordinates of the polygon vertices according to the correction value of the vertices, and outputs the polygon with the corrected vertex coordinates.

また、関連技術として、視体積交差法の一つとして知られるPVH(Polyhedral Visual Hulls)法をここで説明する。   Further, a PVH (Polyhederal Visual Hulls) method known as one of the visual volume intersection methods will be described here as a related technique.

視体積交差法の原理を実現する一つの方法であるPVH法を図14に基づいて説明する。なお、以下の説明におけるPVH法は、多視点撮影された画像から抽出される多角形近似された輪郭(即ち、多角形近似輪郭)を入力とする。   A PVH method, which is one method for realizing the principle of the visual volume intersection method, will be described with reference to FIG. In the PVH method in the following description, a polygon approximated contour (that is, a polygon approximated contour) extracted from a multi-viewpoint image is input.

図14Aにおいて、符号Cは対象物体、符号PAはカメラの投影中心、符号SPはカメラの撮影面、符号DAはカメラの撮像面上で求められた2次元シルエットである。 In Figure 14A, the sign C object, the code P A projection center of the camera, the code SP imaging surface of the camera, reference numeral D A is a two-dimensional silhouette obtained on the imaging surface of the camera.

図14Bにおいて、符号VAは視体積(Visual Cone)と呼ばれ、カメラの投影中心PAからシルエットDAの輪郭上の各点を通すように3次元空間中に広がる錐体であり、図14B中では、カメラの投影中心PAとシルエットDAを用いて生じている(構成されている)。符号F1,F2は、視体積を構成する面(Face)と呼ばれ、それぞれVisual Coneのある一面である。 In FIG. 14B, symbol V A is called a visual volume, and is a cone that extends in the three-dimensional space so as to pass each point on the contour of the silhouette D A from the projection center P A of the camera. the in 14B, (configured) to have occurred by using a projection center P a silhouette D a camera. Reference numerals F 1 and F 2 are called faces constituting the visual volume, and each is a face having a visual cone.

図14Cにおいて、視体積VAと視体積VBは2つのカメラから求められたVisual Coneである。符号VHは視体積の交差(Visual Hull)であり、複数のVisual Cone、ここでは視体積VAと視体積VBの共通領域を求めることによって得られた対象の3次元形状である。 In FIG. 14C, the visual volume V A and the visual volume V B are Visual Cone obtained from two cameras. Reference symbol VH is a visual hull, and is a three-dimensional shape of a target obtained by obtaining a plurality of visual cones, here, a common region of the visual volume V A and the visual volume V B.

PVH法において、図14に示した視体積交差法におけるVisual Hullのある一面を求める計算の原理を図15に基づいて説明する。   In the PVH method, the principle of calculation for obtaining one surface of the Visual Hull in the visual volume intersection method shown in FIG. 14 will be described based on FIG.

図15中の符号P1,P2は複数のカメラのそれぞれの投影中心である。符号SP1,SP2はそれぞれのカメラの撮像面である。符号Cは対象物体を示す。符号D1,D2はカメラの撮像面SP1,SP2上に求められた対象物体Cのシルエットである。符号Fはカメラの投影中心P2とシルエットD2のある一辺を用いて構成されるFaceである。符号PFは、Face Fをカメラの撮像面SP1上に投影した領域である。符号OAはカメラの撮像面SP1上で求めた領域PFとシルエットD1の重畳領域である。符号IAは、重畳領域OAをFace Fに逆投影して得られた3次元面でありFace Fの一部である。 Symbols P 1 and P 2 in FIG. 15 are the projection centers of the plurality of cameras. Reference numerals SP 1 and SP 2 are imaging surfaces of the respective cameras. A symbol C indicates a target object. Code D 1, D 2 is the silhouette of the object C obtained on the imaging plane SP 1, SP 2 cameras. Reference numeral F is a face formed by using one side having the projection center P 2 and the silhouette D 2 of the camera. Reference numeral PF denotes an area obtained by projecting Face F onto the imaging surface SP 1 of the camera. Reference numeral OA is an overlapping area of the area PF and the silhouette D 1 obtained on the imaging surface SP 1 of the camera. A symbol IA is a three-dimensional surface obtained by back projecting the overlapping area OA onto Face F, and is a part of Face F.

そして、カメラが3台以上ある場合、3次元面IAは複数のカメラの撮像面上で求めた重畳領域をFace Fに逆投影し、それらの交差領域(共通領域)を求めることで得られる。即ち、3次元面IAはVisual Hullのある一面を指し示すものである。   When there are three or more cameras, the three-dimensional plane IA can be obtained by back projecting the overlapping area obtained on the imaging surfaces of a plurality of cameras onto Face F and obtaining the intersection area (common area). That is, the three-dimensional surface IA indicates one surface having the Visual Hull.

複数のカメラを用いて、対象のVisual Hull全体を計算するまでのPVH法示す処理フローの一例を図16に基づいて説明する。   An example of the processing flow showing the PVH method until the entire Visual Hall of interest is calculated using a plurality of cameras will be described with reference to FIG.

まず、全てのカメラについてVisual Coneを生成する処理であり、各カメラについてそれぞれVisual Coneを生成する(S501〜S503)。   First, it is a process of generating Visual Cone for all the cameras, and Visual Cone is generated for each camera (S501 to S503).

ステップS501は、全てのカメラについて繰り返しを行う処理である。   Step S501 is processing to repeat for all cameras.

ステップS502は、Visual Coneを計算する処理であり、カメラの投影中心から撮像面における対象の多角形近似輪郭の各辺を通るように面を張ることでVisual Coneを生成する。   Step S502 is processing for calculating Visual Cone, and generates Visual Cone by extending a surface from the projection center of the camera so as to pass through each side of the target polygon approximate contour on the imaging surface.

ステップS503は、全てのカメラについて繰り返しが終わったことを判定する処理である。   Step S503 is processing for determining that the repetition has been completed for all the cameras.

そして、Visual Coneを構成する面を切り取り、Visual Cone上にVisual Hullを計算する処理である(S504〜S513)。全てのVisual Coneについて、ステップS505〜S512を繰り返すことによって対象全体のVisual Hullが計算される。それぞれ以下のようなステップで計算される。   Then, the surface constituting the Visual Cone is cut out and the Visual Hull is calculated on the Visual Cone (S504 to S513). For all Visual Cone, the Visual Hull of the entire object is calculated by repeating steps S505 to S512. Each is calculated in the following steps.

ステップS505は、処理対象のVisual Coneの全てのFaceについて繰り返しを行う処理である。   Step S505 is a process for repeating all the Faces of the Visual Cone to be processed.

ステップS506〜S510は、Faceを別のカメラの撮像面に投影し、シルエット(多角形近似輪郭とその内部を構成する2次元面)と投影されたFaceの重畳領域を求めFaceに逆投影する処理である。   Steps S <b> 506 to S <b> 510 are processes for projecting a face onto an imaging surface of another camera, obtaining a silhouette (polygon approximate contour and a two-dimensional surface constituting the interior) and a projected face overlapping region, and backprojecting to face. It is.

ステップS506は、処理対象となっているVisual Coneの属すカメラ以外のカメラについて繰り返しを行う処理である。   Step S506 is a process of repeating for cameras other than the camera to which the Visual Cone to be processed belongs.

ステップS507はFaceをカメラのスクリーンに投影する処理であり、投影計算により、スクリーン上に投影されたFaceを計算する。   Step S507 is processing for projecting the face onto the camera screen, and the face projected onto the screen is calculated by projection calculation.

ステップS508は、投影されたFaceとシルエットの重畳領域を計算する処理であり、幾何学的な多角形の内外判定を用いて投影されたFaceとシルエットの2つの面の重畳領域を計算する。   Step S508 is a process for calculating the projected face and silhouette overlap area, and calculates the overlap area of the two faces of the face and silhouette projected using the inside / outside determination of the geometric polygon.

ステップS509は、重畳領域をFaceに逆投影する処理であり、ステップS508で求めた重畳領域を投影計算により、Face上に逆投影し、逆投影された重畳領域を求める。   Step S509 is a process of back projecting the superposed area to the face, and the superposed area obtained in step S508 is back projected onto the face by projection calculation to obtain a back projected superposed area.

ステップS510は、ステップS506からの繰り返し処理において全てのカメラについて繰り返しが終わったことを判定する処理である。   Step S510 is processing for determining that the repetition has been completed for all the cameras in the repetition processing from step S506.

ステップS511は、Face上で、逆投影された重畳領域全ての交差領域を求める処理であり、幾何学的な多角形の内外判定を用いて交差領域を計算する。   Step S511 is a process for obtaining intersection regions of all the back-projected superimposed regions on the face, and calculates intersection regions using geometric polygon inside / outside determination.

ステップS512は、ステップS505からの繰り返し処理において全てのFaceについて繰り返しが終わったことを判定する処理である。   Step S512 is processing for determining that the repetition has been completed for all the faces in the repetition processing from step S505.

ステップS513は、ステップS504からの繰り返し処理において全てのVisual Coneについて繰り返しが終わったことを判定する処理である。   Step S513 is processing for determining that the repetition has been completed for all Visual Cones in the repetition processing from step S504.

以上のPVH法の一例を示す処理によって、対象のVisual Hullを構成する多面体形状が計算され、形状を表現する3次元点が多面体の各頂点として得られる。
延原章平,和田俊和,松山隆司,“弾性メッシュモデルを用いた多視点画像からの高精度3次元形状復元”,情報処理学会CVIM研究会論文誌,情報処理学会,2002(平成14)年12月,Vol.43,SIG11(CVIM5),pp.53−63。 Matusik,W.,C.Buehler,and L.McMillan,”Polyhedral Visual Hulls for Real−Time Rendering”,Proceedings of Twelfth Eurographics Workshop on Rendering,June 2001(平成13年6月),pp.115225.
The polyhedron shape constituting the target Visual Hull is calculated by the above-described processing showing an example of the PVH method, and a three-dimensional point representing the shape is obtained as each vertex of the polyhedron.
Nobuhara Shohei, Wada Toshikazu, Matsuyama Takashi, “Highly accurate 3D shape restoration from multi-viewpoint images using elastic mesh models”, Information Processing Society of Japan, Journal of Information Processing Society of Japan, Information Processing Society of Japan, December 2002 , Vol. 43, SIG11 (CVIM5), pp. 53-63. Matusik, W.M. , C.I. Buehler, and L.B. McMillan, “Polyhederal Halls for Real-Time Rendering”, Processeds of Terrors Europe, Workshop on Rendering, June 2001 (pp. 2001). 115225.

上述の図13のような従来方法では、不必要な点群の生成にかかる計算コスト(例えば、図13中のステップS1031)
したがって、それらの計算コストを削減するために、不必要な点の生成を避けることが必要である。
In the conventional method as shown in FIG. 13 described above, the calculation cost for generating unnecessary point clouds (for example, step S1031 in FIG. 13).
It is therefore necessary to avoid generating unnecessary points in order to reduce their computational costs.

さらに、ポリゴンの修正処理にかかるアルゴリズムの煩雑さと、結果の不確かさが大きな問題であり、安定した結果を得ることが可能なアルゴリズムを必要とする。   Furthermore, the complexity of the algorithm for correcting polygons and the uncertainty of the results are major problems, and an algorithm that can obtain a stable result is required.

本発明は、前記課題に基づいてなされたものであって、対象物体の3次元多面体形状を表現する3次元点と、テクスチャに沿う3次元点を計算し、それらを用いてテクスチャに沿うポリゴンを計算する3次元形状復元装置,3次元形状復元方法,3次元形状復元プログラム及びそのプログラムを格納した記録媒体を提供することにある。   The present invention has been made based on the above-described problem, and calculates a three-dimensional point representing the three-dimensional polyhedron shape of the target object and a three-dimensional point along the texture, and uses them to calculate a polygon along the texture. An object of the present invention is to provide a three-dimensional shape restoration apparatus, a three-dimensional shape restoration method, a three-dimensional shape restoration program, and a recording medium storing the program.

本発明は、前記課題の解決を図るために、前述のPVH法に加え、特徴点追加型PVH法を用いる。   In order to solve the above problems, the present invention uses a feature point addition type PVH method in addition to the above-described PVH method.

以下、PVH法及び特徴点追加型PVH法の詳細な原理を説明する。   Hereinafter, the detailed principle of the PVH method and the feature point addition type PVH method will be described.

本発明で提案する特徴点追加型PVH法においてVisual Hullの一面と、その面上に投影された対象表面の特徴点を求める過程を図17に基づいて説明する。   A process for obtaining one surface of the Visual Hull in the feature point addition type PVH method proposed in the present invention and a feature point of the target surface projected on the surface will be described with reference to FIG.

図17中の符号P1,P2は複数のカメラ(撮影装置もしくは撮像装置の一種)のそれぞれの投影中心である。符号SP1,SP2はそれぞれのカメラの撮像面である。符号Cは対象物体を示す。符号TI1はカメラの撮像面SP1上に求められた対象物体Cの前景であり、背景差分により対象物体Cを抜き出したものである。符号D2はカメラの撮像面SP2上に求められた対象物体Cのシルエットである。符号Fはカメラの投影中心P2とD2のある一辺を用いて構成されるFaceである。 Reference numerals P 1 and P 2 in FIG. 17 are projection centers of a plurality of cameras (a type of imaging device or imaging device). Reference numerals SP 1 and SP 2 are imaging surfaces of the respective cameras. A symbol C indicates a target object. Code TI 1 is a foreground object C obtained on the imaging surface SP 1 of the camera, in which an extracted object C by background subtraction. Code D 2 is the silhouette of the object C obtained on the imaging surface SP 2 cameras. Reference numeral F denotes a face configured by using one side of the camera projection centers P 2 and D 2 .

符号PFは、Face Fをカメラの撮像面SP1上に投影した領域である。符号OAはカメラの撮像面SP1上で求めた領域PFとD1の重畳領域である。符号TFは前景TI1から抽出したテクスチャ特徴点である。符号IAは重畳領域OAをFace Fに逆投影して得られた3次元面でありFace Fの一部である。 Reference numeral PF denotes an area obtained by projecting Face F onto the imaging surface SP 1 of the camera. Code OA is the overlapping region of the region PF and D 1 obtained on the imaging surface SP1 of the camera. Symbol TF is a texture feature point extracted from the foreground TI 1 . Reference numeral IA is a three-dimensional surface obtained by back projecting the overlapping area OA onto Face F, and is a part of Face F.

そして、カメラが3台以上ある場合、3次元面IAは複数のカメラの撮像面上で求めた重畳領域をFace Fに逆投影し、それらの交差領域(共通領域)を求めることで得られる。即ち、3次元面IAはVisual Hullのある一面を指し示すものである。   When there are three or more cameras, the three-dimensional plane IA can be obtained by back projecting the overlapping area obtained on the imaging surfaces of a plurality of cameras onto Face F and obtaining the intersection area (common area). That is, the three-dimensional surface IA indicates one surface having the Visual Hull.

また、符号TVは3次元面IA上に逆投影されたテクスチャ特徴点であり、テクスチャ特徴点TFをFace Fに逆投影し、3次元面IAの内部にあるものを選択することで得られる。   The symbol TV is a texture feature point that is back-projected on the three-dimensional surface IA, and is obtained by back-projecting the texture feature point TF to Face F and selecting the one inside the three-dimensional surface IA.

上述の原理に基づき、前記課題の解決を図るために、請求項1記載の発明は、対象物体を多視点に設置された複数の撮影装置によって撮像した画像を入力画像取得部から取得し、該取得した画像を入力画像として入力する入力画像取得処理部を備え、前記対象物体の3次元形状を復元する3次元形状復元装置であって、前記入力画像取得処理部によって入力された入力画像から対象物体に応じた部分を抜き出し、その抜き出された部分の輪郭を計算し、該輪郭を多角形近似した多角形近似輪郭を抽出する輪郭情報抽出部と、前記入力画像から対象物体のテクスチャの特徴を表す2次元点であるテクスチャ特徴点を抽出する表面特徴抽出部と、前記輪郭情報抽出部で抽出された多角形近似輪郭を用いて3次元多面体を復元し、前記表面特徴抽出部で抽出されたテクスチャ特徴点に基づいてテクスチャに沿う3次元点である特徴点を追加し、前記復元された3次元多面体と追加されたテクスチャに沿う3次元点である特徴点に基づいてポリゴンを生成するポリゴン生成部と、を備えることを特徴とする。   In order to solve the above problem based on the above-described principle, the invention according to claim 1 acquires an image captured by a plurality of imaging devices having a target object installed at multiple viewpoints from an input image acquisition unit, and An input image acquisition processing unit that inputs an acquired image as an input image, and a three-dimensional shape restoration device that restores the three-dimensional shape of the target object, the target being obtained from the input image input by the input image acquisition processing unit Extracting a part corresponding to the object, calculating a contour of the extracted part, extracting a polygonal approximate contour obtained by approximating the contour to a polygon, and features of the texture of the target object from the input image A surface feature extraction unit that extracts texture feature points that are two-dimensional points representing the three-dimensional polyhedron using the polygonal approximate contour extracted by the contour information extraction unit, and the surface feature extraction A feature point that is a three-dimensional point along the texture is added on the basis of the texture feature point extracted in step 3, and a polygon is added based on the restored three-dimensional polyhedron and the feature point that is a three-dimensional point along the added texture. And a polygon generation unit for generating.

請求項2記載の発明は、請求項1記載の発明において、前記ポリゴン生成部が、前記輪郭情報抽出部で抽出された多角形近似輪郭を用いて、PVH法に基づき、対象物体の形状を示す3次元点から成る3次元多面体の形状を復元しつつ、前記表面特徴抽出部で抽出されたテクスチャ特徴点を前記復元された3次元多面体の面上に投影する復元投影手段と、該復元投影手段によって投影されてテクスチャに沿う3次元点である特徴点を追加し、前記復元された3次元多面体の頂点と、前記投影されてテクスチャに沿う3次元点である特徴点を連結し、3次元多面体を分割してポリゴンを生成する、テクスチャに沿うポリゴン生成手段と、を備えることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the polygon generation unit indicates the shape of the target object based on the PVH method using the polygonal approximate contour extracted by the contour information extraction unit. Reconstructing projection means for projecting the texture feature points extracted by the surface feature extraction unit onto the surface of the restored three-dimensional polyhedron while restoring the shape of a three-dimensional polyhedron composed of three-dimensional points, and the restoring projection means A feature point that is a three-dimensional point projected along the texture is added, and a vertex of the restored three-dimensional polyhedron is connected to a feature point that is the projected three-dimensional point along the texture to connect the three-dimensional polyhedron And a polygon generating means that follows the texture to generate polygons.

請求項3記載の発明は、請求項2記載の発明において、前記復元投影手段が、前記PVH法における視体積を投影する過程において、前記表面特徴抽出部で抽出されたテクスチャ特徴点のうち、視体積を画像に投影して構成された面内に存在するテクスチャ特徴点を計算し、該計算されたテクスチャ特徴点を逆投影して、テクスチャに沿う3次元点である特徴点を計算する手段、を備えることを特徴とする。   According to a third aspect of the present invention, in the second aspect of the present invention, in the process in which the restoration projection means projects the visual volume in the PVH method, out of the texture feature points extracted by the surface feature extraction unit. Means for calculating a texture feature point existing in a plane formed by projecting a volume onto an image, and calculating a feature point that is a three-dimensional point along the texture by back projecting the calculated texture feature point; It is characterized by providing.

請求項4記載の発明は、請求項1記載の発明において、前記ポリゴン生成部が、前記輪郭情報抽出部で抽出された多角形近似輪郭を用いて、PVH法に基づき、対象物体の形状を示す3次元点から成る3次元多面体の形状を復元するPVH処理手段と、前記表面特徴抽出部で抽出されたテクスチャ特徴点を前記復元された3次元多面体の面上に投影し、該投影されてテクスチャに沿う3次元点である特徴点を追加する特徴点追加処理手段と、前記復元された3次元多面体の頂点と、前記投影されてテクスチャに沿う3次元点である特徴点を連結し、3次元多面体を分割して、ポリゴンを生成する手段と、を備えることを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the invention, the polygon generation unit indicates the shape of the target object based on the PVH method using the polygonal approximate contour extracted by the contour information extraction unit. PVH processing means for restoring the shape of a three-dimensional polyhedron composed of three-dimensional points, and texture feature points extracted by the surface feature extraction unit are projected onto the restored three-dimensional polyhedron surface, and the projected textures are projected. A feature point addition processing means for adding a feature point that is a three-dimensional point along the line, a vertex of the restored three-dimensional polyhedron, and a feature point that is a projected three-dimensional point along the texture, Means for dividing a polyhedron to generate a polygon.

請求項5記載の発明は、請求項4記載の発明において、前記特徴点追加処理手段が、前記PVH法によって計算された視体積の交差を構成する面上に、前記表面特徴抽出部で抽出されたテクスチャ特徴点を投影することで、該視体積の交差との交点を計算し、該交点をテクスチャに沿う3次元点である特徴点と見做す手段、を備えることを特徴とする。   According to a fifth aspect of the present invention, in the invention according to the fourth aspect, the feature point addition processing means is extracted by the surface feature extraction unit on a surface constituting the intersection of the visual volumes calculated by the PVH method. And a means for calculating an intersection with the intersection of the viewing volumes by projecting the texture feature point, and regarding the intersection as a feature point that is a three-dimensional point along the texture.

請求項6記載の発明は、対象物体を多視点に設置された複数の撮影装置によって撮像した画像を入力画像取得部から取得し、該取得した画像を入力画像として入力する入力画像取得処理部を備え、前記対象物体の3次元形状を復元する装置に使用する3次元形状復元方法であって、前記入力画像取得処理部によって入力された入力画像から対象物体に応じた部分を抜き出し、その抜き出された部分の輪郭を計算し、該輪郭を多角形近似した多角形近似輪郭を抽出する輪郭情報抽出ステップと、前記入力画像から対象物体のテクスチャの特徴を表す2次元点であるテクスチャ特徴点を抽出する表面特徴抽出ステップと、前記輪郭情報抽出ステップで抽出された多角形近似輪郭を用いて3次元多面体を復元し、前記表面特徴抽出ステップで抽出されたテクスチャ特徴点に基づいてテクスチャに沿う3次元点である特徴点を追加し、前記復元された3次元多面体と追加されたテクスチャに沿う3次元点である特徴点に基づいてポリゴンを生成するポリゴン生成ステップと、を有することを特徴とする。   According to a sixth aspect of the present invention, there is provided an input image acquisition processing unit that acquires an image obtained by capturing a target object with a plurality of photographing devices installed at multiple viewpoints from an input image acquisition unit and inputs the acquired image as an input image. A three-dimensional shape restoration method used in an apparatus for restoring the three-dimensional shape of the target object, wherein a portion corresponding to the target object is extracted from the input image input by the input image acquisition processing unit, and the extraction is performed A contour information extraction step of calculating a contour of the portion that has been approximated and extracting a polygonal approximate contour obtained by approximating the contour to a polygon; and a texture feature point that is a two-dimensional point representing the texture feature of the target object from the input image. A three-dimensional polyhedron is restored using the surface feature extraction step to be extracted and the polygon approximate contour extracted in the contour information extraction step, and is extracted in the surface feature extraction step. A polygon that generates a polygon based on the restored 3D polyhedron and a feature point that is a 3D point along the added texture is added based on the texture feature point. And a generating step.

請求項7記載の発明は、請求項6記載の発明において、前記ポリゴン生成ステップが、前記輪郭情報抽出ステップで抽出された多角形近似輪郭を用いて、PVH法に基づき、対象物体の形状を示す3次元点から成る3次元多面体の形状を復元しつつ、前記表面特徴抽出ステップで抽出されたテクスチャ特徴点を前記復元された3次元多面体の面上に投影する復元投影ステップと、該復元投影ステップによって投影されてテクスチャに沿う3次元点である特徴点を追加し、前記復元された3次元多面体の頂点と、前記投影されてテクスチャに沿う3次元点である特徴点を連結し、3次元多面体を分割してポリゴンを生成する、テクスチャに沿うポリゴン生成ステップと、を有することを特徴とする。   According to a seventh aspect of the invention, in the sixth aspect of the invention, the polygon generating step indicates the shape of the target object based on the PVH method using the polygonal approximate contour extracted in the contour information extracting step. A restoration projection step of projecting the texture feature points extracted in the surface feature extraction step onto the plane of the restored three-dimensional polyhedron while restoring the shape of a three-dimensional polyhedron composed of three-dimensional points, and the restoration projection step A feature point that is a three-dimensional point projected along the texture is added, and a vertex of the restored three-dimensional polyhedron is connected to a feature point that is the projected three-dimensional point along the texture to connect the three-dimensional polyhedron And a polygon generation step along the texture for generating polygons by dividing.

請求項8記載の発明は、請求項7記載の発明において、前記復元投影ステップが、前記PVH法における視体積を投影する過程において、前記表面特徴抽出ステップで抽出されたテクスチャ特徴点のうち、視体積を画像に投影して構成された面内に存在するテクスチャ特徴点を計算し、該計算されたテクスチャ特徴点を逆投影して、テクスチャに沿う3次元点である特徴点を計算するステップ、を有することを特徴とする。   According to an eighth aspect of the present invention, in the seventh aspect of the present invention, among the texture feature points extracted in the surface feature extraction step, the restoration projection step projects the visual volume in the PVH method. Calculating a texture feature point present in a plane constructed by projecting a volume onto an image, back-projecting the calculated texture feature point, and calculating a feature point that is a three-dimensional point along the texture; It is characterized by having.

請求項9記載の発明は、請求項6記載の発明において、前記ポリゴン生成ステップが、前記輪郭情報抽出ステップで抽出された多角形近似輪郭を用いて、PVH法に基づき、対象物体の形状を示す3次元点から成る3次元多面体の形状を復元するPVH処理ステップと、前記表面特徴抽出ステップで抽出されたテクスチャ特徴点を前記復元された3次元多面体の面上に投影し、該投影されてテクスチャに沿う3次元点である特徴点を追加する特徴点追加処理ステップと、前記復元された3次元多面体の頂点と、前記投影されてテクスチャに沿う3次元点である特徴点を連結し、3次元多面体を分割して、ポリゴンを生成するステップと、有することを特徴とする。   The invention according to claim 9 is the invention according to claim 6, wherein the polygon generation step indicates the shape of the target object based on the PVH method using the polygonal approximate contour extracted in the contour information extraction step. A PVH processing step for restoring the shape of a three-dimensional polyhedron composed of three-dimensional points, and a texture feature point extracted in the surface feature extraction step is projected onto the surface of the restored three-dimensional polyhedron, and the projected texture A feature point addition processing step of adding a feature point that is a three-dimensional point along the line, a vertex of the restored three-dimensional polyhedron, and a feature point that is a projected three-dimensional point along the texture, Dividing the polyhedron to generate polygons.

請求項10記載の発明は、請求項9記載の発明において、前記特徴点追加処理ステップが、前記PVH法によって計算された視体積の交差を構成する面上に、前記表面特徴抽出ステップで抽出されたテクスチャ特徴点を投影することで、該視体積の交差との交点を計算し、該交点をテクスチャに沿う3次元点である特徴点と見做すステップ、を有することを特徴とする。   According to a tenth aspect of the present invention, in the ninth aspect of the invention, the feature point addition processing step is extracted in the surface feature extraction step on a plane that constitutes a view volume intersection calculated by the PVH method. Projecting the texture feature point, calculating an intersection with the intersection of the viewing volumes, and considering the intersection as a feature point that is a three-dimensional point along the texture.

請求項11記載の発明は、3次元形状復元プログラムであって、コンピュータを請求項1乃至5のいずれかに記載の3次元形状復元装置における各部及び各手段として機能させることを特徴とする。   An eleventh aspect of the invention is a three-dimensional shape restoration program, which causes a computer to function as each unit and means in the three-dimensional shape restoration device according to any one of the first to fifth aspects.

請求項12記載の発明は、記録媒体であって、請求項11に記載の3次元形状復元プログラムを記録したことを特徴とする。   The invention described in claim 12 is a recording medium, wherein the three-dimensional shape restoration program described in claim 11 is recorded.

前記請求項1または6に記載の発明は、3次元多面体を採用しているため、少ない点数で対象物体の形状を計算できる。テクスチャ特徴点に沿ったポリゴンを生成できる。   Since the invention according to claim 1 or 6 employs a three-dimensional polyhedron, the shape of the target object can be calculated with a small number of points. Polygons along texture feature points can be generated.

前記請求項2,4,7,9に記載の発明は、3次元多面体の形状を表現する3次元点が3次元多面体の各頂点であるため、少ない点数で対象の形状を計算できる。テクスチャ特徴点を3次元多面体の面上に投影して得られた3次元点の特徴点に沿ったポリゴンを生成できる。   In the inventions according to the second, fourth, seventh, and ninth aspects, since the three-dimensional points representing the shape of the three-dimensional polyhedron are each vertex of the three-dimensional polyhedron, the shape of the object can be calculated with a small number of points. A polygon along the feature point of the three-dimensional point obtained by projecting the texture feature point onto the surface of the three-dimensional polyhedron can be generated.

前記請求項3,5,8,10に記載の発明は、逆投影によって、テクスチャに沿う3次元点である特徴点をさらに限定できる。後からテクスチャに沿う3次元点である特徴点がどの面に投影されるかを探索する処理が不要とする。   The invention according to the third, fifth, eighth, and tenth aspects can further limit feature points that are three-dimensional points along the texture by back projection. A process for searching on which surface the feature point, which is a three-dimensional point along the texture, is projected later is unnecessary.

前記請求項11に記載の発明は、請求項1乃至5のいずれかに記載の3次元形状復元装置をコンピュータプログラムとして記載できる。   The invention according to claim 11 can describe the three-dimensional shape restoration apparatus according to any one of claims 1 to 5 as a computer program.

前記請求項12に記載の発明は、請求項11に記載の3次元形状復元プログラムを記録媒体に記録できる。   The invention described in claim 12 can record the three-dimensional shape restoration program described in claim 11 on a recording medium.

以上示したように請求項1または6の発明によれば、対象物体の形状を計算するコストを削減できる。安定した結果としてのポリゴンを得ることができる。   As described above, according to the invention of claim 1 or 6, the cost for calculating the shape of the target object can be reduced. A stable polygon can be obtained.

請求項2,4,7,9の発明によれば、対象物体の形状を計算するコストを削減できる。安定した結果としてのポリゴンを得ることができる。   According to the inventions of claims 2, 4, 7, and 9, the cost for calculating the shape of the target object can be reduced. A stable polygon can be obtained.

請求項3,5,8,10の発明によれば、ポリゴンを計算するコストを削減できる。   According to the third, fifth, eighth and tenth aspects of the present invention, the cost for calculating the polygon can be reduced.

請求項11の発明によれば、3次元形状復元装置としてコンピュータを動作させるコンピュータプログラムを提供できる。   According to invention of Claim 11, the computer program which operates a computer as a three-dimensional shape restoration apparatus can be provided.

請求項12の発明によれば、3次元形状復元装置としてコンピュータを動作させるコンピュータプログラムを記録した記録媒体を提供できる。   According to invention of Claim 12, the recording medium which recorded the computer program which operates a computer as a three-dimensional shape restoration apparatus can be provided.

これらを以ってコンピュータビジョン分野に貢献できる。   These can contribute to the computer vision field.

本発明の実施形態における3次元形状復元装置の構成を図1に基づいて説明する。   The configuration of the three-dimensional shape restoration apparatus in the embodiment of the present invention will be described with reference to FIG.

図1中の3次元形状復元装置は、多視点で撮影(多視点撮影)された画像を取得する入力画像取得処理部201,多視点撮影された画像から対象物体(以下、単に対象という)の輪郭を抽出する輪郭情報抽出部2021,多視点撮影された画像から対象物体のテクスチャ特徴点(テクスチャ上の特徴)を抽出する表面特徴抽出部2022,輪郭情報抽出部2021で抽出された輪郭と表面特徴抽出部2022で抽出されたテクスチャ特徴に基づいてポリゴンを生成するポリゴン生成部203を備える。   The three-dimensional shape restoration apparatus in FIG. 1 includes an input image acquisition processing unit 201 that acquires an image captured from multiple viewpoints (multi-viewpoint imaging), and a target object (hereinafter simply referred to as an object) from the images captured from multiple viewpoints. An outline information extraction unit 2021 that extracts an outline, a surface feature extraction unit 2022 that extracts a texture feature point (feature on a texture) of a target object from a multi-viewpointed image, and an outline and a surface extracted by an outline information extraction unit 2021 A polygon generation unit 203 that generates polygons based on the texture features extracted by the feature extraction unit 2022 is provided.

入力画像取得処理部201は、入力画像取得部(図示省略)から多視点撮影された(複数のカメラ(撮影装置もしくは撮像装置)を多視点になるように設置して撮影された)画像を取得し、入力画像として入力する。前記入力画像取得部は、カメラもしくはハードディスク装置などの蓄積装置から前記多視点撮影された画像を読み込む機能部である。   The input image acquisition processing unit 201 acquires images taken from multiple viewpoints (taken by installing a plurality of cameras (imaging devices or imaging devices) so as to have multiple viewpoints) from an input image acquisition unit (not shown). And input as an input image. The input image acquisition unit is a functional unit that reads the multi-viewpoint image from a storage device such as a camera or a hard disk device.

なお、前記多視点撮影された画像は、全てのカメラにおいて共有視野を持つように配置されたカメラで撮影したものとする。また、画像は、同期撮影により獲得されたものであることが望ましい。   It is assumed that the multi-viewpoint-captured image is taken by a camera arranged so as to have a shared field of view in all cameras. Further, it is desirable that the image is acquired by synchronous shooting.

輪郭情報抽出部2021は、輪郭抽出処理によって、前記多視点撮影された画像から、該画像中に写る対象物体の輪郭を抽出する。   The contour information extraction unit 2021 extracts the contour of the target object appearing in the image from the multi-viewpoint image by the contour extraction process.

なお、前記輪郭抽出処理は、画像から対象を背景差分により抜き出し、抜き出された対象の輪郭を境界線追跡により計算する。その輪郭は、閉曲線であるものとし、本実施形態では閉曲線を任意の精度で多角形近似して用いる。   In the contour extraction process, the target is extracted from the image by background difference, and the extracted target contour is calculated by boundary line tracking. The contour is a closed curve, and in the present embodiment, the closed curve is approximated to a polygon with an arbitrary accuracy.

輪郭の精度は多角形近似された輪郭の画数に関係するため、画数が少ないと、計算コストを削減できるが結果が粗くなる。一方、画数が多すぎる場合、例えば、多角形近似された輪郭の画数が、近似前の輪郭の点数に近いような場合、結果は細かいが計算コストが大きくなる。本実施形態では、得たい結果の細かさに応じて、ユーザが精度を予め決定する。   Since the accuracy of the contour is related to the number of contours approximated by a polygon, if the number of strokes is small, the calculation cost can be reduced, but the result becomes rough. On the other hand, when the number of strokes is too large, for example, when the number of strokes of a polygon approximated contour is close to the number of contours before approximation, the result is fine but the calculation cost increases. In the present embodiment, the accuracy is determined in advance by the user according to the fineness of the result to be obtained.

表面特徴抽出部2022は、表面特徴抽出処理によって、前記多視点撮影された画像から対象のテクスチャ特徴点(テクスチャ上の特徴)を抽出する。   The surface feature extraction unit 2022 extracts target texture feature points (features on the texture) from the multi-viewpoint captured image by surface feature extraction processing.

前記表面特徴抽出処理は、画像に対してコーナー検出を行い、特徴点を計算する処理である。なお、このコーナー検出以外に、一般的な特徴点抽出方法やエッジ抽出方法など画像処理で広く用いられている方法を用いてもよい。また、本実施形態において、特徴は、は点であるが、辺であってもよい。   The surface feature extraction processing is processing for performing corner detection on an image and calculating feature points. In addition to the corner detection, a method widely used in image processing such as a general feature point extraction method or an edge extraction method may be used. In the present embodiment, the feature is a point, but may be a side.

ポリゴン生成部203は、ポリゴン生成処理によって、前記輪郭情報抽出部2021によって抽出された多角形近似輪郭と、前記表面特徴抽出部2022よって抽出されたテクスチャ特徴点を用いて、対象の3次元の表面形状をポリゴンとして計算する。   The polygon generation unit 203 uses the polygon approximate contour extracted by the contour information extraction unit 2021 and the texture feature point extracted by the surface feature extraction unit 2022 by the polygon generation processing, and uses the three-dimensional surface of the target. Calculate the shape as a polygon.

前記ポリゴン生成処理は、輪郭情報抽出部2021で生成された多角形近似輪郭を用いて、視体積交差法の一つである上述のPVH(Polyhedral Visual Hulls)法(非特許文献2参照)の原理に基づき、対象の3次元多面体(Visual Hull)形状(対象物体の形状を示す3次元点から成る3次元多面体形状)を復元し、前記復元された3次元多面体の面上にテクスチャ特徴点を投影し、3次元多面体の頂点と、その投影された特徴点(3次元の特徴点)を結び(連結し)、3次元多面体を分割して、ポリゴンを生成する。   The polygon generation process uses the polygonal approximate contour generated by the contour information extraction unit 2021 and the principle of the above-mentioned PVH (Polyhedral Visual Hulls) method (see Non-Patent Document 2), which is one of the visual volume intersection methods. Based on the above, the target 3D polyhedron (Visual Hull) shape (a 3D polyhedron shape consisting of 3D points indicating the shape of the target object) is restored, and texture feature points are projected onto the restored 3D polyhedron surface. Then, the vertex of the three-dimensional polyhedron and the projected feature point (three-dimensional feature point) are connected (connected), and the three-dimensional polyhedron is divided to generate a polygon.

なお、面の分割はドロネー分割などの分割方法を用いてもよく、ポリゴンデータの表現形式は、任意の形式を用いることができる。また、本実施形態では、ポリゴンを三角形パッチで表現することとする。   Note that a division method such as Delaunay division may be used to divide the surface, and an arbitrary format can be used as an expression format of the polygon data. In the present embodiment, the polygon is represented by a triangular patch.

また、前記3次元形状復元装置は、各機能部を制御する制御部(例えば、CPU(Central Processing Unit),OS(Operating System))を備えていても良い。   In addition, the three-dimensional shape restoration apparatus may include a control unit (for example, a CPU (Central Processing Unit) or an OS (Operating System)) that controls each functional unit.

前記3次元形状復元装置は、各機能部で使用される情報もしくはデータを格納する記憶部(例えば、メモリ,ハードディスク装置)を備えていても良い。   The three-dimensional shape restoration device may include a storage unit (for example, a memory or a hard disk device) that stores information or data used in each functional unit.

前記3次元形状復元装置は、一般的なコンピュータ(例えば、パーソナルコンピュータ)で実現しても良い。   The three-dimensional shape restoration apparatus may be realized by a general computer (for example, a personal computer).

さらに、本実施形態では、前記ポリゴン生成処理において、特徴点追加型PVH法を採用している。この特徴点追加型PVH法に基づき、複数のカメラを用いて、対象のVisual Hull全体を計算(ステップS701〜S715)し、Visual Hull上に存在する特徴点を計算する(ステップS707〜S713)までの処理フローの一例を図2に基づいて説明する。   Furthermore, in this embodiment, the feature point addition type PVH method is adopted in the polygon generation processing. Based on this feature point addition type PVH method, the entire Visual Hull of the object is calculated using a plurality of cameras (steps S701 to S715), and the feature points existing on the Visual Hull are calculated (steps S707 to S713). An example of the process flow will be described with reference to FIG.

ステップS701〜S708は、図16中のステップS501〜S508と同じ処理であるため、説明を省略する。   Steps S701 to S708 are the same as steps S501 to S508 in FIG.

ステップS709は、重畳領域内にある特徴点を計算する処理であり、表面特徴抽出処理(表面特徴抽出部2022における処理)で求めた特徴点(テクスチャ特徴点)のうち重畳領域内部にあるものを選択する処理である。   Step S709 is a process of calculating feature points in the superimposition area. Among the feature points (texture feature points) obtained in the surface feature extraction process (process in the surface feature extraction unit 2022), those in the superimposition area are calculated. The process to select.

ステップS710は、重畳領域と前記選択された特徴点をFaceに逆投影する処理であり、ステップS708で求めた重畳領域と、ステップS709で求めた重畳領域内部にある特徴点を投影計算により、Face上に逆投影し、逆投影された重畳領域と、逆投影された特徴点(3次元の特徴点)を求める処理である。   Step S710 is a process of back-projecting the superimposition region and the selected feature point onto Face, and the superimposition region obtained at Step S708 and the feature point inside the superposition region obtained at Step S709 are projected to Face. This is a process for back projecting and obtaining the back projected superposed region and the back projected feature points (three-dimensional feature points).

ステップS711は、図16中のステップS510と同じ処理であるため、説明を省略する。   Step S711 is the same processing as step S510 in FIG.

ステップS712は、図16中のステップS511と同じ処理であるため、説明を省略する。   Step S712 is the same processing as step S511 in FIG.

ステップS713は、ステップS712で求めた交差領域の内部にある特徴点を計算する処理であって、ステップS710で求めた逆投影された特徴点のうち交差領域内部にあるものを選択する処理である。   Step S713 is a process of calculating the feature points inside the intersection area obtained in step S712, and is a process of selecting the back-projected feature points obtained in step S710 that are inside the intersection area. .

ステップS714は、図16中のステップS512と同じ処理であるため、説明を省略する。   Step S714 is the same processing as step S512 in FIG.

ステップS715は、図16中のステップS513と同じ処理であるため、説明を省略する。   Step S715 is the same process as step S513 in FIG.

以上の特徴点追加型PVH法の処理フローの一例によって、形状を表現する3次元点と、テクスチャに沿う3次元点(特徴点)が得られる。   With the example of the processing flow of the above-described feature point addition type PVH method, a three-dimensional point representing a shape and a three-dimensional point (feature point) along the texture are obtained.

特徴点追加型PVH法は、対象の多面体形状計算過程で、同一面上にある特徴点の算出と投影を行うため、特徴点を3次元多面体の面上に投影する処理において、後から特徴点がどの面に投影されるかを探索する処理が不要であるため、少ない計算コストで、特徴点を3次元多面体の面上に配置できる。   The feature point addition type PVH method calculates and projects the feature points on the same plane in the process of calculating the shape of the target polyhedron. Therefore, in the process of projecting the feature points on the surface of the three-dimensional polyhedron, Therefore, it is not necessary to search for which surface is projected onto the surface, and feature points can be arranged on the surface of the three-dimensional polyhedron with low calculation cost.

本実施形態における3次元形状復元装置における3次元形状復元方法を説明する。なお、以下の説明における各ステップを、ステップ名と同じ名前の機能部が実行する。   A three-dimensional shape restoration method in the three-dimensional shape restoration device in the present embodiment will be described. Note that each step in the following description is executed by a functional unit having the same name as the step name.

まず、入力画像取得部(図示省略)から多視点撮影された画像を取得し、入力画像として入力する。(入力画像取得処理ステップ)。   First, an image taken from multiple viewpoints is acquired from an input image acquisition unit (not shown) and input as an input image. (Input image acquisition processing step).

次に、前記多視点撮影された画像から、該画像中に写る対象物体の輪郭を抽出する(輪郭情報抽出ステップ)。   Next, the contour of the target object shown in the image is extracted from the multi-viewpoint image (contour information extraction step).

次に、前記多視点撮影された画像から対象のテクスチャ特徴点(テクスチャ上の特徴)を抽出する(表面特徴抽出ステップ)。   Next, target texture feature points (texture features) are extracted from the multi-viewpoint image (surface feature extraction step).

そして、前記輪郭情報抽出ステップによって抽出された多角形近似輪郭と、前記表面特徴抽出ステップよって抽出されたテクスチャ特徴点を用いて、対象の3次元の表面形状をポリゴンとして計算する(ポリゴン生成ステップ)。   Then, using the polygon approximate contour extracted by the contour information extraction step and the texture feature points extracted by the surface feature extraction step, the target three-dimensional surface shape is calculated as a polygon (polygon generation step). .

なお、輪郭情報抽出ステップと表面特徴抽出ステップは並列に処理しても良い。   Note that the contour information extraction step and the surface feature extraction step may be processed in parallel.

以上のように、本実施形態は、対象の3次元多面体形状を表現する3次元点と、テクスチャに沿う3次元点を計算し、それらを用いてテクスチャに沿うポリゴンを計算することで、不必要な点が多数生成されることを回避し、計算コストの大幅な削減を図っている。   As described above, the present embodiment is unnecessary by calculating a 3D point representing the target 3D polyhedron shape and a 3D point along the texture, and calculating a polygon along the texture using them. The generation of a large number of such points is avoided, and the calculation cost is greatly reduced.

また、図13中のステップS1043では、多数の頂点を評価するためかかる計算コストが膨大であった。多数の頂点を評価することに関しても、不必要な点の評価を避け、評価に適した点のみを評価することが望ましい。   Further, in step S1043 in FIG. 13, the calculation cost is enormous because many vertices are evaluated. Regarding evaluation of a large number of vertices, it is desirable to avoid evaluation of unnecessary points and to evaluate only points suitable for evaluation.

それに対し、形状を表現する3次元点は画像から計算した対象の多角形近似輪郭の頂点に基づいており、テクスチャに沿う3次元点は画像から計算した対象のテクスチャ特徴点に基づいていることから、ポリゴン頂点の評価やポリゴン修正を行わなくても、テクスチャに沿った位置にポリゴン頂点を生成することができるため、アルゴリズムがシンプルであり、複雑な評価を行うことなく安定した結果を得ることができる。   On the other hand, the three-dimensional point representing the shape is based on the vertex of the target polygon approximate contour calculated from the image, and the three-dimensional point along the texture is based on the target texture feature point calculated from the image. Because polygon vertices can be generated at positions along the texture without evaluating polygon vertices or correcting polygons, the algorithm is simple and stable results can be obtained without complicated evaluation. it can.

次に、本実施形態における特徴点追加型PVH法を取り入れた実施例を以下に説明する。   Next, an example in which the feature point addition type PVH method in the present embodiment is adopted will be described below.

[実施例1]
実施例1における3次元形状復元装置の構成を図3に基づいて説明する。
[Example 1]
The configuration of the three-dimensional shape restoration apparatus in Embodiment 1 will be described with reference to FIG.

図3中の3次元形状復元装置は、入力画像取得部801,輪郭情報抽出部8021,表面特徴抽出部8022,ポリゴン生成部803を備える。   The three-dimensional shape restoration apparatus in FIG. 3 includes an input image acquisition unit 801, a contour information extraction unit 8021, a surface feature extraction unit 8022, and a polygon generation unit 803.

なお、入力画像取得部801,輪郭情報抽出部8021,表面特徴抽出部8022は、図1中の入力画像取得部201,輪郭情報抽出部2021,表面特徴抽出部2022とそれぞれ同じ機能部であるため、説明を省略する。   Note that the input image acquisition unit 801, contour information extraction unit 8021, and surface feature extraction unit 8022 are the same functional units as the input image acquisition unit 201, contour information extraction unit 2021, and surface feature extraction unit 2022 in FIG. The description is omitted.

ポリゴン生成部803はポリゴン生成部203の機能に相当し、PVH処理部8031,特徴点追加処理部8032,多角形パッチ生成処理部8033を備える。   The polygon generation unit 803 corresponds to the function of the polygon generation unit 203, and includes a PVH processing unit 8031, a feature point addition processing unit 8032, and a polygon patch generation processing unit 8033.

PVH処理部8031は、PVH法に基づく処理(以下、単にPVH処理という)によってVisual Hullを計算する。即ち、PVH処理部8031は、輪郭情報抽出部8021で計算された対象物体(以下、単に対象という)の多角形近似輪郭を入力としPVH処理によって、対象のVisual Hullを計算することによって、形状を表現する3次元点を得る。   The PVH processing unit 8031 calculates Visual Hull by processing based on the PVH method (hereinafter simply referred to as PVH processing). That is, the PVH processing unit 8031 receives the polygonal approximate contour of the target object (hereinafter simply referred to as the target) calculated by the contour information extraction unit 8021 as input, and calculates the target visual hull by PVH processing. Get the 3D point to represent.

なお、前記PVH処理は、図15における原理及び図16におけるPVH法によって、対象のVisual Hullを計算する処理である。   The PVH process is a process of calculating the target Visual Hull according to the principle in FIG. 15 and the PVH method in FIG.

特徴点追加処理部8032は、特徴点追加処理によりVisual Hullを構成する面上へ特徴点追加する。そして、特徴点追加処理部8032は、そのVisual Hull上に特徴点を追加することで、テクスチャに沿う3次元点を得る。   The feature point addition processing unit 8032 adds feature points on the surface constituting the Visual Hull by feature point addition processing. Then, the feature point addition processing unit 8032 obtains a three-dimensional point along the texture by adding the feature point on the Visual Hull.

前記特徴点追加処理は、表面特徴抽出部8022において求めたテクスチャ特徴点を3次元空間へ投影し、Visual Hullとの交点を計算することによって、Visual Hullを構成する面上に投影された特徴点を求める処理である。   In the feature point addition processing, the texture feature point obtained by the surface feature extraction unit 8022 is projected onto a three-dimensional space, and the intersection point with the Visual Hull is calculated, thereby calculating the feature point projected on the surface constituting the Visual Hull. Is a process for obtaining.

多角形パッチ生成処理部8033は、多角形パッチ生成処理によって、前記特徴点の追加されたVisual Hull、すなわち3次元多面体形状を表現する3次元点と、テクスチャに沿う3次元点を入力として、ポリゴンを生成する。   The polygon patch generation processing unit 8033 receives the Visual Hull to which the feature points have been added, that is, a three-dimensional point representing a three-dimensional polyhedron shape and a three-dimensional point along the texture, as an input, by a polygon patch generation process. Is generated.

前記多角形パッチ生成処理は、Visual Hullの面を構成する頂点とVisual Hullの同一面上にある特徴点を連結する処理であり、ドロネー分割などの頂点連結方法によって、ポリゴンを生成する。   The polygon patch generation process is a process of connecting the vertices constituting the surface of the Visual Hull and the feature points on the same surface of the Visual Hull, and generates a polygon by a vertex connection method such as Delaunay division.

図4中の表T2は、表T1に示す実験環境において、実施例1によって算出した頂点数と、非特許文献1に基づく方法によって算出した頂点数を比較する実験を行った結果である。条件を同様にして撮影した画像から、同等の解像度を有するポリゴンを生成する場合、表T2に示されたように、非特許文献1に基づく方法に比べて2分の1の頂点数で作成可能であり、処理時間も半分以下となった。   Table T2 in FIG. 4 is a result of an experiment in which the number of vertices calculated by Example 1 is compared with the number of vertices calculated by the method based on Non-Patent Document 1 in the experimental environment shown in Table T1. When generating polygons with the same resolution from images taken under the same conditions, as shown in Table T2, it can be created with half the number of vertices compared to the method based on Non-Patent Document 1. And the processing time was less than half.

以上のように、実施例1におけるPVH処理部8031のPVH処理によって計算されたVisual Hullは多面体表現であり、形状を表現する3次元点は多面体の各頂点であることから、従来法のVisual Hullを点群で表現する場合に比べ、少ない点数で対象の形状を計算できる。これにより、多数の点が生成される従来法に比べ計算コストを削減できる。   As described above, the Visual Hull calculated by the PVH processing of the PVH processing unit 8031 in the first embodiment is a polyhedron representation, and the three-dimensional points representing the shape are the vertices of the polyhedron, so that the Visual Hull of the conventional method is used. The shape of the object can be calculated with a smaller number of points than in the case of expressing a point cloud. Thereby, calculation cost can be reduced as compared with the conventional method in which a large number of points are generated.

また、テクスチャに沿う3次元点の計算は、特徴点追加処理部8032において多面体表現で計算されたVisual Hullの面上に必要なテクスチャ特徴点を投影計算に追加するだけでよいためアルゴリズムをシンプルにできる。また、ポリゴン頂点の評価やポリゴンの修正処理を行わなくてもテクスチャに沿うポリゴン頂点が得られるため、安定した結果が得られる。   In addition, the calculation of the three-dimensional points along the texture simply requires adding the texture feature points necessary on the Visual Hull surface calculated by the polyhedron representation in the feature point addition processing unit 8032 to the projection calculation, thus simplifying the algorithm. it can. Further, since the polygon vertices along the texture can be obtained without evaluating the polygon vertices or correcting the polygons, a stable result can be obtained.

テクスチャに沿うポリゴンは、形状を表現する3次元点であるVisual Hullを構成する多面体頂点と、Visual Hullの面上に追加したテクスチャに沿う3次元点を連結する処理により計算され、点群をポリゴンへ変換する処理を必要としないため、これにかかる計算コストは不要となる。   The polygons along the texture are calculated by connecting the polyhedron vertices constituting the Visual Hull, which is a three-dimensional point representing the shape, and the three-dimensional points along the texture added on the surface of the Visual Hull. This eliminates the need for a calculation cost.

[実施例2]
実施例2における3次元形状復元装置の構成を図5に基づいて説明する。
[Example 2]
The configuration of the three-dimensional shape restoration apparatus in the second embodiment will be described with reference to FIG.

図5中の3次元形状復元装置は、入力画像取得部901,輪郭情報抽出部9021,表面特徴抽出部9022,ポリゴン生成部903を備える。   The three-dimensional shape restoration apparatus in FIG. 5 includes an input image acquisition unit 901, a contour information extraction unit 9021, a surface feature extraction unit 9022, and a polygon generation unit 903.

入力画像取得部901,輪郭情報抽出部9021,表面特徴抽出部9022は、図1中の入力画像取得部201,輪郭情報抽出部2021,表面特徴抽出部2022とそれぞれ同じ機能部であるため、説明を省略する。   The input image acquisition unit 901, contour information extraction unit 9021, and surface feature extraction unit 9022 are the same functional units as the input image acquisition unit 201, contour information extraction unit 2021, and surface feature extraction unit 2022 in FIG. Is omitted.

ポリゴン生成部903は図1中のポリゴン生成部203の機能に相当し、特徴点追加型PVH処理部9031、多角形パッチ生成部9032を備える。   The polygon generation unit 903 corresponds to the function of the polygon generation unit 203 in FIG. 1, and includes a feature point addition type PVH processing unit 9031 and a polygon patch generation unit 9032.

特徴点追加型PVH処理部9031は、特徴点追加型PVH処理によって、輪郭情報抽出部9021で計算された対象の多角形近似輪郭と、表面特徴抽出部9022で計算された各カメラの画像上で求めたテクスチャ特徴点を用いて、Visual HullとVisual Hull上に投影された特徴点、すなわち前記形状を表現する3次元点と、テクスチャに沿う3次元点を計算する。   The feature point addition type PVH processing unit 9031 performs the feature point addition type PVH processing on the target polygon approximate contour calculated by the contour information extraction unit 9021 and the image of each camera calculated by the surface feature extraction unit 9022. Using the obtained texture feature point, the Visual Hull and the Visual Hull projected on the Visual Hull, that is, the three-dimensional point representing the shape and the three-dimensional point along the texture are calculated.

前記特徴点追加型PVH処理は、図17における原理,図2におけるVisual Hull全体とVisual Hull上に存在する特徴点を計算する方法によって、対象のVisual HullとVisual Hull上に投影された特徴点を計算する処理である。   The feature point addition type PVH processing is performed by calculating the feature points projected on the target Visual Hull and Visual Hull according to the principle in FIG. 17 and the method of calculating the feature points existing on the entire Visual Hull and Visual Hull in FIG. It is a process to calculate.

多角形パッチ生成部9032は、前記多角形パッチ生成部8033と同じ機能部であるため、説明を省略する。   The polygon patch generation unit 9032 is the same functional unit as the polygon patch generation unit 8033, and thus description thereof is omitted.

実施例1及び実施例2をプログラムとして実装し、カメラと計算機(コンピュータ)を用いて実現した結果を以下に説明する。   A result obtained by implementing Example 1 and Example 2 as a program and using a camera and a computer (computer) will be described below.

図6中の画像p11〜p14は入力画像の一例であって、多視点カメラを用いて対象を撮影した画像である。即ち、入力画像p11〜p14は、4つの異なる視点から得られた画像の例である。   Images p11 to p14 in FIG. 6 are examples of input images, and are images obtained by photographing a target using a multi-viewpoint camera. That is, the input images p11 to p14 are examples of images obtained from four different viewpoints.

図7中の画像ps11〜ps14は、従来のシルエット抽出方法によるシルエット画像の一例であって、図6中の入力画像p11〜p14から背景差分によって対象を抜き出し、2値化処理を行ったものである。   Images ps11 to ps14 in FIG. 7 are examples of silhouette images obtained by the conventional silhouette extraction method. The images are extracted from the input images p11 to p14 in FIG. is there.

図8は、従来の多角形近似及び輪郭抽出方法を施した画像の一例であって、図7中のシルエット画像ps11〜ps14の輪郭を抽出し、それらを多角形近似し、シルエットに多角形近似した輪郭を重畳表示している。図8A中の画像e11〜e13は3つのシルエット画像ps11,ps12,ps14に応じた多角形近似輪郭を示している。図8Bは、シルエット画像ps14における部分e21aに対して、異なる近似精度で求めた多角形近似輪郭e22,e23を示している。   FIG. 8 is an example of an image subjected to a conventional polygon approximation and contour extraction method. The contours of the silhouette images ps11 to ps14 in FIG. 7 are extracted, polygons are approximated, and a polygon is approximated to the silhouette. The displayed contour is superimposed. Images e11 to e13 in FIG. 8A show polygonal approximate contours corresponding to the three silhouette images ps11, ps12, and ps14. FIG. 8B shows polygon approximate contours e22 and e23 obtained with different approximation accuracy for the part e21a in the silhouette image ps14.

図9中の画像pt11中の白点は、従来のテクスチャ上の特徴を抽出する方法によるテクスチャ特徴点の一例であり、入力画像p12に対して特徴点抽出処理を行ったものである。図9中の画像pt11では、ハリスオペレータを用いたコーナー検出を行って得られた特徴点を示している。また、画像pt11は、入力画像p12に計算された特徴点を重畳表示している。   A white point in the image pt11 in FIG. 9 is an example of a texture feature point by a conventional method for extracting a feature on the texture, and a feature point extraction process is performed on the input image p12. An image pt11 in FIG. 9 shows feature points obtained by performing corner detection using a Harris operator. In addition, the image pt11 superimposes the feature points calculated on the input image p12.

図10中の画像vh11は、従来のPVH法によって計算したVisual Hullの一例であり、7台のカメラから求めた対象の多角形近似輪郭を用いて計算したものである。   An image vh11 in FIG. 10 is an example of the Visual Hull calculated by the conventional PVH method, and is calculated using the polygonal approximate contours of the objects obtained from seven cameras.

図11中の画像vt11における黒点は、本実施形態及び実施例におけるテクスチャ特徴点をVisual Hull上に投影した一例であり、図10中の画像vh11のVisual Hull上に、図9中の画像pt11の白点で示されるようなテクスチャ特徴点を投影したものである。実施例1及び実施例2のどちらを用いても同等の結果が得られる。   A black point in the image vt11 in FIG. 11 is an example in which the texture feature points in the present embodiment and the example are projected on the Visual Hull. On the Visual Hull in the image vh11 in FIG. 10, the black point of the image pt11 in FIG. This is a projection of texture feature points as indicated by white dots. Equivalent results are obtained using either Example 1 or Example 2.

図12中の画像pg11,pg12は、実施例2における処理によって求められたポリゴンの一例である。図9中の画像pt11にポリゴン頂点を投影している。特徴点(図12中の画像pg11,pg12中の白点)上にポリゴン頂点が位置し、テクスチャに沿っていることが示されている。   Images pg11 and pg12 in FIG. 12 are examples of polygons obtained by the processing in the second embodiment. Polygon vertices are projected onto an image pt11 in FIG. It is shown that the polygon vertex is located on the feature point (white point in the images pg11 and pg12 in FIG. 12) and is along the texture.

以上のように、実施例2によれば、特徴点追加型PVHにより、形状を表現する3次元点とテクスチャに沿う3次元点を同時に計算できる。実施例1では、Visual Hullを求めた後に、特徴点を逆投影しVisual Hullの面一つ一つと交わるかどうかを判別する処理が必要であるが、実施例2においてこれに相当する処理は、特徴点追加型PVHによりVisual Hullの計算途中で行われるため投影計算の回数が少なく、実施例1に比べて計算コストは少なくなる。   As described above, according to the second embodiment, the three-dimensional point expressing the shape and the three-dimensional point along the texture can be calculated simultaneously by the feature point addition type PVH. In the first embodiment, after obtaining the Visual Hull, it is necessary to perform a process of back projecting the feature points and determining whether or not each surface of the Visual Hull intersects. In the second embodiment, a process corresponding to this is as follows. Since the feature hull PVH is performed during the calculation of the Visual Hull, the number of projection calculations is small, and the calculation cost is lower than that of the first embodiment.

なお、本実施形態及び実施例の3次元形状復元装置における各部及び各手段の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、本実施形態及び実施例の3次元形状復元装置に関する方法(手順)をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラムを、そのコンピュータが読み取り可能な記録媒体(記憶媒体)、例えばFD(Floppy(登録商標) Disk)や、MO(Magneto−Optical disk)、ROM(Read Only Memory)、メモリカード、CD(Compact Disk)、DVD(Digital Versatile Disk)、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。   Note that the present invention is realized by configuring a part or all of the functions of each unit and each means in the three-dimensional shape restoration apparatus of the present embodiment and examples by a computer program and executing the program using the computer. Of course, the method (procedure) relating to the three-dimensional shape restoration apparatus of the present embodiment and examples can be configured by a computer program, and the program can be executed by the computer. , A computer-readable recording medium (storage medium) such as FD (Floppy (registered trademark) Disk), MO (Magneto-Optical disk), ROM (Read Only Memory), memory card, CD (Compact) Dis k), a DVD (Digital Versatile Disk), a removable disk, etc., and can be stored or distributed. It is also possible to provide the above program through a network such as the Internet or electronic mail.

さらに、上述の本実施形態及び実施例の3次元形状復元装置に関する方法を記述したコンピュータプログラムを、その方法に必要とされる入出力データを格納したメモリや外部記憶部等にアクセスするように実装してもよい。   Further, a computer program describing a method related to the above-described three-dimensional shape restoration apparatus of the present embodiment and examples is implemented so as to access a memory or an external storage unit storing input / output data required for the method. May be.

以上、本発明の実施形態について説明したが、本発明は説明した実施形態に限定されるものでなく、各請求項に記載した範囲において各種の変形を行うことが可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the described embodiments, and various modifications can be made within the scope described in each claim.

例えば、輪郭情報抽出部で抽出された対象の輪郭や表面特徴抽出部で抽出されたテクスチャ特徴点を予め備えられた記憶部に、一時的に記憶し、該記憶部にアクセスしてポリゴン生成を行っても良い。   For example, the target contour extracted by the contour information extraction unit and the texture feature points extracted by the surface feature extraction unit are temporarily stored in a storage unit provided in advance, and the polygon is generated by accessing the storage unit. You can go.

本実施形態における次元形状復元装置の構成図。The block diagram of the dimension shape restoration apparatus in this embodiment. 本実施形態における特徴点追加型PVH法に基づき、対象のVisual Hull全体を計算し、Visual Hull上にある特徴点を計算する処理フローの一例を示す図。The figure which shows an example of the processing flow which calculates the whole Visual Hull of object based on the feature point addition type PVH method in this embodiment, and calculates the feature point on Visual Hull. 実施例1における3次元形状復元装置の構成図。1 is a configuration diagram of a three-dimensional shape restoration apparatus in Embodiment 1. FIG. 実施例1の実験環境と実験結果を示す図。The figure which shows the experimental environment and experimental result of Example 1. FIG. 実施例2における3次元形状復元装置の構成図。The block diagram of the three-dimensional shape decompression | restoration apparatus in Example 2. FIG. 入力画像の一例を示す図。The figure which shows an example of an input image. シルエット画像の一例を示す図。The figure which shows an example of a silhouette image. 多角形近似輪郭の一例を示す図。The figure which shows an example of a polygon approximate outline. テクスチャ特徴点の一例を示す図。The figure which shows an example of a texture feature point. 従来のPVH法によって計算したVisual Hullの一例を示す図。The figure which shows an example of Visual Hull calculated by the conventional PVH method. テクスチャ特徴点をVisual Hull上に投影した一例を示す図。The figure which shows an example which projected the texture feature point on Visual Hull. 実施例2における処理によって求められたポリゴンの一例を示す図。FIG. 10 is a diagram illustrating an example of a polygon obtained by processing in the second embodiment. テクスチャに沿うポリゴンを獲得する従来方法を示す処理フローの一例を示す図。The figure which shows an example of the processing flow which shows the conventional method which acquires the polygon which follows a texture. PVH法の原理を示す図。The figure which shows the principle of PVH method. Visual Hullのある一面を求める計算の原理図。The principle figure of the calculation which calculates | requires one surface with Visual Hull. Visual Hull全体を計算する処理フローの一例を示す図。The figure which shows an example of the processing flow which calculates the whole Visual Hull. 特徴点追加型PVH法の原理を示す図。The figure which shows the principle of the feature point addition type PVH method.

符号の説明Explanation of symbols

201,801,901…入力画像取得処理部
2021,8021,9021…輪郭情報抽出部
2022,8022,9022…表面特徴抽出部
203,803,903…ポリゴン生成部
8031…PVH処理部
8032…特徴点追加処理部
8033…多角形パッチ生成処理部
9031…特徴点追加型PVH処理部
9032…多角形パッチ生成部
C…対象物体
A…カメラの撮像面上で求められた2次元シルエット
1,D2…シルエット
F…Face
1,F2…視体積を構成する面
IA…3次元面
OA…重畳領域
A,PB,P1,P2…カメラの投影中心
PF…Faceをカメラの撮像面上に投影した領域
SP,SP1,SP2…カメラの撮像面
T1…実験環境を示す表
T2…実験結果を示す表
TI1…前景
TF,TV…テクスチャ特徴点
A,VB…視体積
VH…視体積の交差
e11〜e13,e22,e23…多角形近似輪郭
e21a…シルエット画像における部分
p11〜p14…入力画像
pg11,pg12…ポリゴンの例を示す画像
ps11〜ps14…シルエット画像
pt11…テクスチャ特徴点の例を示す画像
vh11…Visual Hullの例を示す画像
vt11…Visual Hull上に投影されたテクスチャ特徴点の例を示す画像
201, 801, 901 ... input image acquisition processing unit 2021, 8021, 9021 ... contour information extraction unit 2022, 8022, 9022 ... surface feature extraction unit 203, 803, 903 ... polygon generation unit 8031 ... PVH processing unit 8032 ... feature point addition Processing unit 8033 ... Polygon patch generation processing unit 9031 ... Feature point addition type PVH processing unit 9032 ... Polygon patch generation unit C ... Target object D A ... Two-dimensional silhouette D 1 , D 2 obtained on the imaging surface of the camera ... Silhouette F ... Face
F 1, F 2 ... viewing surface IA ... 3 dimensional plane OA ... overlap region constituting a volume P A, P B, P 1 , P 2 ... camera area the projection center PF ... Face projected onto the imaging plane of the camera SP, SP 1 , SP 2 ... imaging surface of camera T1 ... table showing experimental environment T2 ... table showing experimental results TI 1 ... foreground TF, TV ... texture feature points V A , V B ... visual volume VH ... visual volume Intersection e11 to e13, e22, e23 ... polygon approximate contour e21a ... part in silhouette image p11 to p14 ... input image pg11, pg12 ... image showing examples of polygons ps11 to ps14 ... silhouette image pt11 ... showing examples of texture feature points Image vh11 ... Image showing an example of Visual Hull vt11 ... Image showing an example of texture feature points projected on Visual Hull

Claims (12)

対象物体を多視点に設置された複数の撮影装置によって撮像した画像を入力画像取得部から取得し、該取得した画像を入力画像として入力する入力画像取得処理部を備え、
前記対象物体の3次元形状を復元する3次元形状復元装置であって、
前記入力画像取得処理部によって入力された入力画像から対象物体に応じた部分を抜き出し、その抜き出された部分の輪郭を計算し、該輪郭を多角形近似した多角形近似輪郭を抽出する輪郭情報抽出部と、
前記入力画像から対象物体のテクスチャの特徴を表す2次元点であるテクスチャ特徴点を抽出する表面特徴抽出部と、
前記輪郭情報抽出部で抽出された多角形近似輪郭を用いて3次元多面体を復元し、前記表面特徴抽出部で抽出されたテクスチャ特徴点に基づいてテクスチャに沿う3次元点である特徴点を追加し、前記復元された3次元多面体と追加されたテクスチャに沿う3次元点である特徴点に基づいてポリゴンを生成するポリゴン生成部と、
を備えることを特徴とする3次元形状復元装置。
An input image acquisition processing unit configured to acquire an image captured by a plurality of imaging devices installed at multiple viewpoints from an input image acquisition unit and input the acquired image as an input image;
A three-dimensional shape restoration device for restoring a three-dimensional shape of the target object,
Contour information for extracting a portion corresponding to the target object from the input image input by the input image acquisition processing unit, calculating a contour of the extracted portion, and extracting a polygon approximate contour obtained by approximating the contour to a polygon An extractor;
A surface feature extraction unit that extracts a texture feature point that is a two-dimensional point representing the texture feature of the target object from the input image;
A three-dimensional polyhedron is restored using the polygonal approximate contour extracted by the contour information extraction unit, and a feature point that is a three-dimensional point along the texture is added based on the texture feature point extracted by the surface feature extraction unit A polygon generation unit that generates a polygon based on the restored three-dimensional polyhedron and a feature point that is a three-dimensional point along the added texture;
A three-dimensional shape restoration apparatus comprising:
請求項1に記載の3次元形状復元装置において、
前記ポリゴン生成部が、
前記輪郭情報抽出部で抽出された多角形近似輪郭を用いて、PVH法に基づき、対象物体の形状を示す3次元点から成る3次元多面体の形状を復元しつつ、
前記表面特徴抽出部で抽出されたテクスチャ特徴点を前記復元された3次元多面体の面上に投影する復元投影手段と、
該復元投影手段によって投影されてテクスチャに沿う3次元点である特徴点を追加し、
前記復元された3次元多面体の頂点と、前記投影されてテクスチャに沿う3次元点である特徴点を連結し、3次元多面体を分割してポリゴンを生成する、テクスチャに沿うポリゴン生成手段と、
を備える
ことを特徴とする3次元形状復元装置。
The three-dimensional shape restoration apparatus according to claim 1,
The polygon generation unit
Using the polygonal approximate contour extracted by the contour information extraction unit, based on the PVH method, while restoring the shape of a three-dimensional polyhedron consisting of three-dimensional points indicating the shape of the target object,
Reconstructing projection means for projecting the texture feature points extracted by the surface feature extracting unit onto the surface of the reconstructed three-dimensional polyhedron;
Adding feature points that are three-dimensional points along the texture projected by the reconstruction projection means;
A polygon generating unit along the texture that connects the vertex of the restored three-dimensional polyhedron and the feature point that is the projected three-dimensional point along the texture, and generates a polygon by dividing the three-dimensional polyhedron;
A three-dimensional shape restoration apparatus comprising:
請求項2に記載の3次元形状復元装置において、
前記復元投影手段が、
前記PVH法における視体積を投影する過程において、前記表面特徴抽出部で抽出されたテクスチャ特徴点のうち、視体積を画像に投影して構成された面内に存在するテクスチャ特徴点を計算し、該計算されたテクスチャ特徴点を逆投影して、テクスチャに沿う3次元点である特徴点を計算する手段、
を備える
ことを特徴とする3次元形状復元装置。
The three-dimensional shape restoration apparatus according to claim 2,
The restoration projection means comprises:
In the process of projecting the visual volume in the PVH method, among the texture feature points extracted by the surface feature extraction unit, a texture feature point existing in a plane configured by projecting the visual volume onto an image is calculated, Means for back-projecting the calculated texture feature points to calculate feature points that are three-dimensional points along the texture;
A three-dimensional shape restoration apparatus comprising:
請求項1に記載の3次元形状復元装置において、
前記ポリゴン生成部が、
前記輪郭情報抽出部で抽出された多角形近似輪郭を用いて、PVH法に基づき、対象物体の形状を示す3次元点から成る3次元多面体の形状を復元するPVH処理手段と、
前記表面特徴抽出部で抽出されたテクスチャ特徴点を前記復元された3次元多面体の面上に投影し、該投影されてテクスチャに沿う3次元点である特徴点を追加する特徴点追加処理手段と、
前記復元された3次元多面体の頂点と、前記投影されてテクスチャに沿う3次元点である特徴点を連結し、3次元多面体を分割して、ポリゴンを生成する手段と、
を備える
ことを特徴とする3次元形状復元装置。
The three-dimensional shape restoration apparatus according to claim 1,
The polygon generation unit
PVH processing means for restoring the shape of a three-dimensional polyhedron consisting of three-dimensional points indicating the shape of the target object based on the PVH method using the polygonal approximate contour extracted by the contour information extraction unit;
A feature point addition processing means for projecting the texture feature point extracted by the surface feature extraction unit onto the surface of the restored three-dimensional polyhedron, and adding a feature point that is a projected three-dimensional point along the texture; ,
Means for connecting a vertex of the restored three-dimensional polyhedron and a feature point that is a projected three-dimensional point along the texture, dividing the three-dimensional polyhedron, and generating a polygon;
A three-dimensional shape restoration apparatus comprising:
請求項4に記載の3次元形状復元装置において、
前記特徴点追加処理手段が、
前記PVH法によって計算された視体積の交差を構成する面上に、前記表面特徴抽出部で抽出されたテクスチャ特徴点を投影することで、該視体積の交差との交点を計算し、該交点をテクスチャに沿う3次元点である特徴点と見做す手段、
を備える
ことを特徴とする3次元形状復元装置。
In the three-dimensional shape restoration apparatus according to claim 4,
The feature point addition processing means is
By projecting the texture feature point extracted by the surface feature extraction unit onto the surface constituting the intersection of the visual volumes calculated by the PVH method, the intersection with the intersection of the visual volumes is calculated, and the intersection Means to regard as a feature point that is a three-dimensional point along the texture,
A three-dimensional shape restoration apparatus comprising:
対象物体を多視点に設置された複数の撮影装置によって撮像した画像を入力画像取得部から取得し、該取得した画像を入力画像として入力する入力画像取得処理部を備え、
前記対象物体の3次元形状を復元する装置に使用する3次元形状復元方法であって、
前記入力画像取得処理部によって入力された入力画像から対象物体に応じた部分を抜き出し、その抜き出された部分の輪郭を計算し、該輪郭を多角形近似した多角形近似輪郭を抽出する輪郭情報抽出ステップと、
前記入力画像から対象物体のテクスチャの特徴を表す2次元点であるテクスチャ特徴点を抽出する表面特徴抽出ステップと、
前記輪郭情報抽出ステップで抽出された多角形近似輪郭を用いて3次元多面体を復元し、前記表面特徴抽出ステップで抽出されたテクスチャ特徴点に基づいてテクスチャに沿う3次元点である特徴点を追加し、前記復元された3次元多面体と追加されたテクスチャに沿う3次元点である特徴点に基づいてポリゴンを生成するポリゴン生成ステップと、
を有することを特徴とする3次元形状復元方法。
An input image acquisition processing unit configured to acquire an image captured by a plurality of imaging devices installed at multiple viewpoints from an input image acquisition unit and input the acquired image as an input image;
A three-dimensional shape restoration method used in an apparatus for restoring the three-dimensional shape of the target object,
Contour information for extracting a portion corresponding to the target object from the input image input by the input image acquisition processing unit, calculating a contour of the extracted portion, and extracting a polygon approximate contour obtained by approximating the contour to a polygon An extraction step;
A surface feature extraction step of extracting a texture feature point that is a two-dimensional point representing the texture feature of the target object from the input image;
A three-dimensional polyhedron is restored using the polygonal approximate contour extracted in the contour information extraction step, and a feature point that is a three-dimensional point along the texture is added based on the texture feature point extracted in the surface feature extraction step A polygon generating step for generating a polygon based on the restored three-dimensional polyhedron and a feature point that is a three-dimensional point along the added texture;
A three-dimensional shape restoration method characterized by comprising:
請求項6に記載の3次元形状復元方法において、
前記ポリゴン生成ステップが、
前記輪郭情報抽出ステップで抽出された多角形近似輪郭を用いて、PVH法に基づき、対象物体の形状を示す3次元点から成る3次元多面体の形状を復元しつつ、
前記表面特徴抽出ステップで抽出されたテクスチャ特徴点を前記復元された3次元多面体の面上に投影する復元投影ステップと、
該復元投影ステップによって投影されてテクスチャに沿う3次元点である特徴点を追加し、
前記復元された3次元多面体の頂点と、前記投影されてテクスチャに沿う3次元点である特徴点を連結し、3次元多面体を分割してポリゴンを生成する、テクスチャに沿うポリゴン生成ステップと、
を有する
ことを特徴とする3次元形状復元方法。
The three-dimensional shape restoration method according to claim 6,
The polygon generation step includes
Using the polygonal approximate contour extracted in the contour information extraction step, based on the PVH method, while restoring the shape of a three-dimensional polyhedron consisting of three-dimensional points indicating the shape of the target object,
A reconstructing projection step of projecting the texture feature points extracted in the surface feature extracting step onto the surface of the reconstructed three-dimensional polyhedron;
Adding feature points that are three-dimensional points along the texture projected by the restoration projection step;
Generating a polygon along the texture by connecting a vertex of the restored three-dimensional polyhedron and a feature point that is a projected three-dimensional point along the texture, and generating a polygon by dividing the three-dimensional polyhedron;
A three-dimensional shape restoration method characterized by comprising:
請求項7に記載の3次元形状復元方法において、
前記復元投影ステップが、
前記PVH法における視体積を投影する過程において、前記表面特徴抽出ステップで抽出されたテクスチャ特徴点のうち、視体積を画像に投影して構成された面内に存在するテクスチャ特徴点を計算し、該計算されたテクスチャ特徴点を逆投影して、テクスチャに沿う3次元点である特徴点を計算するステップ、
を有する
ことを特徴とする3次元形状復元方法。
The three-dimensional shape restoration method according to claim 7,
The restoration projection step comprises:
In the process of projecting the visual volume in the PVH method, out of the texture feature points extracted in the surface feature extraction step, calculate the texture feature points present in the plane configured by projecting the visual volume onto the image, Backprojecting the calculated texture feature points to calculate feature points that are three-dimensional points along the texture;
A three-dimensional shape restoration method characterized by comprising:
請求項6に記載の3次元形状復元方法において、
前記ポリゴン生成ステップが、
前記輪郭情報抽出ステップで抽出された多角形近似輪郭を用いて、PVH法に基づき、対象物体の形状を示す3次元点から成る3次元多面体の形状を復元するPVH処理ステップと、
前記表面特徴抽出ステップで抽出されたテクスチャ特徴点を前記復元された3次元多面体の面上に投影し、該投影されてテクスチャに沿う3次元点である特徴点を追加する特徴点追加処理ステップと、
前記復元された3次元多面体の頂点と、前記投影されてテクスチャに沿う3次元点である特徴点を連結し、3次元多面体を分割して、ポリゴンを生成するステップと、
有する
ことを特徴とする3次元形状復元方法。
The three-dimensional shape restoration method according to claim 6,
The polygon generation step includes
PVH processing step for restoring the shape of a three-dimensional polyhedron composed of three-dimensional points indicating the shape of the target object based on the PVH method using the polygonal approximate contour extracted in the contour information extraction step;
A feature point addition processing step of projecting the texture feature point extracted in the surface feature extraction step onto the surface of the restored three-dimensional polyhedron, and adding a feature point that is a projected three-dimensional point along the texture; ,
Connecting the restored vertex of the three-dimensional polyhedron and the feature point that is the projected three-dimensional point along the texture, dividing the three-dimensional polyhedron, and generating a polygon;
A three-dimensional shape restoration method comprising:
請求項9に記載の3次元形状復元方法において、
前記特徴点追加処理ステップが、
前記PVH法によって計算された視体積の交差を構成する面上に、前記表面特徴抽出ステップで抽出されたテクスチャ特徴点を投影することで、該視体積の交差との交点を計算し、該交点をテクスチャに沿う3次元点である特徴点と見做すステップ、
を有する
ことを特徴とする3次元形状復元方法。
The three-dimensional shape restoration method according to claim 9,
The feature point addition processing step includes:
By projecting the texture feature point extracted in the surface feature extraction step onto the surface constituting the intersection of the visual volumes calculated by the PVH method, the intersection with the intersection of the visual volumes is calculated, and the intersection A feature point that is a three-dimensional point along the texture,
A three-dimensional shape restoration method characterized by comprising:
コンピュータを請求項1乃至5のいずれかに記載の3次元形状復元装置における各部及び各手段として機能させることを特徴とする3次元形状復元プログラム。   A three-dimensional shape restoration program that causes a computer to function as each unit and means in the three-dimensional shape restoration device according to any one of claims 1 to 5. 請求項11に記載の3次元形状復元プログラムを記録したことを特徴とする記録媒体。   12. A recording medium on which the three-dimensional shape restoration program according to claim 11 is recorded.
JP2007159901A 2007-06-18 2007-06-18 Three-dimensional shape restoration device, three-dimensional shape restoration method, three-dimensional shape restoration program and recording medium with its program stored Pending JP2008310724A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007159901A JP2008310724A (en) 2007-06-18 2007-06-18 Three-dimensional shape restoration device, three-dimensional shape restoration method, three-dimensional shape restoration program and recording medium with its program stored

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007159901A JP2008310724A (en) 2007-06-18 2007-06-18 Three-dimensional shape restoration device, three-dimensional shape restoration method, three-dimensional shape restoration program and recording medium with its program stored

Publications (1)

Publication Number Publication Date
JP2008310724A true JP2008310724A (en) 2008-12-25

Family

ID=40238244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007159901A Pending JP2008310724A (en) 2007-06-18 2007-06-18 Three-dimensional shape restoration device, three-dimensional shape restoration method, three-dimensional shape restoration program and recording medium with its program stored

Country Status (1)

Country Link
JP (1) JP2008310724A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013005815A1 (en) * 2011-07-01 2013-01-10 日本電気株式会社 Object detection device, object detection method, and program
KR101434380B1 (en) 2013-03-19 2014-08-27 배재대학교 산학협력단 Method and Apparatus for Feature Line Extraction from 3D polygonal Model based on Graphic Accelerator
JP2014522747A (en) * 2011-06-22 2014-09-08 ザ・ボーイング・カンパニー Ply automatic lamination system and lamination method
KR101829733B1 (en) 2015-01-16 2018-03-29 오인환 Conversion Method For A 2D Image to 3D Graphic Models
WO2019065536A1 (en) * 2017-09-26 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Reconfiguration method and reconfiguration device
WO2019082797A1 (en) * 2017-10-23 2019-05-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Reconfiguration method and reconfiguration device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522747A (en) * 2011-06-22 2014-09-08 ザ・ボーイング・カンパニー Ply automatic lamination system and lamination method
WO2013005815A1 (en) * 2011-07-01 2013-01-10 日本電気株式会社 Object detection device, object detection method, and program
JPWO2013005815A1 (en) * 2011-07-01 2015-02-23 日本電気株式会社 Object detection apparatus, object detection method, and program
US9652857B2 (en) 2011-07-01 2017-05-16 Nec Corporation Object detection apparatus detection method and program
KR101434380B1 (en) 2013-03-19 2014-08-27 배재대학교 산학협력단 Method and Apparatus for Feature Line Extraction from 3D polygonal Model based on Graphic Accelerator
KR101829733B1 (en) 2015-01-16 2018-03-29 오인환 Conversion Method For A 2D Image to 3D Graphic Models
WO2019065536A1 (en) * 2017-09-26 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Reconfiguration method and reconfiguration device
JPWO2019065536A1 (en) * 2017-09-26 2020-09-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Reconstruction method and reconfiguration device
JP7058277B2 (en) 2017-09-26 2022-04-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Reconstruction method and reconfiguration device
WO2019082797A1 (en) * 2017-10-23 2019-05-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Reconfiguration method and reconfiguration device
JPWO2019082797A1 (en) * 2017-10-23 2020-11-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Reconstruction method and reconfiguration device
JP7105246B2 (en) 2017-10-23 2022-07-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Reconstruction method and reconstruction device

Similar Documents

Publication Publication Date Title
KR101199475B1 (en) Method and apparatus for reconstruction 3 dimension model
CN105701857B (en) Texturing of 3D modeled objects
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
JP4839237B2 (en) 3D shape restoration method, 3D shape restoration device, 3D shape restoration program implementing the method, and recording medium recording the program
KR100721536B1 (en) Method for restoring 3-dimension image using silhouette information in 2-dimension image
JP2008186456A (en) Methodology for 3d scene reconstruction from 2d image sequences
CN108124489B (en) Information processing method, apparatus, cloud processing device and computer program product
JP6863596B6 (en) Data processing device and data processing method
JP2008310724A (en) Three-dimensional shape restoration device, three-dimensional shape restoration method, three-dimensional shape restoration program and recording medium with its program stored
Poullis et al. 3d reconstruction of urban areas
US20220405878A1 (en) Image processing apparatus, image processing method, and image processing program
KR101575284B1 (en) Apparatus for generating texture of 3-demensional reconstructed object by resolution level of 2-demensional image and method thereof
Liu et al. Creating simplified 3D models with high quality textures
JP2019016230A (en) Learning device, image combining device, learning method, image combining method, and program
CN114429531A (en) Virtual viewpoint image generation method and device
JP2020098421A (en) Three-dimensional shape model generation device, three-dimensional shape model generation method and program
EP3906530B1 (en) Method for 3d reconstruction of an object
JP4827685B2 (en) 3D shape restoration device
Siv et al. 3D human face reconstruction using depth sensor of Kinect 2
Hussain et al. Experimental Validation of Photogrammetry based 3D Reconstruction Software
Afzal et al. Kinect Deform: enhanced 3d reconstruction of non-rigidly deforming objects
KR20210077636A (en) Multiview video encoding and decoding method
JP2007249591A (en) Three-dimensional shape model generation system
Chen et al. The power of indoor crowd: Indoor 3D maps from the crowd
Gorbatsevich et al. Semi-Automatic Cityscape 3d Model Restoration Using Generative Adversarial Network

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090616