JP2018181047A - Three-dimensional shape model generating device, three-dimensional shape model generating method and program - Google Patents

Three-dimensional shape model generating device, three-dimensional shape model generating method and program Download PDF

Info

Publication number
JP2018181047A
JP2018181047A JP2017081353A JP2017081353A JP2018181047A JP 2018181047 A JP2018181047 A JP 2018181047A JP 2017081353 A JP2017081353 A JP 2017081353A JP 2017081353 A JP2017081353 A JP 2017081353A JP 2018181047 A JP2018181047 A JP 2018181047A
Authority
JP
Japan
Prior art keywords
dimensional
viewpoint
dimensional point
point group
shape model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017081353A
Other languages
Japanese (ja)
Other versions
JP6934224B2 (en
Inventor
酒井 修二
Shuji Sakai
修二 酒井
渡邉 隆史
Takashi Watanabe
隆史 渡邉
伊藤 康一
Koichi Ito
康一 伊藤
孝文 青木
Takafumi Aoki
孝文 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Toppan Inc
Original Assignee
Tohoku University NUC
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Toppan Printing Co Ltd filed Critical Tohoku University NUC
Priority to JP2017081353A priority Critical patent/JP6934224B2/en
Publication of JP2018181047A publication Critical patent/JP2018181047A/en
Application granted granted Critical
Publication of JP6934224B2 publication Critical patent/JP6934224B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional shape model generating device that improves both the processing time and restoration accuracy for generation of a three-dimensional shape model from a multi-viewpoint image.SOLUTION: The three-dimensional shape model generating device for generating a three-dimensional shape model of an object from two or more multi-viewpoint images obtained by capturing the object from different viewpoints and camera parameters of an image capturing device that captures multi-viewpoint images includes: a depth map generating unit for generating a depth map corresponding to a multi-viewpoint image for each viewpoint from each of the multi-viewpoint images and the camera parameters; a three-dimensional point group generating unit for generating a three-dimensional point group from the depth map and the camera parameters; a viewpoint selecting unit for selecting a viewpoint using matching processing of three-dimensional points of the three-dimensional point group from the three-dimensional point group and the camera parameters; and a three-dimensional coordinates calculating unit for re-calculating three-dimensional coordinates in a three-dimensional space of the three-dimensional points by performing three-dimensional point matching based on the selected viewpoint based on phase-only correlation.SELECTED DRAWING: Figure 1

Description

本発明は、対象物が異なる視点から撮像された2枚以上の複数の撮像画像から、この対象物の三次元形状モデルを生成する三次元形状モデル生成装置、三次元形状モデル生成方法及びプログラムに関する。   The present invention relates to a three-dimensional shape model generating device, a three-dimensional shape model generating method, and a program for generating a three-dimensional shape model of an object from a plurality of captured images of two or more sheets where the object is imaged from different viewpoints. .

対象物が異なる視点から撮像された複数の二次元撮像画像(以下、「多視点画像」と示す)に基づいて、その対象物の三次元形状モデルを生成する三次元復元手法がある。
上記三次元復元手法の一つとして、複数枚の多視点画像の各々における局所領域の正規化相互相関を行い、対象物の三次元形状を示す三次元点群における各点の三次元座標を求める手法がある(第1の三次元復元手法)。例えば、この第1三次元復元手法において、ある視点に対応する撮像画像におけるピクセルの三次元空間での三次元座標を、複数の特徴点の含まれる局所領域に対するプレーンスイーピングを用い、その局所領域に含まれるピクセルの三次元座標を求める。すなわち、プレーンスイーピングにおいては、全探索を前提として、複数の多視点画像の各々の局所領域間の正規化相互相関の相関値を加算した数値が最も高くなる三次元座標及び法線ベクトルを求めている。
There is a three-dimensional reconstruction method for generating a three-dimensional shape model of an object based on a plurality of two-dimensional captured images (hereinafter referred to as "multi-viewpoint images") in which the object is captured from different viewpoints.
As one of the above three-dimensional reconstruction methods, normalized mutual correlation of local regions in each of a plurality of multi-viewpoint images is performed to obtain three-dimensional coordinates of each point in a three-dimensional point group indicating the three-dimensional shape of the object There is a method (the first three-dimensional reconstruction method). For example, in this first three-dimensional restoration method, three-dimensional coordinates in three-dimensional space of pixels in a captured image corresponding to a certain viewpoint are calculated using plain sweeping for a local region including a plurality of feature points. Find the 3D coordinates of the included pixel. That is, in plain sweeping, on the premise of a full search, three-dimensional coordinates and a normal vector are obtained for which the numerical value obtained by adding the correlation value of the normalized cross-correlation between the local regions of each of a plurality of multiview images is highest. There is.

また、三次元復元の他の手法(第2の三次元復元手法)として、複数枚の多視点画像の局所領域の各々をフーリエ変換し、フーリエ変換した各局所領域間における位相スペクトルの位相差の傾きに基づき、三次元空間での三次元座標を求める手法がある(例えば、非特許文献1参照)。
この第2の三次元復元手法は、上述した局所領域間の正規化相互相関に比較して、局所領域に含まれるピクセルの三次元座標を、高い精度で求めることができる。これにより、第2の三次元復元手法は、上述した局所領域間の正規化相互相関を行なう第1の三次元復元手法に比較して、対象物の三次元形状モデルを、より高精度に生成することができる。
Further, as another method of three-dimensional reconstruction (second three-dimensional reconstruction method), each of the local regions of a plurality of multi-viewpoint images is subjected to Fourier transform, and the phase difference of the phase spectrum between each of the Fourier-transformed local regions is There is a method of obtaining three-dimensional coordinates in a three-dimensional space based on the inclination (see, for example, Non-Patent Document 1).
This second three-dimensional reconstruction method can determine the three-dimensional coordinates of the pixels included in the local region with high accuracy, as compared to the normalized cross-correlation between the local regions described above. Thereby, the second three-dimensional reconstruction method generates the three-dimensional shape model of the object with higher accuracy, as compared to the first three-dimensional reconstruction method of performing the normalized mutual correlation between the local regions described above. can do.

しかし、第2の三次元復元手法は、複数枚の多視点画像の各々における局所領域間の位相スペクトルの位相差に基づき行なうため、局所領域の空間周波数を求めるためにフーリエ変換を行なう必要がある。このため、この第2の三次元復元手法は、局所領域間における正規化相互相関を用いる第1の三次元復元手法に比較して、計算コストが高くなる欠点を有している。そのため、第2の三次元復元手法は、各局所領域のフーリエ変換を行なう時間を考慮すると、全探索を前提としたプレーンスイーピングに適していない。   However, since the second three-dimensional reconstruction method is performed based on the phase difference of the phase spectrum between the local regions in each of a plurality of multi-view images, it is necessary to perform Fourier transform to obtain the spatial frequency of the local region . For this reason, this second three-dimensional reconstruction method has the drawback that the computational cost is high as compared to the first three-dimensional reconstruction method using normalized cross correlation between local regions. Therefore, the second three-dimensional reconstruction method is not suitable for plain sweeping on the premise of a full search, in consideration of the time for performing the Fourier transform of each local region.

そのため、現実的な処理時間において第2の三次元復元手法を用いて三次元復元を行なうため、従来は、画像ピラミッドを用いた粗密探索により、処理時間の短縮が行なわれている(例えば、特許文献1参照)。
この画像ピラミッドを用いた粗密探索においては、多視点画像をより低解像度の低解像度画像に変換し、この低解像度画像の局所領域に対してフーリエ変換を行ない、プレーンスイーピングにより、局所領域間の位相スペクトルの位相差に基づいて、局所領域のピクセルの三次元座標を求める。これにより、プレーンスイーピングにおける全探索が、低解像度画像にのみ限定され、第2の三次元復元手法を用いた三次元復元処理にかかる時間を短縮することができる。
Therefore, in order to perform three-dimensional reconstruction using the second three-dimensional reconstruction method in a realistic processing time, processing time has conventionally been shortened by coarse-to-fine search using an image pyramid (for example, patent) Reference 1).
In the coarse-to-fine search using this image pyramid, the multi-viewpoint image is converted to a lower resolution image of lower resolution, the Fourier transformation is performed on the local region of the low resolution image, and the phase between the local regions is performed by plane sweeping. Based on the phase difference of the spectrum, the three-dimensional coordinates of the pixels in the local region are determined. As a result, the entire search in plain sweeping is limited to only the low resolution image, and the time taken for the three-dimensional reconstruction processing using the second three-dimensional reconstruction method can be shortened.

特許第5787398号公報Patent No. 5787398 gazette

Shuji Sakai,Koichi Ito,Takafumi Aoki,Takafumi Watanabe and Hiroki Unten,“Phase−based window matching with geometric correction for multi−view stereo,”IEICE Transactions on Information and Systems,Vol.E98−D,No.10,pp.1818−1828,2015.Shuji Sakai, Koichi Ito, Takafumi Aoki, Takafumi Watanabe and Hiroki Unten, "Phase-based window matching with geometric correction for multi-view stereo," IEICE Transactions on Information and Systems, Vol. E98-D, no. 10, pp. 1818-1828, 2015.

しかしながら、上記特許文献1において、処理時間のさらなる短縮を行なうため、画像ピラミッドにおける低解像度画像の階層数を増加させる。この場合、より低解像度の低解像度画像で発生した誤差が、解像度が高い階層の低解像度画像に伝搬し、多視点画像に撮像された対象物の三次元形状モデルの復元精度が低下してしまう。
一方、誤差の伝搬する領域を抑制するため、画像ピラミッドの階層数を低下させた場合、プレーンスイーピングにおける全探索を行なうピクセル数が増加する。このピクセル数の増加に伴い、プレーンスイーピングによる処理時間が増加してしまう。
However, in Patent Document 1 above, in order to further shorten the processing time, the number of layers of low resolution images in the image pyramid is increased. In this case, the error generated in the lower resolution image of lower resolution propagates to the lower resolution image in the higher resolution layer, and the restoration accuracy of the three-dimensional shape model of the object captured in the multi-viewpoint image is degraded. .
On the other hand, if the number of layers of the image pyramid is reduced to suppress the error propagation area, the number of pixels for which the entire search is performed in plain sweeping is increased. As the number of pixels increases, the processing time for plain sweeping increases.

上述したように、多視点画像からの三次元形状モデルの生成は、三次元形状モデルの復元精度を向上させようとした場合に処理時間が長くなり、三次元形状モデルの復元の処理時間を低下させようとした場合に復元精度が低下し、処理時間と復元精度との各々がトレードオフの関係にある。   As described above, in the generation of a three-dimensional shape model from multi-viewpoint images, the processing time becomes longer when attempting to improve the restoration accuracy of the three-dimensional shape model, and the processing time for restoration of the three-dimensional shape model decreases. When it is made to make it do, recovery accuracy falls, and there is a trade-off between processing time and recovery accuracy.

本発明は、このような状況に鑑みてなされたもので、多視点画像からの三次元形状モデルの生成を、処理時間と復元精度との双方を満たして行なうことができる三次元形状モデル生成装置、三次元形状モデル生成方法及びプログラムを提供する。   The present invention has been made in view of such a situation, and is capable of generating a three-dimensional shape model from multi-viewpoint images while satisfying both processing time and restoration accuracy. , And a three-dimensional shape model generation method and program.

上述した課題を解決するために、本発明の三次元形状モデル生成装置は、対象物を異なる視点から撮像した2枚以上の多視点画像と、当該多視点画像を撮像した撮像装置のカメラパラメータとから、前記対象物の三次元形状モデルを生成する三次元形状モデル生成装置であり、前記多視点画像と前記カメラパラメータとから、前記視点毎の当該多視点画像に対応するデプスマップを生成するデプスマップ生成部と、前記デプスマップと前記カメラパラメータとから、前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、前記三次元点群と前記カメラパラメータとから、前記三次元点群における各三次元点のマッチング処理を行なう2個以上の視点を選択する視点選択部と、前記選択された視点により前記三次元点のマッチングを位相限定相関法により行ない、三次元点群における各三次元点の三次元空間における三次元座標を再算出する三次元座標算出部とを備えることを特徴とする。   In order to solve the problems described above, a three-dimensional shape model generating apparatus according to the present invention includes two or more multi-viewpoint images obtained by capturing an object from different viewpoints, and camera parameters of an imaging apparatus capturing the multi-viewpoint image. From the multi-viewpoint image and the camera parameters, a depth map corresponding to the multi-viewpoint image for each viewpoint from the multi-viewpoint image and the camera parameter. From a map generation unit, a three-dimensional point group generation unit for generating a three-dimensional point group indicating the three-dimensional shape of the object from the depth map and the camera parameter, and from the three-dimensional point group and the camera parameter A viewpoint selecting unit for selecting two or more viewpoints for performing matching processing of each three-dimensional point in the three-dimensional point group; and a map of the three-dimensional point according to the selected viewpoint. Ing is carried out for the phase-only correlation method, characterized in that it comprises a three-dimensional coordinate calculation unit for re-calculating the three-dimensional coordinates in the three-dimensional space of each three-dimensional point in the three-dimensional point cloud.

本発明の三次元形状モデル生成装置は、前記視点選択部が、前記三次元形状モデルが形成される三次元座標系において、マッチング処理を行なう対象の前記三次元点の法線と同様な視点方向の視点を選択することを特徴とする。   In the three-dimensional shape model generation device of the present invention, in the three-dimensional coordinate system in which the three-dimensional shape model is formed by the viewpoint selecting unit, a viewpoint direction similar to a normal of the three-dimensional point of the object to be subjected to matching processing. It is characterized by selecting the viewpoint of

本発明の三次元形状モデル生成装置は、前記視点選択部が、対象の前記三次元点と前記視点との間に他の異なる三次元点が存在する場合、当該視点を選択する視点から除外することを特徴とする。   In the three-dimensional shape model generation device of the present invention, when another different three-dimensional point is present between the three-dimensional point of interest and the viewpoint, the viewpoint selecting unit excludes the viewpoint from the viewpoint of selecting the viewpoint. It is characterized by

本発明の三次元形状モデル生成装置は、前記三次元点群生成部が、前記多視点画像に対応する前記デプスマップの各々から生成される三次元点群に含まれる外れ値の三次元点と、他のデプスマップとの整合性が取れない三次元点との各々を除去することを特徴とする。   In the three-dimensional shape model generation device according to the present invention, the three-dimensional point group generation unit generates three-dimensional points of outliers included in a three-dimensional point group generated from each of the depth maps corresponding to the multi-viewpoint image. , And removing each of three-dimensional points that are not consistent with other depth maps.

本発明の三次元形状モデル生成装置は、前記デプスマップ生成部が、パッチマッチステレオ(PatchMatch Stereo)法を用いて、前記多視点画像の各々に対応するデプスマップを生成していることを特徴とする。   The three-dimensional shape model generation device of the present invention is characterized in that the depth map generation unit generates a depth map corresponding to each of the multi-viewpoint images using a patch match stereo (PatchMatch Stereo) method. Do.

本発明の三次元形状モデル生成方法は、対象物を異なる視点から撮像した2枚以上の多視点画像と、当該多視点画像を撮像した撮像装置のカメラパラメータとから、前記対象物の三次元形状モデルを生成する三次元形状モデル生成方法であり、デプスマップ生成部が、前記多視点画像と前記カメラパラメータとから、前記視点毎の当該多視点画像に対応するデプスマップを生成するデプスマップ生成過程と、三次元点群生成部が、前記デプスマップと前記カメラパラメータとから、前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成過程と、視点選択部が、前記三次元点群と前記カメラパラメータとから、前記三次元点群における各三次元点のマッチング処理を行なう2個以上の視点を選択する視点選択過程と、三次元座標算出部が、前記選択された視点により前記三次元点のマッチングを位相限定相関法により行ない、三次元点群における各三次元点の三次元空間における三次元座標を再算出する三次元座標算出過程とを含むことを特徴とする。   In the three-dimensional shape model generation method of the present invention, the three-dimensional shape of the object is obtained from two or more multi-viewpoint images obtained by imaging the object from different viewpoints and camera parameters of an imaging device which images the multi-viewpoint image. A three-dimensional shape model generating method for generating a model, wherein a depth map generating unit generates a depth map corresponding to the multi-viewpoint image for each viewpoint from the multi-viewpoint image and the camera parameter. And a three-dimensional point group generation process in which a three-dimensional point group generation unit generates a three-dimensional point group indicating the three-dimensional shape of the object from the depth map and the camera parameters; A viewpoint selection process for selecting two or more viewpoints for performing matching processing of each three-dimensional point in the three-dimensional point group from the three-dimensional point group and the camera parameter; three-dimensional coordinates A three-dimensional coordinate calculation process in which the output unit performs matching of the three-dimensional points according to the selected viewpoint by the phase limited correlation method and recalculates three-dimensional coordinates in three-dimensional space of each three-dimensional point in the three-dimensional point group And including.

本発明のプログラムは、対象物を異なる視点から撮像した2枚以上の多視点画像と、当該多視点画像を撮像した撮像装置のカメラパラメータとから、前記対象物の三次元形状モデルを生成する三次元形状モデル生成装置としてコンピュータを動作させるプログラムであり、前記コンピュータを、前記多視点画像と前記カメラパラメータとから、前記視点毎の当該多視点画像に対応するデプスマップを生成するデプスマップ生成手段、前記デプスマップと前記カメラパラメータとから、前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成手段、前記三次元点群と前記カメラパラメータとから、前記三次元点群における各三次元点のマッチング処理を行なう2個以上の視点を選択する視点選択手段、前記選択された視点により前記三次元点のマッチングを位相限定相関法により行ない、三次元点群における各三次元点の三次元空間における三次元座標を再算出する三次元座標算出手段として動作させるためのプログラムである。   A program according to the present invention generates a three-dimensional shape model of an object from two or more multi-viewpoint images obtained by capturing an object from different viewpoints and camera parameters of an imaging device capturing the multi-viewpoint image. A program for operating a computer as a source shape model generation device, wherein the computer generates a depth map generating a depth map corresponding to the multi-viewpoint image for each viewpoint from the multi-viewpoint image and the camera parameter; Three-dimensional point group generation means for generating a three-dimensional point group indicating the three-dimensional shape of the object from the depth map and the camera parameter, the three-dimensional point group from the three-dimensional point group and the camera parameter Viewpoint selecting means for selecting two or more viewpoints for performing matching processing of each three-dimensional point in Matching three-dimensional point performed by the phase-only correlation method, a program for operating as a three-dimensional coordinate calculation means for re-calculating the three-dimensional coordinates in the three-dimensional space of each three-dimensional point in the three-dimensional point cloud.

以上説明したように、本発明によれば、多視点画像からの三次元形状モデルの生成を、処理時間と復元精度との双方を、従来例に比較して向上させることができる三次元形状モデル生成装置、三次元形状モデル生成方法及びプログラムを提供することができる。   As described above, according to the present invention, it is possible to improve the generation of a three-dimensional shape model from a multi-viewpoint image as well as the processing time and the restoration accuracy as compared with the conventional example. A generation device, a three-dimensional shape model generation method, and a program can be provided.

本発明の一実施形態による三次元形状モデル生成装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of a three-dimensional shape model generating device by one embodiment of the present invention. 多視点画像記憶部17に書き込まれて記憶されている多視点画像テーブルの構成例を示す図である。FIG. 6 is a diagram showing an example of configuration of a multi-viewpoint image table written and stored in the multi-viewpoint image storage unit 17; 三次元点群記憶部18に記憶されている三次元点群テーブルの構成例を示す図である。It is a figure which shows the structural example of the three-dimensional point-group table memorize | stored in the three-dimensional point-group memory | storage part 18. FIG. 三次元形状モデル記憶部19に記憶されている三次元形状モデルテーブルの構成例を示す図である。FIG. 6 is a diagram showing an example of the configuration of a three-dimensional shape model table stored in the three-dimensional shape model storage unit 19; 本実施形態による三次元形状モデル生成装置1が行なう三次元形状モデルを生成する処理の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the process which produces | generates the three-dimensional shape model which the three-dimensional shape model production | generation apparatus 1 by this embodiment performs. 対象物の多視点画像から生成したこの対象物の三次元形状モデルの画像を示す図である。It is a figure which shows the image of the three-dimensional-shaped model of this target object produced | generated from the multi-viewpoint image of a target object.

以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本発明の一実施形態による三次元形状モデル生成装置の構成例を示すブロック図である。図1において、三次元形状モデル生成装置1は、多視点画像入力部11、デプスマップ生成部12、三次元点群生成部13、視点選択部14、三次元座標算出部15、三次元形状モデル生成部16、多視点画像記憶部17、三次元点群記憶部18及び三次元形状モデル記憶部19の各々を備えている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an example of the configuration of a three-dimensional shape model generation apparatus according to an embodiment of the present invention. In FIG. 1, the three-dimensional shape model generation apparatus 1 includes a multi-viewpoint image input unit 11, a depth map generation unit 12, a three-dimensional point group generation unit 13, a viewpoint selection unit 14, a three-dimensional coordinate calculation unit 15, and a three-dimensional shape model. Each of the generation unit 16, the multi-viewpoint image storage unit 17, the three-dimensional point group storage unit 18, and the three-dimensional shape model storage unit 19 is provided.

多視点画像入力部11は、撮像装置(不図示)が撮像した、異なる複数の視点から撮像された多視点画像のデータを入力し、この多視点画像に視点識別情報を付与し、多視点画像記憶部17に対して書き込んで記憶させる。また、多視点画像入力部11は、多視点画像を入力した撮像装置のカメラパラメータを多視点画像記憶部17に対して書き込んで記憶させる。このカメラパラメータは、外部パラメータと内部パラメータとを含み、外部パラメータが世界座標系におけるレンズの中心座標、レンズの光軸の方向などであり、内部パラメータが焦点距離、画像中心、画像の分解能(画素数)及び歪収差係数などである。   The multi-viewpoint image input unit 11 inputs data of multi-viewpoint images captured from a plurality of different viewpoints captured by an imaging device (not shown), adds viewpoint identification information to the multi-viewpoint image, and performs multi-viewpoint image The memory unit 17 is written and stored. In addition, the multi-viewpoint image input unit 11 writes and stores camera parameters of the imaging device that has input the multi-viewpoint image in the multi-viewpoint image storage unit 17. The camera parameters include external parameters and internal parameters, and the external parameters are the center coordinates of the lens in the world coordinate system, the direction of the optical axis of the lens, etc. The internal parameters are the focal length, the image center, the resolution of the image (pixels Number, distortion aberration coefficient, and the like.

図2は、多視点画像記憶部17に書き込まれて記憶されている多視点画像テーブルの構成例を示す図である。この図2において、多視点画像テーブルは、視点識別情報に対応したレコードに、視点座標、視点方向、カメラパラメータ及び画像インデックスとの各々の欄を有している。
ここで、視点識別情報は、多視点画像を撮像した視点を識別する情報である。視点座標は、世界座標系における多視点画像を撮像した視点の三次元座標を示している。視点方向は、世界座標系における多視点画像を撮像した視点の三次元座標における向き(視点ベクトル)を示している。カメラパラメータは、上述した外部パラメータと内部パラメータなどである。画像インデックスは、多視点画像のデータが書き込まれて記憶されている領域の多視点画像記憶部17におけるアドレスである。
FIG. 2 is a view showing a configuration example of a multi-viewpoint image table written and stored in the multi-viewpoint image storage unit 17. As shown in FIG. In FIG. 2, the multi-viewpoint image table has fields of viewpoint coordinates, viewpoint directions, camera parameters, and image indexes in a record corresponding to viewpoint identification information.
Here, the viewpoint identification information is information for identifying a viewpoint at which a multi-viewpoint image is captured. The viewpoint coordinates indicate three-dimensional coordinates of a viewpoint obtained by imaging a multi-viewpoint image in the world coordinate system. The viewpoint direction indicates the direction (viewpoint vector) in three-dimensional coordinates of a viewpoint obtained by imaging a multi-viewpoint image in the world coordinate system. The camera parameters are the above-described external parameters and internal parameters. The image index is an address in the multi-view image storage unit 17 of the area where the data of the multi-view image is written and stored.

図1に戻り、デプスマップ生成部12は、多視点画像及びカメラパラメータの各々を用いて、各視点の多視点画像に対応する世界座標系におけるデプスマップを生成する。このデプスマップは、各視点の多視点画像それぞれのピクセル毎の三次元座標における奥行きの情報が示されたマップである。
本実施形態において、デプスマップ生成部12は、例えば、デプスマップを生成する際に、パッチマッチステレオ(PatchMatch Stereo)法を用いている。パッチマッチステレオ法においては、各視点の多視点画像それぞれのピクセルのデプスマップ及び法線ベクトルマップの各々を乱数により初期化することで生成する。
Returning to FIG. 1, the depth map generation unit 12 generates a depth map in the world coordinate system corresponding to the multi-viewpoint image of each viewpoint using each of the multi-viewpoint image and the camera parameter. This depth map is a map in which information of depth in three-dimensional coordinates for each pixel of each multi-viewpoint image of each viewpoint is shown.
In the present embodiment, the depth map generation unit 12 uses, for example, a patch match stereo (PatchMatch Stereo) method when generating a depth map. In the patch match stereo method, the depth map and the normal vector map of each pixel of each multi-view image of each view are generated by initializing each with a random number.

そして、デプスマップ生成部12は、乱数により生成したデプスマップ及び法線ベクトルマップに対して、ピクセル毎に隣接する他のピクセルに対する数値の空間伝搬と、及び異なる視点の多視点画像における数値の空間伝搬と、乱数により求めた調整値を用いて各画素の深度情報(奥行き情報)及び法線ベクトルの微調整とを繰り返して行なう。デプスマップ生成部12は、異なる視点の多視点画像における同一のピクセル間のマッチングスコアが最大値となるデプスマップ及び法線ベクトルマップを、各視点における多視点画像のデプスマップ及び法線ベクトルマップそれぞれとする(例えば、特願2016−124820号公報の記載参照)。デプスマップ生成部12は、生成したデプスマップ及び法線ベクトルマップの各々を、三次元点群記憶部18に対して書き込んで記憶させる。   Then, with respect to the depth map and the normal vector map generated by the random number, the depth map generation unit 12 performs spatial propagation of numerical values for other pixels adjacent to each pixel, and numerical space in multi-viewpoint images of different viewpoints. The propagation and fine adjustment of the depth information (depth information) and the normal vector of each pixel are repeatedly performed using the adjustment value obtained by the random number. The depth map generation unit 12 generates a depth map and a normal vector map at which the matching score between the same pixels in the multi-view images of different viewpoints becomes maximum, and the depth map and the normal vector map of the multi-view images at each viewpoint. (See, for example, the description of Japanese Patent Application No. 2016-124820). The depth map generation unit 12 writes and stores each of the generated depth map and normal vector map in the three-dimensional point group storage unit 18.

ここで、マッチングスコアは、画像の局所領域(パッチ)における正規化相互相関、または画像の局所領域のSSD(Sum of Squared Differences)などが用いられる。パッチマッチステレオ法は、全探索(例えば、多視点ステレオアルゴリズムの一例であるプレーンスイーピング)と同等のデプスマップを、全探索に比較して短い処理時間により生成でき、本実施形態における対象物の初期の三次元形状の推定に対して適した方法である。本実施形態におけるデプスマップ及び法線ベクトルマップの生成処理には、対象物の推定される三次元形状の精度に比較し、三次元形状を短時間に生成することが重要であるため、マッチングスコアの計算に対し、後述する位相限定相関法などに比較して、マッチングの精度としては低いが、一方、計算が単純で高速なマッチングスコアが得られる正規化相互相関、SSDを用いることが望ましい。   Here, as the matching score, a normalized cross correlation in a local area (patch) of an image, an SSD (Sum of Squared Differences) in a local area of the image, or the like is used. The patch match stereo method can generate a depth map equivalent to a full search (for example, plain sweeping which is an example of a multi-view stereo algorithm) with a short processing time compared to a full search, and the initial stage of the object in this embodiment Is a suitable method for estimating the three-dimensional shape of Since it is important to generate a three-dimensional shape in a short time compared to the accuracy of the estimated three-dimensional shape of the object in the process of generating the depth map and normal vector map in the present embodiment, the matching score It is desirable to use a normalized cross-correlation, SSD, which is low in accuracy of matching as compared with the phase-only correlation method described later, but is simple in calculation and can obtain a high-speed matching score.

図3は、三次元点群記憶部18に記憶されている三次元点群テーブルの構成例を示す図である。図3(a)において、三次元点群生成テーブルは、視点識別情報に対応したレコードに、デプスマップインデックス及び法線ベクトルマップインデックスの各々の欄を有している。視点識別情報は、多視点画像を撮像した視点を識別する情報である。デプスマップインデックスは、多視点画像における各三次元画素の深度情報を示すデプスマップのデータが書き込まれて記憶されている領域の三次元点群記憶部18におけるアドレスである。法線ベクトルマップインデックスは、多視点画像における各ピクセルの三次元点の法線ベクトルを示す法線ベクトルマップのデータが書き込まれて記憶されている領域の三次元点群記憶部18におけるアドレスである。   FIG. 3 is a view showing a configuration example of the three-dimensional point group table stored in the three-dimensional point group storage unit 18. In FIG. 3A, the three-dimensional point group generation table has fields of depth map index and normal vector map index in the record corresponding to the viewpoint identification information. The viewpoint identification information is information for identifying a viewpoint at which a multi-viewpoint image is captured. The depth map index is an address in the three-dimensional point group storage unit 18 of a region where data of the depth map indicating depth information of each three-dimensional pixel in the multi-viewpoint image is written and stored. The normal vector map index is an address in the three-dimensional point group storage unit 18 of the area in which the data of the normal vector map indicating the normal vector of the three-dimensional point of each pixel in the multi-viewpoint image is written and stored. .

図3(b)において、三次元点群テーブルは、三次元点群識別情報に対応したレコードに、三次元点群インデックス、法線ベクトルマップインデックス及び再計算点群インデックスとの各々の欄を有している。三次元点群インデックスは、複数の視点に対応する三次元点群が合成された、対象物の三次元形状を示す三次元点群のデータが書き込まれて記憶されている領域の三次元点群記憶部18におけるアドレスである。法線ベクトルインデックスは、複数の視点に対応する三次元点群が合成された、対象物の三次元形状を示す三次元点群における三次元点の各々の法線ベクトルのデータが書き込まれて記憶されている領域の三次元点群記憶部18におけるアドレスである。再計算点群インデックスは、後述する三次元座標算出部15により、三次元点群の各々の三次元点の座標を再計算して求めた三次元点群のデータが書き込まれて記憶されている領域の三次元点群記憶部18におけるアドレスである。   In FIG. 3B, the three-dimensional point group table has three columns of three-dimensional point group index, normal vector map index, and recalculation point group index in the record corresponding to the three-dimensional point group identification information. doing. The three-dimensional point group index is a three-dimensional point group of a region in which data of a three-dimensional point group indicating the three-dimensional shape of the object is written and stored, in which three-dimensional point groups corresponding to a plurality of viewpoints are combined. This is an address in the storage unit 18. The normal vector index is stored by writing data of normal vectors of three-dimensional points in the three-dimensional point group indicating the three-dimensional shape of the object, in which three-dimensional point groups corresponding to a plurality of viewpoints are combined. Address in the three-dimensional point group storage unit 18 of the area being stored. As the recalculation point group index, data of the three-dimensional point group obtained by re-calculating coordinates of each three-dimensional point of the three-dimensional point group by the three-dimensional coordinate calculation unit 15 described later is written and stored. This is an address in the three-dimensional point group storage unit 18 of the area.

図1に戻り、三次元点群生成部13は、全視点におけるデプスマップ及び法線ベクトルマップの各々を統合し、対象物の三次元形状に対応する三次元点群を生成する。ここで、三次元点群生成部13は、デプスマップ及び撮像装置のカメラパラメータの各々を用いた所定の演算により、上記三次元点群を生成する。すなわち、三次元点群生成部13は、各視点の多視点画像のデプスマップの各々から三次元点群を求め、この三次元点群における三次元点の三次元座標を、それぞれのカメラパラメータに基づいて座標変換を行ない、世界座標系における三次元座標とする。   Returning to FIG. 1, the three-dimensional point group generation unit 13 integrates each of the depth map and the normal vector map in all the viewpoints, and generates a three-dimensional point group corresponding to the three-dimensional shape of the object. Here, the three-dimensional point group generation unit 13 generates the three-dimensional point group by a predetermined calculation using each of the depth map and the camera parameter of the imaging device. That is, the three-dimensional point group generation unit 13 obtains a three-dimensional point group from each of the depth maps of multi-viewpoint images of the respective viewpoints, and sets three-dimensional coordinates of three-dimensional points in this three-dimensional point group as respective camera parameters. Coordinate conversion is performed on the basis of the three-dimensional coordinates in the world coordinate system.

これにより、三次元点群生成部13は、各多視点画像に対応するデプスマップに基づく三次元点群を、世界座標系において統合する。そして、三次元点群生成部13は、合成した三次元点群に対して三次元点群識別情報を付与し、三次元点群記憶部18の三次元点群テーブルに対して書き込んで記憶させる。また、三次元点群生成部13は、上記三次元点群識別情報とともに、三次元点群を書き込んだ領域のアドレスを三次元点群インデックスとして、三次元点群テーブルに対して書き込んで記憶させる。   Thereby, the three-dimensional point group generation unit 13 integrates the three-dimensional point group based on the depth map corresponding to each multi-viewpoint image in the world coordinate system. Then, the three-dimensional point group generation unit 13 adds three-dimensional point group identification information to the combined three-dimensional point group, and writes and stores the three-dimensional point group table of the three-dimensional point group storage unit 18 . Further, the three-dimensional point group generation unit 13 writes the address of the area in which the three-dimensional point group is written together with the three-dimensional point group identification information as a three-dimensional point group index in the three-dimensional point group table .

ここで、三次元点群生成部13は、複数の異なる視点の多視点画像の各々のデプスマップを統合して三次元点群を生成する際、異なる多視点画像における同一の領域において、異なる三次元点として生成されている複数の三次元点を、一つの三次元点とする処理を行なう。例えば、三次元点群生成部13は、ボクセルグリッドフィルタを用いて、上述した同一の領域における複数の三次元点の統合を行なう。すなわち、三次元点群生成部13は、世界座標系における三次元空間を所定の大きさのボクセルグリッドで区切る。そして、三次元点群生成部13は、区切ったボクセル毎に内部に含まれる三次元点の三次元座標を抽出し、ボクセル内における三次元点の三次元座標の平均値を有する三次元点のみを残し、他の三次元点を除去する。   Here, when the three-dimensional point group generation unit 13 integrates the depth maps of each of the multi-viewpoint images of a plurality of different viewpoints to generate a three-dimensional point group, different third orders are generated in the same region in different multi-viewpoint images. A plurality of three-dimensional points generated as source points are processed as one three-dimensional point. For example, the three-dimensional point group generation unit 13 integrates a plurality of three-dimensional points in the same area described above using a voxel grid filter. That is, the three-dimensional point group generation unit 13 divides the three-dimensional space in the world coordinate system by a voxel grid of a predetermined size. Then, the three-dimensional point group generation unit 13 extracts the three-dimensional coordinates of the three-dimensional point contained in the interior for each divided voxel, and only the three-dimensional point having the average value of the three-dimensional coordinates of the three-dimensional point in the voxel Leave and remove other 3D points.

これにより、異なる多視点画像における同一の領域において、異なる三次元点として生成されている複数の三次元点を、一つの三次元点とすることができ、三次元点群における三次元点の数を低減させることができる。この処理を行なうことにより、三次元点群生成部13は、不要な三次元点に対応する必要が無くなるため、後述する三次元座標算出部15が行なう、三次元点群における三次元点の各々の三次元座標の再計算の処理を短縮することができる。   Thereby, a plurality of three-dimensional points generated as different three-dimensional points in the same region in different multi-viewpoint images can be made into one three-dimensional point, and the number of three-dimensional points in the three-dimensional point group Can be reduced. By performing this process, the three-dimensional point group generation unit 13 is not required to correspond to unnecessary three-dimensional points, so each of the three-dimensional points in the three-dimensional point group is performed by the three-dimensional coordinate calculation unit 15 described later. The process of recalculation of three-dimensional coordinates of can be shortened.

また、三次元点群生成部13は、各視点の多視点画像から生成したデプスマップを統合して三次元点群を生成する際、生成した三次元点群における三次元点から外れ点を除去する処理を行なってもよい。すなわち、三次元点群生成部13は、処理対象の三次元点を中心とした所定の大きさの円、あるいはボクセル(上述したボクセルグリッドのボクセルと異なり、ボクセルグリッドより大きなサイズ)などの処理枠を構成し、その処理枠内に含まれる三次元点の数が予め設定した閾値以下か否かにより、その対象点である三次元点を削除するか否かの判定を行なう。このとき、三次元点群生成部13は、処理枠内に含まれる三次元点の数が予め設定した閾値以下の場合、対象点である三次元点を削除する。一方、三次元点群生成部13は、処理枠内に含まれる三次元点の数が予め設定した閾値を超える場合、対象点である三次元点を削除しない。   Further, when generating a three-dimensional point group by integrating depth maps generated from multi-viewpoint images of respective viewpoints, the three-dimensional point group generation unit 13 removes outliers from the three-dimensional point in the generated three-dimensional point group Processing may be performed. That is, the three-dimensional point group generation unit 13 is a processing frame such as a circle of a predetermined size centered on the three-dimensional point to be processed, or a voxel (a size larger than the voxel grid unlike voxels of the voxel grid described above) It is determined whether the three-dimensional point which is the target point is to be deleted depending on whether the number of three-dimensional points included in the processing frame is equal to or less than a preset threshold value. At this time, the three-dimensional point group generation unit 13 deletes the three-dimensional point that is the target point when the number of three-dimensional points included in the processing frame is equal to or less than a preset threshold. On the other hand, the three-dimensional point group generation unit 13 does not delete the three-dimensional point which is the target point, when the number of three-dimensional points included in the processing frame exceeds a preset threshold.

また、三次元点群生成部13は、各視点の多視点画像から生成したデプスマップを統合して三次元点群を生成する際、合成した三次元点群において、異なる複数の視点の多視点画像それぞれの三次元点群間で整合性の取れない三次元点を削除する構成としてもよい。すなわち、三次元点群生成部13は、多視点画像それぞれのデプスマップを比較し、多視点画像の各々のデプスマップにおいて同一の座標値にあるはずの三次元点が、それぞれのデプスマップにおいて異なる深度情報を有しているか否かの判定を行なう。   In addition, when the three-dimensional point group generation unit 13 combines the depth maps generated from the multi-viewpoint images of the respective viewpoints to generate the three-dimensional point group, the multiple viewpoints of a plurality of different viewpoints in the combined three-dimensional point group The configuration may be such that three-dimensional points that are not consistent between three-dimensional point groups of each image are deleted. That is, the three-dimensional point group generation unit 13 compares the depth maps of each multi-viewpoint image, and the three-dimensional points which should be at the same coordinate value in each depth map of the multi-view image are different in each depth map It is judged whether or not it has depth information.

ここで、三次元点群生成部13は、同一の座標値にあるはずの三次元点が、それぞれのデプスマップにおいて異なる深度情報を有している場合、三次元点群からこの三次元点を除去する。この処理を行なうことにより、異なる視点の多視点画像間において、同一の三次元点が異なる深度情報を有する場合、ある視点の多視点画像における三次元点群の三次元点が、他の視点の多視点画像における三次元点群の三次元点の見えを遮蔽する(不可視化させる)ことを防止できる。   Here, when the three-dimensional point group generation unit 13 determines that three-dimensional points that should be at the same coordinate value have different depth information in each depth map, the three-dimensional point group is generated from the three-dimensional point group. Remove. By performing this process, when the same three-dimensional point has different depth information between multi-view images of different views, the three-dimensional point of the three-dimensional point group in the multi-view image of one view is the other view It is possible to prevent occlusion (invisible) of the appearance of the three-dimensional point of the three-dimensional point group in the multi-viewpoint image.

また、三次元点群生成部13は、統合後の三次元点群における三次元点の各々の法線ベクトルを推定する。ここで、三次元点群生成部13は、例えば、各三次元点の法線ベクトルの推定に対して、法線ベクトルを推定する対象の三次元点近傍の他の三次元点に対して主成分分析を適用する手法を用いる。すなわち、三次元点群生成部13は、最小二乗法により、局所的な三次元点の集合(対象となる三次元点近傍の三次元点群の集合)に対して平面を当てはめ、この平面を、対象物の三次元形状の表面とみなし、この表面に対する垂直方向を法線ベクトルとする。
そして、三次元点群生成部13は、三次元点群の三次元点それぞれの推定した法線ベクトルを法線ベクトルマップとして、三次元点群記憶部18に書き込んで記憶させる。三次元点群生成部13は、法線ベクトルマップを書き込んだ領域のアドレスを取得し、法線ベクトルマップインデックスとして、三次元点群テーブルに書き込んで記憶させる。
Also, the three-dimensional point group generation unit 13 estimates normal vectors of three-dimensional points in the three-dimensional point group after integration. Here, for example, for the estimation of the normal vector of each three-dimensional point, the three-dimensional point group generation unit 13 mainly applies to other three-dimensional points in the vicinity of the three-dimensional point for which the normal vector is estimated. Use a method that applies component analysis. That is, the three-dimensional point group generation unit 13 applies a plane to a set of local three-dimensional points (a set of three-dimensional point groups in the vicinity of a target three-dimensional point) by the least squares method. It is regarded as a surface of a three-dimensional shape of an object, and a direction perpendicular to this surface is a normal vector.
Then, the three-dimensional point group generation unit 13 writes and stores the normal vectors estimated for each of the three-dimensional points of the three-dimensional point group as a normal vector map in the three-dimensional point group storage unit 18. The three-dimensional point group generation unit 13 acquires the address of the area where the normal vector map is written, and writes and stores the address as a normal vector map index in the three-dimensional point group table.

視点選択部14は、統合後の三次元点群における三次元点毎のマッチングを行なうため、マッチングに用いる2個以上の複数の視点の多視点画像を選択する。すなわち、視点選択部14は、以下に示す(1)式により求められる選択コストが最も高い視点から、選択コストの高い順番に必要な数の視点を、マッチングに用いる視点として選択する。この(1)式における「・」はベクトルの内積を示している。「*」は単に乗算を示している。
ij=(C・rij)*(−n・rij) …(1)
The viewpoint selecting unit 14 selects a multi-viewpoint image of two or more plural viewpoints used for matching in order to perform matching for each three-dimensional point in the three-dimensional point group after integration. That is, the viewpoint selecting unit 14 selects the required number of viewpoints in the order of the highest selection cost as a viewpoint to be used for matching, from the viewpoint with the highest selection cost obtained by the following equation (1). “·” In the equation (1) indicates an inner product of vectors. "*" Simply indicates multiplication.
S ij = (C j · r ij ) * (− n i · r ij ) (1)

(1)式においては、三次元点群におけるi番目の三次元点と、複数の視点におけるj番目の視点との組合わせによる選択スコアSijを求める。Cがj番目の視点の光軸のベクトルを示している。nはi番目の三次元点の法線ベクトルを示している。rijはj番目の視点からi番目の三次元点に向かう視点ベクトルを示している。上記(1)式における第1項の「C・rij」は、対象となるi番目の三次元点に対応するピクセルが、より中央近傍にある多視点画像に対応する視点のコストが高くなる。(1)式における第2項の「n・rij」は、対象となるi番目の三次元点に対して、より正面にある視点のコストが高くなる。したがって、上記(1)式により、三次元点のマッチングに適した視点として、マッチング対象の三次元点のなるべく正面にある視点であり、かつ、その三次元点に対応するピクセルが多視点画像のより中央に近い位置に存在する視点が選択される。 In equation (1), a selection score S ij is obtained by combining the i-th three-dimensional point in the three-dimensional point group and the j-th viewpoint in a plurality of viewpoints. C j shows the vector of the optical axis of the j-th viewpoint. n i indicates the normal vector of the ith three-dimensional point. r ij indicates a viewpoint vector heading from the j-th viewpoint to the i-th three-dimensional point. The first term "C j · r ij " in the above equation (1) has a high cost of the viewpoint corresponding to the multi-view image in which the pixel corresponding to the i-th three-dimensional point to be targeted is in the central vicinity Become. In the second term “n i · r ij ” in the equation (1), the cost of the viewpoint in front of the i-th three-dimensional point to be processed becomes higher. Therefore, according to the above equation (1), as a viewpoint suitable for 3D point matching, a viewpoint that is as far forward as possible in front of the 3D point to be matched and a pixel corresponding to the 3D point is a multiview image A viewpoint located at a position closer to the center is selected.

また、視点選択部14は、上記(1)式に換え、以下に示す(2)式により、選択スコアSijを求める構成としてもよい。
ij=Vij*(C・rij)*(−n・rij) …(2)
(2)式において、係数Vijは、i番目の三次元点がj番目の視点から見えるか否かを示す可視性のパラメータである。ここで、係数Vijは、i番目の三次元点がj番目の視点から見える場合に「1」であり、i番目の三次元点がj番目の視点から見えない場合に「0」である。すなわち、係数Vijは、i番目の三次元点がj番目の視点から見えるか否かの判定を行なう。このとき、視点選択部14は、j番目の視点とi番目の三次元点との間に他の三次元点の有無を検出することにより、i番目の三次元点がj番目の視点から見えるか否かの判定を行なう。そして、視点選択部14は、j番目の視点とi番目の三次元点との間に他の三次元点が存在しない(三次元点に対応するピクセルが多視点画像に有る視点の)場合に、係数Vijを「1」とし、(2)式の計算を行なう。一方、視点選択部14は、j番目の視点とi番目の三次元点との間に他の三次元点が存在する(三次元点に対応するピクセルが多視点画像に無い視点の)場合に、係数Vijを「0」とし、(2)式の計算を行なう。
Further, the viewpoint selecting unit 14 may be configured to obtain the selection score S ij by the following equation (2) instead of the equation (1).
S ij = V ij * (C j · r ij ) * (− n i · r ij ) (2)
In equation (2), the coefficient V ij is a visibility parameter indicating whether or not the i-th three-dimensional point is visible from the j-th viewpoint. Here, the coefficient V ij is “1” when the i th three-dimensional point is seen from the j th viewpoint, and “0” when the i th three dimensional point is not visible from the j th viewpoint . That is, the coefficient V ij determines whether the i-th three-dimensional point can be seen from the j-th viewpoint. At this time, the viewpoint selection unit 14 detects the presence or absence of another three-dimensional point between the j-th viewpoint and the i-th three-dimensional point, whereby the i-th three-dimensional point can be seen from the j-th viewpoint It is judged whether or not it is. Then, the viewpoint selecting unit 14 determines that no other three-dimensional point exists between the j-th viewpoint and the i-th three-dimensional point (for a viewpoint having pixels corresponding to the three-dimensional point in the multi-view image). The coefficient V ij is set to “1”, and the equation (2) is calculated. On the other hand, the viewpoint selecting unit 14 determines that another three-dimensional point exists between the j-th viewpoint and the i-th three-dimensional point (for a viewpoint having no pixel corresponding to the three-dimensional point in the multi-view image). The coefficient V ij is set to “0”, and the equation (2) is calculated.

三次元座標算出部15は、三次元点群における三次元点毎に、選択された視点の各々の多視点画像を用いて、三次元座標のマッチングを行ない、三次元座標の再計算の処理が行なわれる。本実施形態においては、多視点画像間の三次元点のマッチング処理を、位相限定相関法を用いて行なう。この位相限定相関法は、正規化相互相関及びSSDにより求めるマッチングスコアによるマッチングに比較し、処理時間が長くなるが、より高精度に三次元座標を求めることができる(例えば、特願2015−141533号公報の記載を参照)。この位相限定相関法によるマッチングにおいて、三次元座標算出部15は、三次元点の各々において、三次元座標及び法線ベクトルの各々により、選択された視点の多視点画像のそれぞれにおける局所領域を設定する。そして、三次元座標算出部15は、多視点画像の各々の局所領域の画像から位相限定相関関数を算出することにより、多視点画像間における局所領域の画像の微少な平行移動量を推定する。三次元座標算出部15は、この推定した平行移動量に基づき、三次元点の三次元座標を修正する再計算を行なう。   The three-dimensional coordinate calculation unit 15 performs three-dimensional coordinate matching for each three-dimensional point in the three-dimensional point group using the multi-viewpoint image of each of the selected viewpoints, and performs re-calculation processing of the three-dimensional coordinate It takes place. In the present embodiment, matching processing of three-dimensional points between multi-viewpoint images is performed using a phase only correlation method. This phase-only correlation method makes it possible to obtain three-dimensional coordinates with higher accuracy, although the processing time is longer compared to matching based on normalized cross-correlation and matching score obtained by SSD (for example, Japanese Patent Application No. 2015-141533 See the description in the In the matching by the phase limited correlation method, the three-dimensional coordinate calculation unit 15 sets the local region in each of the multi-viewpoint images of the selected viewpoint by each of the three-dimensional coordinates and the normal vector at each of the three-dimensional points. Do. Then, the three-dimensional coordinate calculation unit 15 estimates the amount of slight parallel movement of the images of the local region between the multi-viewpoint images by calculating the phase only correlation function from the images of the respective local regions of the multi-viewpoint image. The three-dimensional coordinate calculation unit 15 recalculates three-dimensional coordinates of the three-dimensional point based on the estimated amount of parallel movement.

また、位相限定相関関数におけるマッチングスコアが低い三次元点は、アーチファクト・アウトライアと呼ばれる不正確な三次元点である可能性が高い。このため、三次元座標算出部15は、マッチングスコアが低い三次元点を除去するため、予め設定されたマッチングスコアに対する所定の閾値であるスコア閾値と、マッチングスコアとの比較を行なう。そして、三次元座標算出部15は、マッチングスコアが上記スコア閾値以上の場合、三次元点の削除を行なわない。一方、三次元座標算出部15は、マッチングスコアが上記スコア閾値未満の場合、三次元点を削除する。これにより、アーチファクト・アウトライアに対応する不正確な三次元点の発生を防止することができる。
三次元座標算出部15は、再計算した三次元座標に基づく三次元点群を、三次元点群記憶部18に書き込んで記憶させ、書き込んだ領域のアドレスを再計算点群インデックスとして、三次元点群テーブルに書き込んで記憶させる。
Also, 3D points with low matching scores in the phase limited correlation function are likely to be inaccurate 3D points called artifact outliers. Therefore, the three-dimensional coordinate calculation unit 15 compares the matching score with a score threshold which is a predetermined threshold for the matching score set in advance, in order to remove a three-dimensional point having a low matching score. Then, the three-dimensional coordinate calculation unit 15 does not delete the three-dimensional point when the matching score is equal to or more than the score threshold. On the other hand, the three-dimensional coordinate calculation unit 15 deletes the three-dimensional point when the matching score is less than the score threshold. This can prevent the occurrence of incorrect three-dimensional points corresponding to the artifact outliers.
The three-dimensional coordinate calculation unit 15 writes a three-dimensional point group based on the re-calculated three-dimensional coordinates into the three-dimensional point group storage unit 18 and stores the three-dimensional point group address using the address of the written area as a re-calculation point group index. Write and store in the point cloud table.

三次元形状モデル生成部16は、三次元座標を再計算した三次元点からなる三次元点群を用い、三次元形状モデル(三次元メッシュモデル)を生成する。三次元形状モデル生成部16は、例えば、メッシュ再構築(Poisson Surface Reconstruction)の手法を用いて、三次元点群から三次元形状モデルを生成する。
そして、三次元形状モデル生成部16は、生成した三次元形状モデルに対して形状モデル識別情報を付与し、この三次元形状モデルのデータを三次元形状モデル記憶部19に書き込んで記憶させる。また、三次元形状モデル生成部16は、三次元形状モデル記憶部19において三次元形状モデルのデータを書き込んだ領域のアドレスを、形状モデルインデックスとして、三次元形状モデル記憶部19の三次元形状モデルテーブルに書き込んで記憶させる。
The three-dimensional shape model generation unit 16 generates a three-dimensional shape model (three-dimensional mesh model) using a three-dimensional point group consisting of three-dimensional points obtained by recalculating three-dimensional coordinates. The three-dimensional shape model generation unit 16 generates a three-dimensional shape model from the three-dimensional point group using, for example, a method of mesh reconstruction (Poisson Surface Reconstruction).
Then, the three-dimensional shape model generation unit 16 adds shape model identification information to the generated three-dimensional shape model, and writes data of this three-dimensional shape model in the three-dimensional shape model storage unit 19 for storage. Also, the three-dimensional shape model generation unit 16 uses the address of the area in which the data of the three-dimensional shape model is written in the three-dimensional shape model storage unit 19 as a shape model index. Write to the table for storage.

図4は、三次元形状モデル記憶部19に記憶されている三次元形状モデルテーブルの構成例を示す図である。この図4において、三次元形状モデルテーブルは、形状モデル識別情報に対応したレコードに、形状モデルインデックスとの欄を有している。形状モデル識別情報は、三次元形状モデル生成部16が生成した三次元形状モデルを識別する情報である。形状モデルインデックスは、三次元形状モデル記憶部19において三次元形状モデルのデータを書き込んだ領域のアドレスを示している。   FIG. 4 is a diagram showing a configuration example of the three-dimensional shape model table stored in the three-dimensional shape model storage unit 19. In FIG. 4, the three-dimensional shape model table has a field of shape model index in a record corresponding to shape model identification information. The shape model identification information is information for identifying the three-dimensional shape model generated by the three-dimensional shape model generation unit 16. The shape model index indicates the address of the area where the data of the three-dimensional shape model is written in the three-dimensional shape model storage unit 19.

図5は、本実施形態による三次元形状モデル生成装置1が行なう三次元形状モデルを生成する処理の動作例を示すフローチャートである。以下に示すフローチャートは、異なる複数の多視点画像から、デプスマップを生成した後、三次元点群を生成して、この三次元点群に基づいて、三次元形状モデルを生成する、三次元形状モデル生成装置1の処理の流れを示している。   FIG. 5 is a flowchart showing an operation example of processing for generating a three-dimensional shape model performed by the three-dimensional shape model generation device 1 according to the present embodiment. The flowchart shown below generates a depth map from a plurality of different multi-view images, then generates a three-dimensional point group, and generates a three-dimensional shape model based on the three-dimensional point group. The flow of processing of the model generation device 1 is shown.

ステップS1:
多視点画像入力部11は、異なった複数の視点で撮像装置により撮像した複数の多視点画像を外部装置(不図示)から入力し、多視点画像を撮像した視点の各々に視点識別情報を付与する。
そして、多視点画像入力部11は、入力した多視点画像の各々を、多視点画像記憶部17に対して書き込んで記憶し、多視点画像の各々を書き込んだ領域のアドレスを取得する。多視点画像入力部11は、多視点画像の各々に付与した視点識別情報に対応させ、視点の視点座標、視点の視点方向、撮像装置のカメラパラメータ及び多視点画像を書き込んだ領域のアドレスそれぞれを、画像インデックスとして多視点画像記憶部17の多視点画像テーブルに書き込んで記憶させる。
Step S1:
The multi-viewpoint image input unit 11 inputs, from an external device (not shown), a plurality of multi-viewpoint images captured by the imaging device from different viewpoints, and assigns viewpoint identification information to each of the viewpoints capturing the multi-viewpoint image. Do.
Then, the multi-viewpoint image input unit 11 writes and stores each of the input multi-viewpoint images in the multi-viewpoint image storage unit 17, and acquires the address of the area where each of the multi-viewpoint images is written. The multi-viewpoint image input unit 11 associates the viewpoint coordinates of the viewpoint, the viewpoint direction of the viewpoint, the camera parameters of the imaging device, and the address of the area where the multi-view image is written in correspondence with the viewpoint identification information added to each of the multiview images. The multi-viewpoint image table of the multi-viewpoint image storage unit 17 is written and stored as an image index.

ステップS2:
デプスマップ生成部12は、多視点画像記憶部17の多視点画像テーブルから、視点座標、視点方向、カメラパラメータ及び多視点画像インデックスの各々を読み出す。そして、デプスマップ生成部12は、多視点画像インデックスに基づき、多視点画像記憶部17から多視点画像の各々を読み出す。
デプスマップ生成部12は、視点座標、視点方向、カメラパラメータ及び多視点画像の各々を用いて、各視点に対応するデプスマップ及び法線ベクトルマップを生成する。デプスマップ生成部12は、生成したデプスマップ及び法線ベクトルマップの各々を、三次元点群記憶部18に書き込んで記憶させる。デプスマップ生成部12は、デプスマップ及び法線ベクトルマップの各々を書き込んだ領域のアドレスを取得し、デプスマップインデックス及び法線ベクトルマップインデックスとして、視点識別情報に対応させて三次元点群記憶部18の三次元点群生成テーブルに書き込んで記憶させる。
Step S2:
The depth map generation unit 12 reads out each of the viewpoint coordinates, the viewpoint direction, the camera parameter, and the multi-view image index from the multi-view image table of the multi-view image storage unit 17. Then, the depth map generation unit 12 reads each of the multi-viewpoint images from the multi-viewpoint image storage unit 17 based on the multi-viewpoint image index.
The depth map generation unit 12 generates a depth map and a normal vector map corresponding to each viewpoint using each of the viewpoint coordinates, the viewpoint direction, the camera parameter, and the multi-viewpoint image. The depth map generation unit 12 writes and stores each of the generated depth map and normal vector map in the three-dimensional point group storage unit 18. The depth map generation unit 12 acquires the address of the area in which each of the depth map and the normal vector map is written, and corresponds to the viewpoint identification information as a depth map index and a normal vector map index to obtain a three-dimensional point group storage unit Write and store in 18 three-dimensional point cloud generation tables.

ステップS3:三次元点群生成部13は、三次元点群記憶部18の三次元点群生成テーブルを参照して、全視点のデプスマップインデックスを読み出す。そして、三次元点群生成部13は、デプスマップインデックスの各々により、視点それぞれのデプスマップを読み出す。三次元点群生成部13は、全視点のデプスマップを統合して、多視点画像の各々のピクセルに対応した三次元点からなる、対象物の三次元形状を示す三次元点群を生成する。   Step S3: The three-dimensional point group generation unit 13 refers to the three-dimensional point group generation table of the three-dimensional point group storage unit 18 and reads out the depth map index of all the viewpoints. Then, the three-dimensional point group generation unit 13 reads the depth map of each of the viewpoints by each of the depth map indexes. The three-dimensional point group generation unit 13 integrates the depth maps of all the viewpoints to generate a three-dimensional point group indicating the three-dimensional shape of the object, which is composed of three-dimensional points corresponding to each pixel of the multi-viewpoint image. .

ステップS4:
三次元点群生成部13は、生成された三次元点群に対して、すでに述べたボクセルグリッドフィルタを用いた、同一三次元点と見なされる複数の三次元点の選択による統合、ノイズとされる外れ点である三次元点の除去、及び複数視点間においてデプスマップとの整合性の取れない三次元点の除去などの調整処理を行なう。
そして、三次元点群生成部13は、生成した三次元点群を三次元点群記憶部18に対して書き込んで記憶させ、書き込んだ領域のアドレスを取得する。三次元点群生成部13は、取得したアドレスを三次元点群インデックスとして、三次元点群テーブルに対して書き込んで記憶させる。
また、三次元点群生成部13は、作成した三次元点群における三次元点の各々の法線ベクトルを推定し、三次元点群を三次元点群記憶部18に対して書き込んで記憶させ、書き込んだ領域のアドレスを取得する。三次元点群生成部13は、取得したアドレスを法線ベクトルマップインデックスとして、三次元点群テーブルに対して書き込んで記憶させる。
Step S4:
The three-dimensional point group generation unit 13 combines the generated three-dimensional point group with noise by selecting a plurality of three-dimensional points regarded as the same three-dimensional point using the voxel grid filter described above. Adjustment processing such as removal of three-dimensional points that are outliers and removal of three-dimensional points that are not consistent with the depth map between multiple viewpoints are performed.
Then, the three-dimensional point group generation unit 13 writes the generated three-dimensional point group in the three-dimensional point group storage unit 18 to be stored, and acquires the address of the written area. The three-dimensional point group generation unit 13 writes and stores the acquired address in the three-dimensional point group table as a three-dimensional point group index.
Also, the three-dimensional point group generation unit 13 estimates normal vectors of each of the three-dimensional points in the created three-dimensional point group, writes the three-dimensional point group in the three-dimensional point group storage unit 18, and stores it. Get the address of the area you wrote. The three-dimensional point group generation unit 13 writes and stores the acquired address in the three-dimensional point group table as a normal vector map index.

ステップS5:
視点選択部14は、三次元点群における各三次元点のマッチングを行なうための複数、例えば2個の視点を選択する。
このとき、視点選択部14は、マッチングを行なう対象の三次元点のなるべく正面にあり、かつ三次元点に対応するピクセルがなるべく中央にある視点であり、この三次元点に対応するピクセルが存在する多視点画像を撮像した視点を選択する。
すなわち、視点選択部14は、三次元点群におけるマッチング対象の三次元点の法線ベクトルを、三次元点群記憶部18の法線ベクトルマップから読み出す。
Step S5:
The viewpoint selecting unit 14 selects a plurality of, for example, two viewpoints for matching each three-dimensional point in the three-dimensional point group.
At this time, the viewpoint selecting unit 14 is a viewpoint as far in front as possible of the three-dimensional point to be matched, and the pixel corresponding to the three-dimensional point is as central as possible, and the pixel corresponding to this three-dimensional point is present The viewpoint which imaged the multi-viewpoint image to be selected is selected.
That is, the viewpoint selecting unit 14 reads the normal vector of the three-dimensional point to be matched in the three-dimensional point group from the normal vector map of the three-dimensional point group storage unit 18.

そして、視点選択部14は、多視点画像記憶部17の多視点画像テーブルから、順次、この多視点画像テーブルに記載された順番に視点を選択し、選択した視点の視点座標及び視点方向の各々を読み出す。
視点選択部14は、(1)式あるいは(2)式により、三次元点のマッチングに用いる視点を選択するための選択コストSijを、多視点画像テーブルにおける全ての視点毎に算出する。このとき、視点選択部14は、(2)式を用いて選択コストSijを算出する際、視点jから三次元点iが可視性の有無(視点から見えるか見えないか)を示す係数Vijを求める。
視点選択部14は、全視点の選択コストSijを求めた後、全視点のなかから選択コストSijが最も大きい順番に、所定の数の複数の視点を選択する。
Then, the viewpoint selecting unit 14 sequentially selects viewpoints from the multi-viewpoint image table of the multi-viewpoint image storage unit 17 in the order described in the multi-viewpoint image table, and selects each of viewpoint coordinates and viewpoint directions of the selected viewpoints. Read out.
The viewpoint selecting unit 14 calculates a selection cost S ij for selecting a viewpoint to be used for three-dimensional point matching, for each of all the viewpoints in the multi-viewpoint image table, using Equation (1) or (2). At this time, when the viewpoint selecting unit 14 calculates the selection cost S ij using the equation (2), a coefficient V indicating whether the three-dimensional point i is visible from the viewpoint j (visible or not visible from the viewpoint) Find ij .
After obtaining the selection costs S ij of all the viewpoints, the viewpoint selecting unit 14 selects a predetermined number of viewpoints from among all the viewpoints in the order in which the selection cost S ij is the largest.

ステップS6:
三次元座標算出部15は、三次元点群におけるマッチング対象の三次元点の法線ベクトルを、三次元点群記憶部18の法線ベクトルマップから読み出す。
そして、三次元座標算出部15は、三次元点の三次元座標及び法線ベクトルの各々から、選択された複数の視点における多視点画像の各々において同一サイズの局所領域を設定する。三次元座標算出部15は、選択された多視点画像の各々の局所領域の画像の位相スペクトルから位相限定相関関数を計算し、相関値のピークを求めることにより、多視点画像間の微少な(サブピクセル単位の)平行移動量を推定する。
これにより、三次元座標算出部15は、対象の三次元点の三次元座標をサブピクセルの単位で高い精度で再計算する。
Step S6:
The three-dimensional coordinate calculation unit 15 reads the normal vector of the three-dimensional point to be matched in the three-dimensional point group from the normal vector map of the three-dimensional point group storage unit 18.
Then, the three-dimensional coordinate calculation unit 15 sets, from each of the three-dimensional coordinates of the three-dimensional point and the normal vector, a local region of the same size in each of the multi-viewpoint images in the plurality of selected viewpoints. The three-dimensional coordinate calculation unit 15 calculates the phase-only correlation function from the phase spectrum of the image of each local region of the selected multi-viewpoint image, and determines the peak of the correlation value to obtain the minute between the multi-viewpoint images ( Estimate the amount of translation in sub-pixel units).
Thereby, the three-dimensional coordinate calculation unit 15 recalculates the three-dimensional coordinates of the target three-dimensional point with high accuracy in units of subpixels.

ステップS7:
三次元座標算出部15は、選択された多視点画像の各々の局所領域における画像の位相スペクトルから上記ステップS6において位相限定相関関数を計算することで求められた相関値(マッチングスコア)が、予め設定された閾値以上か否かの判定を行なう。このとき、三次元座標算出部15は、上記マッチングスコアが閾値以上の場合、処理をステップS8へ進める。一方、三次元座標算出部15は、上記マッチングスコアが閾値未満の場合、処理をステップS9へ進める。
Step S7:
The three-dimensional coordinate calculation unit 15 calculates in advance the correlation value (matching score) obtained by calculating the phase-only correlation function in step S6 from the phase spectrum of the image in each local region of the selected multi-viewpoint image. It is determined whether or not it is equal to or more than the set threshold. At this time, the three-dimensional coordinate calculation unit 15 advances the process to step S8 when the matching score is equal to or more than the threshold. On the other hand, if the matching score is less than the threshold value, the three-dimensional coordinate calculation unit 15 advances the process to step S9.

ステップS8:
三次元座標算出部15は、マッチングスコアが閾値以上の場合、上記ステップS6において再計算された対象の三次元点の三次元座標を、一旦、自身内の記憶部に再計算点群における三次元点として書き込む。
Step S8:
When the matching score is equal to or more than the threshold value, the three-dimensional coordinates calculation unit 15 temporarily stores the three-dimensional coordinates of the three-dimensional point of the target recalculated in step S6 in the storage unit in itself. Write as a point.

ステップS9:
三次元座標算出部15は、マッチングスコアが閾値未満の場合、この対象の三次元点を三次元点群から除去する。
Step S9:
When the matching score is less than the threshold, the three-dimensional coordinate calculation unit 15 removes the three-dimensional point of this object from the three-dimensional point group.

ステップS10:
三次元座標算出部15は、三次元点群における全ての三次元点の三次元座標の再計算が終了したか否かの判定を行なう。このとき、三次元点群における全ての三次元点の三次元座標の再計算が終了した場合、処理をステップS11へ進める。三次元点群における全ての三次元点の三次元座標の再計算が終了していない場合、処理をステップS6へ進め、三次元点群における次の三次元点の三次元座標の再計算を行なう。
Step S10:
The three-dimensional coordinate calculation unit 15 determines whether recalculation of three-dimensional coordinates of all three-dimensional points in the three-dimensional point group is completed. At this time, when the recalculation of the three-dimensional coordinates of all the three-dimensional points in the three-dimensional point group is completed, the process proceeds to step S11. If the recalculation of the three-dimensional coordinates of all the three-dimensional points in the three-dimensional point group is not completed, the process proceeds to step S6, and the three-dimensional coordinates of the next three-dimensional point in the three-dimensional point group are recalculated. .

ステップS11:
三次元座標算出部15は、三次元点群記憶部18の三次元点群インデックスの示すさきに記憶されている三次元点群における三次元点の全ての再計算が終了した後、自身内の記憶部に記憶されている再計算点群を、三次元点群記憶部18に書き込んで記憶させる。そして、三次元座標算出部15は、上記再計算点群を書き込んだ領域のアドレスを取得し、再計算点群インデックスとして、三次元点群記憶部18の三次元点群テーブルに書き込んで記憶させる。
Step S11:
The three-dimensional coordinate calculation unit 15 determines that all three-dimensional points in the three-dimensional point group stored in the three-dimensional point group index of the three-dimensional point group storage unit 18 have been recalculated. The recalculation point group stored in the storage unit is written and stored in the three-dimensional point group storage unit 18. Then, the three-dimensional coordinate calculation unit 15 obtains the address of the area where the recalculation point group is written, and writes and stores the address of the recalculation point group index in the three-dimensional point group table of the three-dimensional point group storage unit 18 .

ステップS12:
三次元形状モデル生成部16は、三次元点群記憶部18の三次元点群テーブルを参照し、再計算点群インデックスを読み出す。
そして、三次元形状モデル生成部16は、再計算点群インデックスに基づき、三次元点群記憶部18から、再計算点群のデータを読み出す。
三次元形状モデル生成部16は、読み出した再計算点群から、三次元形状モデルを例えば、メッシュ再構築の手法を用いて三次元メッシュモデルとして生成する。三次元形状モデル生成部16は、生成した三次元形状モデルに形状モデル識別情報を付与し、この三次元形状モデルのデータを三次元形状モデル記憶部19に対して書き込んで記憶させる。三次元形状モデル生成部16は、三次元形状モデルのデータを書き込んだアドレスを取得し、形状モデル識別情報に対応させ、三次元形状モデルインデックスとして、三次元形状モデル記憶部19の三次元形状モデルテーブルに書き込んで記憶させる。
Step S12:
The three-dimensional shape model generation unit 16 refers to the three-dimensional point group table of the three-dimensional point group storage unit 18 and reads the recalculation point group index.
Then, the three-dimensional shape model generation unit 16 reads data of the recalculation point group from the three-dimensional point group storage unit 18 based on the recalculation point group index.
The three-dimensional shape model generation unit 16 generates a three-dimensional shape model as a three-dimensional mesh model using, for example, a method of mesh reconstruction from the read recalculation point group. The three-dimensional shape model generation unit 16 adds shape model identification information to the generated three-dimensional shape model, and writes and stores data of the three-dimensional shape model in the three-dimensional shape model storage unit 19. The three-dimensional shape model generation unit 16 acquires an address at which data of the three-dimensional shape model is written, makes the shape model identification information correspond, and the three-dimensional shape model of the three-dimensional shape model storage unit 19 as a three-dimensional shape model index. Write to the table for storage.

図6は、対象物の多視点画像から生成したこの対象物の三次元形状モデルの画像を示す図である。図6(a)及び図6(b)の各々は、異なる視点から撮像した多視点画像の例を示す図である。図6の例においては、図6(a)及び図6(b)を含み、異なる視点で撮像された60枚の多視点画像と撮像装置のカメラパラメータとを用いて、図6(a)及び図6(b)に示す対象物の三次元形状モデルを生成した。
図6(c)及び図6(d)の各々は、非特許文献1に記載されている手法で生成した三次元形状モデルを、図6(a)、図6(b)それぞれの視点から観察される画像を示している。この図6(c)及び図6(d)の画像の三次元形状には、オクルージョン境界や三次元形状モデルの端部に誤差によるノイズが確認できる。この図6(c)及び図6(d)に示す画像の三次元形状モデルの生成にかかった時間は、約11300秒であった。
FIG. 6 is a view showing an image of a three-dimensional shape model of the object generated from multi-viewpoint images of the object. Each of FIG. 6A and FIG. 6B is a diagram showing an example of multi-viewpoint images captured from different viewpoints. In the example of FIG. 6, including FIG. 6 (a) and FIG. 6 (b), FIG. 6 (a) and FIG. 6 (a) are used using 60 multi-viewpoint images captured from different viewpoints and camera parameters of the imaging device. A three-dimensional shape model of the object shown in FIG. 6 (b) was generated.
Each of FIG. 6 (c) and FIG. 6 (d) observes a three-dimensional shape model generated by the method described in Non-Patent Document 1 from the respective viewpoints of FIG. 6 (a) and FIG. 6 (b). Shows an image. In the three-dimensional shape of the image of FIGS. 6C and 6D, noise due to an error can be confirmed at the occlusion boundary or at the end of the three-dimensional shape model. The time taken to generate the three-dimensional shape model of the image shown in FIGS. 6 (c) and 6 (d) was about 11,300 seconds.

一方、図6(e)及び図6(f)の各々は、本実施形態の手法(三次元点のマッチングに使用する視線の選択において(2)式を用いている)で生成した三次元形状モデルを、図6(a)、図6(b)それぞれの視点から観察される画像を示している。本実施形態による図6(c)及び図6(d)の画像の三次元形状には、オクルージョン境界や三次元形状モデルの端部に誤差によるノイズが、図6(c)及び図5(d)と比較して低減されていることが確認できる。この図6(e)及び図6(f)に示す画像の三次元形状モデルの生成にかかった時間は、約600秒であった。
図6の結果から判るように、本実施形態による三次元形状モデル生成装置によれば、従来例に比較して、三次元形状モデルの生成に要する時間を短縮し、かつ対象物の三次元形状に近い、精度の高い三次元形状モデルを生成することができる。
On the other hand, each of FIG. 6 (e) and FIG. 6 (f) is a three-dimensional shape generated by the method of this embodiment (using equation (2) in the selection of the line of sight used for matching three-dimensional points). The model shows images observed from the respective viewpoints of FIG. 6 (a) and FIG. 6 (b). In the three-dimensional shape of the image in FIG. 6C and FIG. 6D according to this embodiment, noise due to an error at the occlusion boundary or at the end of the three-dimensional shape model is shown in FIG. It can be confirmed that it is reduced compared to). The time taken to generate the three-dimensional shape model of the image shown in FIGS. 6 (e) and 6 (f) was about 600 seconds.
As can be seen from the results shown in FIG. 6, according to the three-dimensional shape model generating device of the present embodiment, the time required to generate a three-dimensional shape model is reduced and the three-dimensional shape of the object is compared to the conventional example. It is possible to generate a highly accurate three-dimensional shape model close to.

上述した構成により、本実施形態によれば、異なった視点において撮像した複数の多視点画像の各々に対応するデプスマップを、例えばPatchMatch Stereo法において、マッチングスコアとして正規化相互相関やSSDを使用して作成しているため、位相限定相関法に比較してマッチングの精度は低いがデプスマップの生成にかかる時間短縮を行なうことができる。そして、本実施形態によれば、上述のように生成したデプスマップを全視点で統合し、三次元点群を生成し、この三次元点群における三次元点の各々に対して位相限定相関法を用い、三次元座標の再計算を行なうため、位相限定相関法においてデプスマップを生成する場合に比較して、計算する三次元点の数を低減させ、デプスマップの生成に位相限定相関法を用いた場合と同様の精度で、三次元点群における三次元点群の各々の三次元座標の再計算を高速に行なうことができる。   With the above-described configuration, according to the present embodiment, a depth map corresponding to each of a plurality of multi-viewpoint images captured at different viewpoints is used as a matching score, for example, normalized cross correlation or SSD in PatchMatch Stereo method. Since the matching accuracy is lower than that of the phase only correlation method, the time taken to generate the depth map can be shortened. Then, according to the present embodiment, the depth map generated as described above is integrated at all viewpoints to generate a three-dimensional point group, and the phase-only correlation method is applied to each of the three-dimensional points in this three-dimensional point group. In order to recalculate three-dimensional coordinates by using the above method, the number of three-dimensional points to be calculated is reduced as compared with the case of generating a depth map in the phase limited correlation method, and the phase only correlation method is used to generate the depth map. Recalculation of three-dimensional coordinates of each of the three-dimensional point groups in the three-dimensional point group can be performed at high speed with the same accuracy as that used.

また、本実施形態によれば、デプスマップを全視点で統合して生成した三次元点群における三次元点群に対し、ボクセルグリッドフィルタを用いた、同一三次元点と見なされる複数の三次元点の選択による統合、ノイズとされる外れ点である三次元点の除去、及び複数視点間においてデプスマップとの整合性の取れない三次元点の除去などの調整処理を行なうため、ノイズやマッチング処理の妨げとなる三次元点を、位相限定相関法によるマッチング処理を行なう前に行なうため、従来に比較してより対象物の三次元形状に近い、精度の高い再計算点群(再計算された三次元点群)を生成することができる。   Further, according to the present embodiment, a plurality of three-dimensional points regarded as the same three-dimensional point using the voxel grid filter with respect to the three-dimensional point group in the three-dimensional point group generated by integrating the depth map in all the viewpoints Adjustments such as integration by selection of points, removal of three-dimensional points that are noise outliers, and removal of three-dimensional points that are not consistent with the depth map between multiple viewpoints, etc. Since the three-dimensional points that interfere with the processing are performed before performing the matching processing by the phase-only correlation method, a highly accurate re-computed point group closer to the three-dimensional shape of the object compared to the prior art (recalculated (3D point group) can be generated.

また、本実施形態によれば、(1)式及び(2)式から求められる選択コストが高い視点を、三次元点群における三次元点のマッチング処理に用いるため、三次元点群における三次元点の法線ベクトルの向きと視点方向とがより近い、すなわち三次元点の見えが良い視点が選択されるため、三次元形状の輪郭として観察される視点を選択することが低減され、三次元形状におけるオクルージョン境界及び輪郭に発生するノイズを低減することができる。   Further, according to the present embodiment, since the viewpoint with high selection cost obtained from the equations (1) and (2) is used for the matching process of the three-dimensional point in the three-dimensional point group, the three-dimensional point group Since the direction of the normal vector of the point and the viewpoint direction are closer, ie, a viewpoint having a better view of the three-dimensional point is selected, the selection of the viewpoint to be observed as the contour of the three-dimensional shape is reduced. It is possible to reduce noise generated at occlusion boundaries and contours in the shape.

また、本実施形態によれば、視点の選択に(2)式を用いることにより、視点から他の三次元点に遮蔽されずに可視の状態であるか否かの判定を含めて、三次元点群における三次元点の法線ベクトルの向きと視点方向とがより近い視点が選択されるため、(1)式を用いる場合に比較して、より三次元形状におけるオクルージョン境界に発生するノイズを低減することができる。   Further, according to the present embodiment, by using the equation (2) for selecting the viewpoint, it is possible to determine whether the viewpoint is in the visible state without being blocked by another three-dimensional point Since a viewpoint is selected in which the direction of the normal vector of the three-dimensional point in the point group is closer to the viewpoint direction, noise generated at an occlusion boundary in a three-dimensional shape is compared to when using equation (1). It can be reduced.

なお、本発明における図1の三次元形状モデル生成装置1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませて実行することにより、求めた三次元点群により対象物の三次元形状モデルを生成する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWW(World Wide Web)システムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM(Compact Disc - Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM(Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。   A program for realizing the function of the three-dimensional shape model generation apparatus 1 of FIG. 1 in the present invention is recorded in a computer readable recording medium, and the program recorded in the recording medium is read into a computer system. By executing the processing, processing may be performed to generate a three-dimensional shape model of the object from the determined three-dimensional point group. Note that the “computer system” referred to here includes hardware such as an operating system (OS) and peripheral devices. The "computer system" also includes a WWW (World Wide Web) system provided with a homepage providing environment (or display environment). The "computer readable recording medium" is a portable medium such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD-ROM (Compact Disc-Read Only Memory), etc., and is incorporated in a computer system. It refers to a storage device such as a hard disk. Furthermore, “computer-readable recording medium” refers to volatile memory (RAM (Random Access (RAM) within a computer system serving as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line). Memory), etc., includes those which hold a program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium or by transmission waves in the transmission medium. Here, the “transmission medium” for transmitting the program is a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing a part of the functions described above. Furthermore, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and design changes and the like within the scope of the present invention are also included.

1…三次元形状モデル生成装置
11…多視点画像入力部
12…デプスマップ生成部
13…三次元点群生成部
14…視点選択部
15…三次元座標算出部
16…三次元形状モデル生成部
17…多視点画像記憶部
18…三次元点群記憶部
19…三次元形状モデル記憶部
DESCRIPTION OF SYMBOLS 1 ... 3D shape model generation apparatus 11 ... multi-viewpoint image input part 12 ... depth map generation part 13 ... 3D point group generation part 14 ... viewpoint selection part 15 ... 3D coordinate calculation part 16 ... 3D shape model generation part 17 ... Multi-viewpoint image storage unit 18 ... Three-dimensional point group storage unit 19 ... Three-dimensional shape model storage unit

Claims (7)

対象物を異なる視点から撮像した2枚以上の多視点画像と、当該多視点画像を撮像した撮像装置のカメラパラメータとから、前記対象物の三次元形状モデルを生成する三次元形状モデル生成装置であり、
前記多視点画像と前記カメラパラメータとから、前記視点毎の当該多視点画像に対応するデプスマップを生成するデプスマップ生成部と、
前記デプスマップと前記カメラパラメータとから、前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、
前記三次元点群と前記カメラパラメータとから、前記三次元点群における各三次元点のマッチング処理を行なう2個以上の視点を選択する視点選択部と、
前記選択された視点により前記三次元点のマッチングを位相限定相関法により行ない、三次元点群における各三次元点の三次元空間における三次元座標を再算出する三次元座標算出部と
を備えることを特徴とする三次元形状モデル生成装置。
A three-dimensional shape model generating device for generating a three-dimensional shape model of an object from two or more multi-viewpoint images obtained by imaging an object from different viewpoints and camera parameters of an imaging device capturing the multi-viewpoint image Yes,
A depth map generation unit that generates a depth map corresponding to the multi-viewpoint image for each of the viewpoints from the multi-viewpoint image and the camera parameter;
A three-dimensional point group generation unit that generates a three-dimensional point group indicating the three-dimensional shape of the object from the depth map and the camera parameter;
A viewpoint selection unit that selects two or more viewpoints for performing matching processing of each three-dimensional point in the three-dimensional point group from the three-dimensional point group and the camera parameter;
A three-dimensional coordinate calculation unit which performs matching of the three-dimensional points by the phase-only correlation method based on the selected viewpoint, and recalculates three-dimensional coordinates in three-dimensional space of each three-dimensional point in the three-dimensional point group; Three-dimensional shape model generation device characterized by
前記視点選択部が、
前記視点選択部が、前記三次元形状モデルが形成される三次元座標系において、マッチング処理を行なう対象の前記三次元点の法線と同様な視点方向の視点を選択する
ことを特徴とする請求項1に記載の三次元形状モデル生成装置。
The viewpoint selection unit
In the three-dimensional coordinate system in which the three-dimensional shape model is formed, the viewpoint selecting unit selects a viewpoint in a viewpoint direction similar to a normal of the three-dimensional point to be subjected to matching processing. Item 3. The three-dimensional shape model generation device according to Item 1.
前記視点選択部が、
対象の前記三次元点と前記視点との間に他の異なる三次元点が存在する場合、当該視点を選択する視点から除外する
ことを特徴とする請求項2に記載の三次元形状モデル生成装置。
The viewpoint selection unit
3. The three-dimensional shape model generation device according to claim 2, wherein when there is another different three-dimensional point between the three-dimensional point of interest and the view point, the view point is excluded from the view point to be selected. .
前記三次元点群生成部が、
前記多視点画像に対応する前記デプスマップの各々から生成される三次元点群に含まれる外れ値の三次元点と、他のデプスマップとの整合性が取れない三次元点との各々を除去する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の三次元形状モデル生成装置。
The three-dimensional point group generation unit
Remove each of the three-dimensional points of outliers included in the three-dimensional point group generated from each of the depth maps corresponding to the multi-viewpoint image and the three-dimensional points which are not consistent with other depth maps The three-dimensional shape model generation device according to any one of claims 1 to 3, characterized in that:
前記デプスマップ生成部が、
パッチマッチステレオ(PatchMatch Stereo)法を用いて、前記多視点画像の各々に対応するデプスマップを生成している
ことを特徴とする請求項1から請求項4のいずれか一項に記載の三次元形状モデル生成装置。
The depth map generation unit
The three-dimensional image according to any one of claims 1 to 4, wherein a depth map corresponding to each of the multi-view images is generated using a patch match stereo (PatchMatch Stereo) method. Shape model generator.
対象物を異なる視点から撮像した2枚以上の多視点画像と、当該多視点画像を撮像した撮像装置のカメラパラメータとから、前記対象物の三次元形状モデルを生成する三次元形状モデル生成方法であり、
デプスマップ生成部が、前記多視点画像と前記カメラパラメータとから、前記視点毎の当該多視点画像に対応するデプスマップを生成するデプスマップ生成過程と、
三次元点群生成部が、前記デプスマップと前記カメラパラメータとから、前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成過程と、
視点選択部が、前記三次元点群と前記カメラパラメータとから、前記三次元点群における各三次元点のマッチング処理を行なう2個以上の視点を選択する視点選択過程と、
三次元座標算出部が、前記選択された視点により前記三次元点のマッチングを位相限定相関法により行ない、三次元点群における各三次元点の三次元空間における三次元座標を再算出する三次元座標算出過程と
を含むことを特徴とする三次元形状モデル生成方法。
A three-dimensional shape model generation method for generating a three-dimensional shape model of an object from two or more multi-viewpoint images obtained by capturing an object from different viewpoints and camera parameters of an imaging device capturing the multi-viewpoint image Yes,
A depth map generating step of generating a depth map corresponding to the multi-viewpoint image for each viewpoint from the multi-viewpoint image and the camera parameter;
A three-dimensional point group generation process of generating a three-dimensional point group indicating the three-dimensional shape of the object from the depth map and the camera parameter;
A viewpoint selection process of selecting two or more viewpoints for performing matching processing of each three-dimensional point in the three-dimensional point group from the three-dimensional point group and the camera parameter;
A three-dimensional coordinate calculation unit performs matching of the three-dimensional points by the phase-only correlation method according to the selected viewpoint, and re-calculates three-dimensional coordinates of each three-dimensional point in the three-dimensional point group in three-dimensional space A three-dimensional shape model generating method characterized by including a coordinate calculation process.
対象物を異なる視点から撮像した2枚以上の多視点画像と、当該多視点画像を撮像した撮像装置のカメラパラメータとから、前記対象物の三次元形状モデルを生成する三次元形状モデル生成装置としてコンピュータを動作させるプログラムであり、
前記コンピュータを、
前記多視点画像と前記カメラパラメータとから、前記視点毎の当該多視点画像に対応するデプスマップを生成するデプスマップ生成手段、
前記デプスマップと前記カメラパラメータとから、前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成手段、
前記三次元点群と前記カメラパラメータとから、前記三次元点群における各三次元点のマッチング処理を行なう2個以上の視点を選択する視点選択手段、
前記選択された視点により前記三次元点のマッチングを位相限定相関法により行ない、三次元点群における各三次元点の三次元空間における三次元座標を再算出する三次元座標算出手段
として動作させるためのプログラム。
As a three-dimensional shape model generating device for generating a three-dimensional shape model of an object from two or more multi-viewpoint images obtained by capturing an object from different viewpoints and camera parameters of an imaging device capturing the multi-viewpoint image A program that runs a computer,
The computer,
A depth map generation unit configured to generate a depth map corresponding to the multi-viewpoint image for each of the viewpoints from the multi-viewpoint image and the camera parameter;
Three-dimensional point group generation means for generating a three-dimensional point group indicating the three-dimensional shape of the object from the depth map and the camera parameter;
Viewpoint selecting means for selecting two or more viewpoints for performing matching processing of each three-dimensional point in the three-dimensional point group from the three-dimensional point group and the camera parameter;
In order to perform matching of the three-dimensional point by the phase limited correlation method based on the selected viewpoint and to recalculate three-dimensional coordinates in the three-dimensional space of each three-dimensional point in the three-dimensional point group Programs.
JP2017081353A 2017-04-17 2017-04-17 3D shape model generator, 3D shape model generation method and program Active JP6934224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017081353A JP6934224B2 (en) 2017-04-17 2017-04-17 3D shape model generator, 3D shape model generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017081353A JP6934224B2 (en) 2017-04-17 2017-04-17 3D shape model generator, 3D shape model generation method and program

Publications (2)

Publication Number Publication Date
JP2018181047A true JP2018181047A (en) 2018-11-15
JP6934224B2 JP6934224B2 (en) 2021-09-15

Family

ID=64275724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017081353A Active JP6934224B2 (en) 2017-04-17 2017-04-17 3D shape model generator, 3D shape model generation method and program

Country Status (1)

Country Link
JP (1) JP6934224B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116563A1 (en) * 2018-12-06 2020-06-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US20200271451A1 (en) * 2019-02-25 2020-08-27 Deka Products Limited Partnership System and Method for Surface Feature Detection and Transversal
CN112634439A (en) * 2020-12-25 2021-04-09 北京奇艺世纪科技有限公司 3D information display method and device
CN114494389A (en) * 2022-04-01 2022-05-13 深圳数字视界科技有限公司 Multi-segment scanning space object three-dimensional construction system based on feature point identification connection
GB2618411A (en) * 2022-02-25 2023-11-08 Adobe Inc Cropping for efficient three-dimensional digital rendering
JP7401454B2 (en) 2018-11-13 2023-12-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337953A (en) * 2002-05-20 2003-11-28 Sony Corp Apparatus and method for image processing, and computer program
JP2004336569A (en) * 2003-05-09 2004-11-25 Ntt Docomo Inc Mobile object monitor system and mobile object monitor method
JP2010152535A (en) * 2008-12-24 2010-07-08 Nippon Hoso Kyokai <Nhk> Three-dimensional shape restoring apparatus and program therefor
JP2011185720A (en) * 2010-03-08 2011-09-22 Ricoh Co Ltd Distance obtaining device
JP2013007748A (en) * 2012-07-25 2013-01-10 Konica Minolta Holdings Inc Distance measuring apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337953A (en) * 2002-05-20 2003-11-28 Sony Corp Apparatus and method for image processing, and computer program
JP2004336569A (en) * 2003-05-09 2004-11-25 Ntt Docomo Inc Mobile object monitor system and mobile object monitor method
JP2010152535A (en) * 2008-12-24 2010-07-08 Nippon Hoso Kyokai <Nhk> Three-dimensional shape restoring apparatus and program therefor
JP2011185720A (en) * 2010-03-08 2011-09-22 Ricoh Co Ltd Distance obtaining device
JP2013007748A (en) * 2012-07-25 2013-01-10 Konica Minolta Holdings Inc Distance measuring apparatus

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
今泉 浩幸、外2名: ""任意視点画像表示を目的とした多眼画像からの奥行き推定"", 電子情報通信学会技術研究報告, vol. 101, no. 205, JPN6021008483, 12 July 2001 (2001-07-12), JP, pages 109 - 116, ISSN: 0004462796 *
伊藤 秀哉、外3名: ""多視点マルチバンド画像を用いた高精度3次元復元手法とその評価"", 映像情報メディア学会技術報告, vol. 39, no. 30, JPN6021008488, 17 August 2015 (2015-08-17), JP, pages 29 - 32, ISSN: 0004545576 *
山尾 創輔、外3名: ""ステレオマッチングに最適な動画像のフレーム選択に基づく3次元復元手法の検討"", 映像情報メディア学会技術報告, vol. 37, no. 36, JPN6021008477, 12 August 2013 (2013-08-12), JP, pages 19 - 22, ISSN: 0004462794 *
山尾 創輔、外3名: ""動画像からの高精度・高密度な3次元点群の復元に関する検討"", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM), vol. Vol.2013-CVIM-187, No.17, JPN6021008480, 23 May 2013 (2013-05-23), JP, pages 1 - 8, ISSN: 0004462795 *
平舘 睦基、外4名: ""多視点ステレオのためのPatchMatch Stereoの拡張と性能評価"", 映像情報メディア学会技術報告, vol. 39, no. 30, JPN6021008486, 17 August 2015 (2015-08-17), pages 65 - 68, ISSN: 0004462797 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7401454B2 (en) 2018-11-13 2023-12-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
WO2020116563A1 (en) * 2018-12-06 2020-06-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US20200271451A1 (en) * 2019-02-25 2020-08-27 Deka Products Limited Partnership System and Method for Surface Feature Detection and Transversal
CN112634439A (en) * 2020-12-25 2021-04-09 北京奇艺世纪科技有限公司 3D information display method and device
CN112634439B (en) * 2020-12-25 2023-10-31 北京奇艺世纪科技有限公司 3D information display method and device
GB2618411A (en) * 2022-02-25 2023-11-08 Adobe Inc Cropping for efficient three-dimensional digital rendering
CN114494389A (en) * 2022-04-01 2022-05-13 深圳数字视界科技有限公司 Multi-segment scanning space object three-dimensional construction system based on feature point identification connection
CN114494389B (en) * 2022-04-01 2022-07-15 深圳数字视界科技有限公司 Multi-segment scanning space object three-dimensional construction system based on feature point identification connection

Also Published As

Publication number Publication date
JP6934224B2 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
JP6934224B2 (en) 3D shape model generator, 3D shape model generation method and program
CN106651938B (en) A kind of depth map Enhancement Method merging high-resolution colour picture
CN110264509B (en) Method, apparatus, and storage medium for determining pose of image capturing device
CN110276317B (en) Object size detection method, object size detection device and mobile terminal
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
WO2015135323A1 (en) Camera tracking method and device
US11170202B2 (en) Apparatus and method for performing 3D estimation based on locally determined 3D information hypotheses
EP3326156B1 (en) Consistent tessellation via topology-aware surface tracking
CN109829353B (en) Face image stylizing method based on space constraint
WO2012100225A1 (en) Systems and methods for generating a three-dimensional shape from stereo color images
KR101851303B1 (en) Apparatus and method for reconstructing 3d space
US20150138193A1 (en) Method and device for panorama-based inter-viewpoint walkthrough, and machine readable medium
Donate et al. Efficient path-based stereo matching with subpixel accuracy
US20230394833A1 (en) Method, system and computer readable media for object detection coverage estimation
CN115222889A (en) 3D reconstruction method and device based on multi-view image and related equipment
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
JP2019091122A (en) Depth map filter processing device, depth map filter processing method and program
KR101766431B1 (en) Method and apparatus for detecting disparity by using hierarchical stereo matching
JP2019512781A (en) Method for reconstructing 3D multi-viewpoint by feature tracking and model registration.
da Silva Vieira et al. Stereo vision methods: from development to the evaluation of disparity maps
CN112884817B (en) Dense optical flow calculation method, dense optical flow calculation device, electronic device, and storage medium
KR20180067914A (en) Apparatus and method for restoring 3d-model using the image-processing
JP7135517B2 (en) 3D geometric model generation device, 3D model generation method and program
JP6260888B2 (en) Function calculation device, function calculation method, and function calculation program
Sundararajan et al. A Combined Approach for Stereoscopic 3D Reconstruction Model based on Improved Semi Global Matching.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170526

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210812

R150 Certificate of patent or registration of utility model

Ref document number: 6934224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350