JP6867645B2 - Image processing equipment, methods, and programs - Google Patents

Image processing equipment, methods, and programs Download PDF

Info

Publication number
JP6867645B2
JP6867645B2 JP2017137830A JP2017137830A JP6867645B2 JP 6867645 B2 JP6867645 B2 JP 6867645B2 JP 2017137830 A JP2017137830 A JP 2017137830A JP 2017137830 A JP2017137830 A JP 2017137830A JP 6867645 B2 JP6867645 B2 JP 6867645B2
Authority
JP
Japan
Prior art keywords
mesh
image
images
illumination light
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017137830A
Other languages
Japanese (ja)
Other versions
JP2019020952A (en
Inventor
勝 土田
勝 土田
薫 平松
薫 平松
柏野 邦夫
邦夫 柏野
孝文 青木
孝文 青木
伊藤 康一
康一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Tohoku University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Nippon Telegraph and Telephone Corp filed Critical Tohoku University NUC
Priority to JP2017137830A priority Critical patent/JP6867645B2/en
Publication of JP2019020952A publication Critical patent/JP2019020952A/en
Application granted granted Critical
Publication of JP6867645B2 publication Critical patent/JP6867645B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、方法、及びプログラムに関する。 The present invention relates to image processing devices, methods, and programs.

従来、カメラ等の画像撮影装置により、2つ以上の異なる視点から撮影された複数枚の画像(多視点画像)を用いることで、被写体の立体形状を復元する技術が提案されている(例えば、非特許文献1)。 Conventionally, a technique for restoring the three-dimensional shape of a subject by using a plurality of images (multi-viewpoint images) taken from two or more different viewpoints by an image capturing device such as a camera has been proposed (for example, Non-Patent Document 1).

また、多視点画像上における各対応点の位置と、多視点画像の撮影に用いた画像撮影装置の位置、向き、及び画角といった幾何情報から、三角測量の原理を用いることで該当の対応点の三次元空間内における位置情報を算出する技術が提案されている(例えば、非特許文献2)。この技術では、対応点の位置情報を算出する処理を、検出された全ての対応点に施すことにより、被写体表面を構成する点の位置が求められる。また、位置情報が得られた3つの点の組み合わせを定めることで、被写体表面を構成する面(メッシュ)が得られる。また、全ての点の組み合わせが決定されると三次元メッシュモデルが生成される。そして、各メッシュに該当する領域の画像を多視点画像から抽出してテクスチャ画像とし、全てのメッシュに対してテクスチャ画像の貼り付けを行った後に、再現したい画像の視点に合わせて陰面処理を施すことで、任意視点における観察画像が生成される。 In addition, from the position of each corresponding point on the multi-viewpoint image and geometric information such as the position, orientation, and angle of view of the image capturing device used for shooting the multi-viewpoint image, the corresponding corresponding point can be obtained by using the principle of triangulation. A technique for calculating position information in a three-dimensional space has been proposed (for example, Non-Patent Document 2). In this technique, the positions of the points constituting the surface of the subject are obtained by applying the process of calculating the position information of the corresponding points to all the detected corresponding points. Further, by determining the combination of the three points from which the position information is obtained, the surface (mesh) constituting the surface of the subject can be obtained. Also, when the combination of all points is determined, a three-dimensional mesh model is generated. Then, the image of the area corresponding to each mesh is extracted from the multi-viewpoint image to obtain a texture image, the texture image is pasted on all the meshes, and then the shadow surface processing is performed according to the viewpoint of the image to be reproduced. As a result, an observation image at an arbitrary viewpoint is generated.

山尾、酒井、伊藤、青木、”動画像からの高精度・高密度な3次元点群の復元に関する検討”、情報処理学会研究報告、2013-CVIM-187(17),pp.1-8、2013.Yamao, Sakai, Ito, Aoki, "Study on restoration of high-precision and high-density 3D point cloud from moving images", IPSJ Research Report, 2013-CVIM-187 (17), pp.1-8, 2013. 矢口、木村、斎藤、金出、”未校正多視点カメラシステムを用いた任意視点画像生成”、情報処理学会論文誌コンピュータビジョンとイメージメディア(CVIM)Vol.42, No, SIG 6 (CVIM). pp.9-21, 2001.Yaguchi, Kimura, Saito, Kanade, "Arbitrary viewpoint image generation using uncalibrated multi-view camera system", IPSJ Journal of Computer Vision and Image Media (CVIM) Vol.42, No, SIG 6 (CVIM). pp.9-21, 2001.

各メッシュに貼り付けるテクスチャ画像を撮影画像(多視点画像)から抽出する際に適切な撮影画像が選択できない場合には、陰影や幾何的制約の影響により、テクスチャ画像における色、明るさ、及び空間解像度等の品質が不十分となる場合があった。そして、この場合、最終的に出力される任意視点からの画像も、実物に対する忠実度が低下する。 If an appropriate captured image cannot be selected when extracting the texture image to be pasted on each mesh from the captured image (multi-viewpoint image), the color, brightness, and space of the texture image may be affected by shading and geometric constraints. In some cases, quality such as resolution was insufficient. Then, in this case, the fidelity of the image from an arbitrary viewpoint that is finally output to the real thing also decreases.

本発明は、上記の点に鑑みてなされたものであり、三次元メッシュモデルに対して適切なテクスチャ画像を生成することができる画像処理装置、方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing device, a method, and a program capable of generating an appropriate texture image for a three-dimensional mesh model.

上記目的を達成するために、本発明に係る画像処理装置は、画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得する画像取得部と、前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記メッシュに対する前記複数の画像の各々の前記重み係数に応じた重み付けを行って前記テクスチャ画像を生成するテクスチャ画像生成部と、を含んで構成されている。 In order to achieve the above object, the image processing apparatus according to the present invention includes an image acquisition unit that acquires a plurality of images obtained by photographing a subject from a plurality of different viewpoints by the image capturing apparatus, and the subject using the plurality of images. A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the image is represented by a mesh, and the image capturing device and illumination at the time of photographing the mesh and the plurality of images for each mesh of the three-dimensional mesh model. The weight coefficient calculation unit that calculates the weight coefficient of each of the plurality of images according to the positional relationship and the orientation with at least one of the light sources, and the texture image corresponding to each mesh of the three-dimensional mesh model are the plurality of images. In the case of generating from, the mesh is configured to include a texture image generation unit that generates the texture image by weighting the mesh according to the weighting coefficient of each of the plurality of images.

本発明に係る画像処理方法は、画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得し、前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記メッシュに対する前記複数の画像の各々の前記重み係数に応じた重み付けを行って前記テクスチャ画像を生成する。 The image processing method according to the present invention is a three-dimensional mesh model in which a plurality of images obtained by photographing a subject from a plurality of different viewpoints are acquired by an image capturing apparatus, and the surface of the subject is represented by a mesh using the plurality of images. For each mesh of the three-dimensional mesh model, the plurality of images are generated according to the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. When each weight coefficient of the image is calculated and a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, the weight coefficient of each of the plurality of images with respect to the mesh is corresponding to the weight coefficient. Weighting is performed to generate the texture image.

また、本発明のプログラムは、コンピュータを、上記の画像処理装置の各部として機能させるためのプログラムである。 Further, the program of the present invention is a program for making a computer function as each part of the above-mentioned image processing apparatus.

以上説明したように、本発明の画像処理装置、方法、及びプログラムによれば、三次元メッシュモデルの各メッシュと画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じた重み係数を算出し、重み係数に応じた重み付けを行ってテクスチャ画像を生成することにより、三次元メッシュモデルに対して適切なテクスチャ画像を生成することができる、という効果が得られる。 As described above, according to the image processing apparatus, method, and program of the present invention, the weighting coefficient according to the positional relationship and orientation between each mesh of the three-dimensional mesh model and at least one of the image capturing apparatus and the illumination light source is determined. By calculating and weighting according to the weighting coefficient to generate a texture image, an effect that an appropriate texture image can be generated for the three-dimensional mesh model can be obtained.

実施の形態に係る画像処理システムのブロック図である。It is a block diagram of the image processing system which concerns on embodiment. 被写体を複数の異なる視点から撮影する手法の一例を示す図である。It is a figure which shows an example of the method of photographing a subject from a plurality of different viewpoints. 被写体を複数の異なる視点から撮影する手法の一例を示す図である。It is a figure which shows an example of the method of photographing a subject from a plurality of different viewpoints. 被写体を複数の異なる視点から撮影する手法の一例を示す図である。It is a figure which shows an example of the method of photographing a subject from a plurality of different viewpoints. 実施の形態に係る対応点の位置及び奥行きを算出する処理を説明するための図である。It is a figure for demonstrating the process of calculating the position and the depth of the corresponding point which concerns on embodiment. 実施の形態に係るメッシュを説明するための図である。It is a figure for demonstrating the mesh which concerns on embodiment. 実施の形態に係るメッシュ幾何情報を算出する処理を説明するための図である。It is a figure for demonstrating the process of calculating the mesh geometric information which concerns on embodiment. 実施の形態に係る重み係数を算出する処理の一例を説明するための図である。It is a figure for demonstrating an example of the process of calculating the weighting coefficient which concerns on embodiment. 実施の形態に係る重み係数を算出する処理の一例を説明するための図である。It is a figure for demonstrating an example of the process of calculating the weighting coefficient which concerns on embodiment. 実施の形態に係る出力画像を生成する処理を説明するための図である。It is a figure for demonstrating the process which generates the output image which concerns on embodiment. 実施の形態に係る画像処理装置の画像処理の処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of the image processing of the image processing apparatus which concerns on embodiment. 変形例に係る画像処理システムのブロック図である。It is a block diagram of the image processing system which concerns on the modification.

以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<画像処理システムの構成>
本実施の形態に係る画像処理システムの構成について説明する。図1に示すように、本実施の形態に係る画像処理システム10は、画像撮影装置の一例としての複数のカメラ201〜20Nと、画像処理装置30とを備えている。
<Configuration of image processing system>
The configuration of the image processing system according to the present embodiment will be described. As shown in FIG. 1, the image processing system 10 according to the present embodiment includes a plurality of cameras 201 to 20N as an example of an image capturing device, and an image processing device 30.

カメラ201〜20Nは、被写体を複数の異なる視点から撮影可能なように、三次元的(例えば、水平方向)に配置される。なお、Nは2以上の整数である。例えば、図2に示すように、3台のカメラが水平方向に並べられて配置される。 The cameras 201 to 20N are arranged three-dimensionally (for example, in the horizontal direction) so that the subject can be photographed from a plurality of different viewpoints. N is an integer of 2 or more. For example, as shown in FIG. 2, three cameras are arranged side by side in the horizontal direction.

なお、被写体を複数の異なる視点から撮影可能であれば、カメラは1台でもよい。例えば、図3に示すように、1台のカメラを固定し、被写体を一方向(図3の例では水平方向)に回転させながら、複数回被写体を撮影してもよい。また、例えば、図4に示すように、1台のカメラを一方向(図4の例では水平方向)に移動させて、複数の異なる位置で被写体を撮影してもよい。 If the subject can be photographed from a plurality of different viewpoints, one camera may be used. For example, as shown in FIG. 3, one camera may be fixed and the subject may be photographed a plurality of times while rotating the subject in one direction (horizontal direction in the example of FIG. 3). Further, for example, as shown in FIG. 4, one camera may be moved in one direction (horizontal direction in the example of FIG. 4) to shoot a subject at a plurality of different positions.

本実施の形態に係る画像処理装置30は、CPUと、RAMと、後述する各処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することができる。画像処理装置30は、機能的には図1に示すように、画像取得部31、撮影幾何情報記憶部32、立体形状推定部33、メッシュモデル生成部34、メッシュ幾何情報計算部35、重み係数算出部36、テクスチャ画像生成部37、出力画像生成部38、及び色再現処理部39を備えている。 The image processing device 30 according to the present embodiment can be configured by a computer including a CPU, a RAM, and a ROM that stores a program for executing each processing routine described later and various data. Functionally, as shown in FIG. 1, the image processing device 30 includes an image acquisition unit 31, a shooting geometric information storage unit 32, a three-dimensional shape estimation unit 33, a mesh model generation unit 34, a mesh geometric information calculation unit 35, and a weighting coefficient. It includes a calculation unit 36, a texture image generation unit 37, an output image generation unit 38, and a color reproduction processing unit 39.

画像取得部31は、照明光源からの照明光が照射されているときに立体形状の推定対象の被写体をカメラ201〜20Nにより撮影して得られた複数の撮影画像(以下、単に「撮影画像」という)を取得する。また、画像取得部31は、チェッカーパターン等の予め立体形状、及びテクスチャのパターンが既知の被写体をカメラ201〜20Nにより撮影して得られた複数の画像を取得する。詳細は後述するが、この予め撮影して得られた画像は撮影幾何情報の算出に用いられるため、以下では、「撮影幾何情報算出用画像」という。なお、立体形状の推定対象の被写体の一部の形状が既知である場合は、撮影画像が撮影幾何情報算出用画像を兼ねてもよい。 The image acquisition unit 31 captures a plurality of captured images (hereinafter, simply "captured images") obtained by photographing a subject whose three-dimensional shape is to be estimated by the cameras 201 to 20N while being irradiated with the illumination light from the illumination light source. To get). In addition, the image acquisition unit 31 acquires a plurality of images obtained by photographing a subject whose three-dimensional shape and texture pattern are known in advance, such as a checker pattern, with cameras 201 to 20N. Although the details will be described later, since the image obtained by taking a picture in advance is used for calculating the taking geometric information, it will be referred to as "an image for calculating taking geometric information" below. If the shape of a part of the subject whose three-dimensional shape is to be estimated is known, the captured image may also serve as an image for calculating the captured geometric information.

撮影幾何情報記憶部32は、画像取得部31により取得された撮影幾何情報算出用画像の各々に基づいて、カメラ201〜20Nと照明光源と被写体との位置関係、及びカメラ201〜20Nの光学パラメータ(画素数、画角度、及び焦点距離等)を算出する。撮影幾何情報算出用画像がチェッカーパターンを有する被写体を撮影した画像の場合、チェッカーパターンの各矩形の辺の長さが既知であるため、画像中の各矩形と既知の辺の長さとに基づいて、カメラ201〜20Nと被写体との位置関係が算出される。また、撮影幾何情報算出用画像が立体形状が既知の被写体を撮影した画像の場合、被写体の立体形状と、画像内の被写体の輝度値と、カメラ201〜20Nと被写体との位置関係とに基づいて、照明光源とカメラ201〜20Nとの位置関係が算出される。そして、撮影幾何情報記憶部32は、算出したカメラ201〜20Nと照明光源と被写体との位置関係、及びカメラ201〜20Nの光学パラメータを、算出に用いた撮影幾何情報算出用画像を撮影したカメラ201〜20Nにより撮影された撮影画像に対応付けて、撮影幾何情報データとしてメモリに出力する。なお、撮影幾何情報記憶部32は、撮影幾何情報データを、電子ファイルとして不揮発性の記憶部に出力してもよい。また、撮影幾何情報データを予め記憶部に記憶しておき、撮影画像の撮影時に読み出してもよい。 The shooting geometric information storage unit 32 is based on each of the images for calculating the shooting geometric information acquired by the image acquisition unit 31, the positional relationship between the cameras 201 to 20N, the illumination light source, and the subject, and the optical parameters of the cameras 201 to 20N. (Number of pixels, image angle, focal length, etc.) is calculated. When the image for calculating the shooting geometry information is an image of a subject having a checker pattern, the length of each rectangle of the checker pattern is known, so that it is based on each rectangle in the image and the length of the known side. , The positional relationship between the cameras 201 to 20N and the subject is calculated. Further, when the image for calculating the shooting geometric information is an image obtained by shooting a subject whose three-dimensional shape is known, it is based on the three-dimensional shape of the subject, the brightness value of the subject in the image, and the positional relationship between the cameras 201 to 20N and the subject. Therefore, the positional relationship between the illumination light source and the cameras 201 to 20N is calculated. Then, the photographing geometric information storage unit 32 captures the photographed geometric information calculation image using the calculated positional relationship between the cameras 201 to 20N, the illumination light source, and the subject, and the optical parameters of the cameras 2001 to 20N. It is output to the memory as shooting geometric information data in association with the shot image shot by 2001 to 20N. The photographing geometric information storage unit 32 may output the photographing geometric information data as an electronic file to the non-volatile storage unit. Further, the captured geometric information data may be stored in the storage unit in advance and read out when the captured image is captured.

立体形状推定部33は、図5に示すように、複数の撮影画像の各ペア間で対応点の追跡を行い、撮影幾何情報データを用いて、三角測量の原理によって被写体表面の点に関する位置及び奥行きを算出する。立体形状推定部33は、この位置及び奥行きを算出する処理を、検出された全ての対応点について行うことによって、三次元点群データを生成する。なお、本実施の形態では、立体形状推定部33は、画像間での対応点を検出する際に画像中の特徴量を算出するが、この特徴量の算出において、画像の振幅情報及び位相情報の少なくとも一方を使用する。 As shown in FIG. 5, the three-dimensional shape estimation unit 33 tracks the corresponding points between each pair of the plurality of captured images, and uses the captured geometric information data to determine the position of the point on the surface of the subject and the position on the surface of the subject according to the principle of triangulation. Calculate the depth. The three-dimensional shape estimation unit 33 generates three-dimensional point cloud data by performing the process of calculating the position and the depth for all the detected corresponding points. In the present embodiment, the three-dimensional shape estimation unit 33 calculates the feature amount in the image when detecting the corresponding point between the images. In the calculation of the feature amount, the amplitude information and the phase information of the image are calculated. Use at least one of.

図6に示すように、立体形状推定部33により生成された三次元点群データの中から3点を選択することで1つの面(三角形のメッシュ)を定義することができる。メッシュモデル生成部34は、被写体表面が正しく表現できるように、点の削除及び統合を行い、また最適な3点の組み合せを算出することによって、立体形状推定部33により生成された三次元点群データから、被写体表面をメッシュで表現した三次元メッシュモデルを生成する。 As shown in FIG. 6, one surface (triangular mesh) can be defined by selecting three points from the three-dimensional point cloud data generated by the three-dimensional shape estimation unit 33. The mesh model generation unit 34 deletes and integrates points so that the surface of the subject can be expressed correctly, and calculates the optimum combination of three points to generate a three-dimensional point cloud generated by the three-dimensional shape estimation unit 33. From the data, a three-dimensional mesh model that represents the surface of the subject with a mesh is generated.

図7に示すように、各メッシュを構成する3点が決まると、3点の位置及び奥行きに基づいて、そのメッシュの法線を算出することができる。メッシュ幾何情報計算部35は、メッシュの位置と法線の向きと撮影幾何情報データとを用いて、メッシュに対する各撮影画像を撮影した際のカメラ201〜20Nの位置及び姿勢を算出する。また、メッシュ幾何情報計算部35は、メッシュの位置と法線の向きと撮影幾何情報データとを用いて、メッシュと照明光源との位置関係及び照明光源からの照明光の入射角を算出する。なお、この入射角はメッシュの法線と照明光源からの照明光の光軸とがなす角である。また、以下では、メッシュ幾何情報計算部35が算出したメッシュに対する各撮影画像を撮影した際のカメラの位置及び姿勢と、メッシュと照明光源との位置関係及び照明光源からの照明光の入射角と、を「メッシュ幾何情報データ」という。 As shown in FIG. 7, once the three points constituting each mesh are determined, the normal of the mesh can be calculated based on the positions and depths of the three points. The mesh geometry information calculation unit 35 calculates the positions and orientations of the cameras 201 to 20N when each photographed image is photographed with respect to the mesh, using the position of the mesh, the direction of the normal line, and the photographed geometry information data. Further, the mesh geometric information calculation unit 35 calculates the positional relationship between the mesh and the illumination light source and the incident angle of the illumination light from the illumination light source by using the position of the mesh, the direction of the normal line, and the photographing geometric information data. The angle of incidence is the angle formed by the normal of the mesh and the optical axis of the illumination light from the illumination light source. Further, in the following, the position and orientation of the camera when each captured image is taken with respect to the mesh calculated by the mesh geometric information calculation unit 35, the positional relationship between the mesh and the illumination light source, and the incident angle of the illumination light from the illumination light source. , Is called "mesh geometric information data".

重み係数算出部36は、三次元メッシュモデルの各メッシュに対し、当該メッシュのメッシュ幾何情報データに基づいて、当該メッシュに対応する画像情報が含まれる撮影画像の各々の重み係数を算出する。 The weight coefficient calculation unit 36 calculates the weight coefficient of each of the captured images including the image information corresponding to the mesh based on the mesh geometric information data of the mesh for each mesh of the three-dimensional mesh model.

図8に示すように、メッシュの法線方向とカメラの光軸(視線方向)とが一致する撮影画像においては、メッシュ領域(テクスチャとして使用される領域)における空間解像度が最大となる。そこで、重み係数算出部36は、テクスチャの解像度を最優先とする場合には、メッシュの法線方向とカメラの光軸とが一致する撮影画像の重み係数を1とし、一致しない撮影画像の重み係数を0とする。なお、重み係数算出部36は、メッシュの法線方向とカメラの光軸とが一致する撮影画像が無い場合は、メッシュの法線方向とカメラの光軸とが最も近い撮影画像の重み係数を1とし、それ以外の撮影画像の重み係数を0としてもよい。また、例えば、重み係数算出部36は、メッシュの法線方向とカメラの光軸とのなす角が所定の範囲内の撮影画像の重み係数を1とし、メッシュの法線方向とカメラの光軸とのなす角が所定の範囲外の撮影画像の重み係数を0としてもよい。また、重み係数算出部36は、メッシュの法線方向とカメラの光軸とのなす角が小さいほど大きい値を重み係数として算出してもよい。この場合の重み係数としては、例えば、メッシュの法線方向とカメラの光軸とのなす角のコサイン値が挙げられる。 As shown in FIG. 8, in the captured image in which the normal direction of the mesh and the optical axis (line-of-sight direction) of the camera coincide with each other, the spatial resolution in the mesh region (region used as the texture) is maximized. Therefore, when the weight resolution of the texture is given the highest priority, the weighting coefficient calculation unit 36 sets the weighting coefficient of the captured image in which the normal direction of the mesh and the optical axis of the camera match to 1, and the weight of the captured image that does not match. Let the coefficient be 0. If there is no captured image in which the normal direction of the mesh and the optical axis of the camera match, the weighting coefficient calculation unit 36 calculates the weighting coefficient of the captured image in which the normal direction of the mesh and the optical axis of the camera are closest to each other. It may be set to 1 and the weighting coefficient of the other captured images may be set to 0. Further, for example, the weighting coefficient calculation unit 36 sets the weighting coefficient of the captured image in which the angle formed by the normal direction of the mesh and the optical axis of the camera is within a predetermined range to 1, and sets the normal direction of the mesh and the optical axis of the camera to 1. The weighting coefficient of the captured image whose angle formed with and is outside the predetermined range may be set to 0. Further, the weighting coefficient calculation unit 36 may calculate a larger value as the weighting coefficient as the angle formed by the normal direction of the mesh and the optical axis of the camera is smaller. Examples of the weighting coefficient in this case include the cosine value of the angle formed by the normal direction of the mesh and the optical axis of the camera.

また、メッシュにおける照明光源からの照明光の正反射方向とカメラの光軸とが一致する場合、もしくは比較的近い場合には、メッシュに対応する撮影画像中の領域に照明光の正反射が含まれる可能性が高い。そこで、重み係数算出部36は、テクスチャの色情報を最優先とする場合には、照明光の正反射の影響を除去するために、照明光の正反射方向とカメラの光軸とのなす角が所定の範囲内である撮影画像の重み係数を0とし、照明光の正反射方向とカメラの光軸とのなす角が所定の範囲外である撮影画像の重み係数を1とする。なお、重み係数算出部36は、照明光の正反射方向とカメラの光軸とのなす角が大きいほど大きい値を重み係数として算出してもよい。この場合の重み係数としては、例えば、メッシュの法線方向とカメラの光軸とのなす角のサイン値が挙げられる。また、図9に示すように、照明光の入射角の影響を抑制するために、照明光の入射角のコサイン値を撮影画像の重み係数としてもよい。この場合の重み係数は0以上1以下の値となる。なお、照明光の入射角が小さいほど大きい値であれば、重み係数は照明光の入射角のコサイン値に限定されず、例えば、照明光の入射角のコサイン値のn乗(指数乗)を重み係数としてもよい。また、オイラーの公式に基づき、コサイン関数の代わりに、複素指数(exp(ai)=cos a+i sin a)の指数乗を重み係数として用いてもよい。 In addition, when the specular reflection direction of the illumination light from the illumination light source in the mesh and the optical axis of the camera coincide with or are relatively close to each other, the region in the captured image corresponding to the mesh includes the specular reflection of the illumination light. There is a high possibility that it will be. Therefore, when the weight coefficient calculation unit 36 gives the highest priority to the color information of the texture, the angle formed by the specular reflection direction of the illumination light and the optical axis of the camera in order to remove the influence of the specular reflection of the illumination light. The weighting coefficient of the captured image in which is within the predetermined range is set to 0, and the weighting coefficient of the captured image in which the angle formed by the specular reflection direction of the illumination light and the optical axis of the camera is outside the predetermined range is set to 1. The weighting coefficient calculation unit 36 may calculate a larger value as the weighting coefficient as the angle formed by the specular reflection direction of the illumination light and the optical axis of the camera increases. Examples of the weighting coefficient in this case include a sine value of an angle formed by the normal direction of the mesh and the optical axis of the camera. Further, as shown in FIG. 9, in order to suppress the influence of the incident angle of the illumination light, the cosine value of the incident angle of the illumination light may be used as a weighting coefficient of the captured image. In this case, the weighting coefficient is a value of 0 or more and 1 or less. If the incident angle of the illumination light is smaller, the larger the value, the weighting coefficient is not limited to the cosine value of the incident angle of the illumination light. For example, the nth power (exponential power) of the cosine value of the incident angle of the illumination light is used. It may be a weighting coefficient. Further, based on Euler's formula, the exponential power of the complex exponential (exp (ai) = cos a + i sin a) may be used as the weighting coefficient instead of the cosine function.

また、重み係数算出部36は、空間解像度と色情報とのバランスを取る場合には、前述した3つの手法を組み合わせて撮影画像の重み係数を算出してもよい。例えば、重み係数算出部36は、メッシュの法線方向とカメラの光軸とのなす角が所定の範囲内の撮影画像の重み係数を1とし、この重み係数に、照明光の入射角から算出される重み係数を乗算して得られた結果を、撮影画像の最終的な重み係数としてもよい。また、例えば、3つの手法のそれぞれで算出された重み係数を乗算して得られた結果を、撮影画像の最終的な重み係数としてもよい。 Further, the weighting coefficient calculation unit 36 may calculate the weighting coefficient of the captured image by combining the above-mentioned three methods when balancing the spatial resolution and the color information. For example, the weighting coefficient calculation unit 36 sets the weighting coefficient of the captured image in which the angle formed by the normal direction of the mesh and the optical axis of the camera is within a predetermined range to 1, and calculates this weighting coefficient from the incident angle of the illumination light. The result obtained by multiplying the weighting coefficients to be obtained may be used as the final weighting coefficient of the captured image. Further, for example, the result obtained by multiplying the weighting coefficients calculated by each of the three methods may be used as the final weighting coefficient of the captured image.

なお、1枚の撮影画像には複数のメッシュに対応する領域が含まれている場合が多いため、1枚の撮影画像には、複数のメッシュのそれぞれに関する重み係数がメッシュに対応付けられる形式となる。 In many cases, one shot image contains an area corresponding to a plurality of meshes, so that one shot image has a format in which weighting coefficients for each of the plurality of meshes are associated with the meshes. Become.

また、空間解像度と色情報との何れを優先するか、又は空間解像度と色情報とのバランスを取るかは、例えば、ユーザにより指定することができる。 Further, for example, the user can specify which of the spatial resolution and the color information is prioritized, or whether the spatial resolution and the color information are balanced.

テクスチャ画像生成部37は、撮影画像から各メッシュに対応する領域の画像を抽出し、各メッシュに対応するテクスチャ画像を生成する。この際、テクスチャ画像生成部37は、各メッシュに対し、各撮影画像から抽出した画像に、各撮影画像の当該メッシュに対応付けられた重み係数を乗算し、乗算した結果を加算することによって、当該メッシュに対応するテクスチャ画像を生成する。なお、テクスチャ画像生成部37は、重み係数が0の撮影画像は予め処理の対象外としてもよい。 The texture image generation unit 37 extracts an image of a region corresponding to each mesh from the captured image, and generates a texture image corresponding to each mesh. At this time, the texture image generation unit 37 multiplies the image extracted from each captured image by the weighting coefficient associated with the mesh of each captured image for each mesh, and adds the result of the multiplication. A texture image corresponding to the mesh is generated. The texture image generation unit 37 may exclude the captured image having a weighting coefficient of 0 from the processing in advance.

出力画像生成部38は、図10に示すように、ユーザ等により指定された位置の視点から被写体を見た画像であって、例えば表示装置等の画像出力装置に出力するための画像(以下、「出力画像」という)を生成する。具体的には、出力画像生成部38は、三次元メッシュモデル及びメッシュ幾何情報データに基づいて、テクスチャ画像生成部37により生成されたテクスチャ画像を三次元メッシュモデルの各メッシュに貼り付ける。また、出力画像生成部38は、指定された視点、照明光源の位置及び方向と、三次元メッシュモデル及びメッシュ幾何情報データとに基づいて、各メッシュと視点との位置関係、及び各メッシュに対する照明光の入射角を算出する。そして、出力画像生成部38は、指定された視点からは観察できないメッシュを除去する陰面処理を行った後に、光線追跡処理並びに陰影処理を行うことによって、指定された視点から観察された被写体を表す画像に相当する出力画像を生成する。なお、撮影画像がマルチバンド画像の場合は、出力画像生成部38が生成する出力画像もマルチバンド画像でもよい。 As shown in FIG. 10, the output image generation unit 38 is an image of the subject viewed from a viewpoint at a position designated by the user or the like, and is an image for output to an image output device such as a display device (hereinafter referred to as an image). Generate an "output image"). Specifically, the output image generation unit 38 attaches the texture image generated by the texture image generation unit 37 to each mesh of the three-dimensional mesh model based on the three-dimensional mesh model and the mesh geometric information data. Further, the output image generation unit 38 determines the positional relationship between each mesh and the viewpoint, and the illumination for each mesh, based on the designated viewpoint, the position and direction of the illumination light source, the three-dimensional mesh model, and the mesh geometric information data. Calculate the incident angle of light. Then, the output image generation unit 38 represents the subject observed from the designated viewpoint by performing the light ray tracing process and the shadow processing after performing the shadow surface processing for removing the mesh that cannot be observed from the designated viewpoint. Generates an output image that corresponds to the image. When the captured image is a multi-band image, the output image generated by the output image generation unit 38 may also be a multi-band image.

色再現処理部39は、入力された色再現パラメータに基づき、出力画像生成部38により出力された出力画像の各画素に対応する色を算出し、算出した各画素の色を画像出力装置に出力する。なお、色再現パラメータの例としては、カメラ201〜20Nのカメラ感度等の光学特性、画像撮影時の照明光に関する分光情報、再現したい環境での照明光に関する分光情報、及び画像出力装置の特性データ等が挙げられる。 The color reproduction processing unit 39 calculates the color corresponding to each pixel of the output image output by the output image generation unit 38 based on the input color reproduction parameter, and outputs the calculated color of each pixel to the image output device. To do. Examples of color reproduction parameters include optical characteristics such as camera sensitivity of cameras 201 to 20N, spectral information on illumination light at the time of image capture, spectral information on illumination light in the environment to be reproduced, and characteristic data of an image output device. And so on.

例えば、画像取得部31により取得された撮影画像がカラー画像である場合、すなわち、出力画像生成部38により出力された出力画像がカラー画像である場合、色再現処理部39は、画像出力装置の特性に合わせた画像補正処理(色変換及びガンマ補正等)を行う。 For example, when the captured image acquired by the image acquisition unit 31 is a color image, that is, when the output image output by the output image generation unit 38 is a color image, the color reproduction processing unit 39 of the image output device Performs image correction processing (color conversion, gamma correction, etc.) according to the characteristics.

また、出力画像生成部38により出力された出力画像がマルチバンド画像である場合、色再現処理部39は、色再現パラメータを用いて、分光反射率の推定、反射光スペクトルの算出、カラー画像(RGB画像及びLab画像等)への変換、及び画像出力装置の特性に合わせた補正処理を順次行う。なお、この場合、色再現処理部39は、分光反射率の推定及び反射光スペクトルの算出を行わずに、直接、マルチバンド画像からカラー画像を算出してもよい。また、色再現処理部39による色再現処理は、テクスチャ画像生成部37によるテクスチャ画像の生成時に行ってもよいし、出力画像生成部38が出力画像を生成する際に用いるテクスチャ画像に対して行ってもよい。 When the output image output by the output image generation unit 38 is a multi-band image, the color reproduction processing unit 39 uses the color reproduction parameters to estimate the spectral reflectance, calculate the reflected light spectrum, and obtain a color image ( Conversion to RGB images, Lab images, etc.) and correction processing according to the characteristics of the image output device are performed in sequence. In this case, the color reproduction processing unit 39 may directly calculate the color image from the multi-band image without estimating the spectral reflectance and calculating the reflected light spectrum. Further, the color reproduction processing by the color reproduction processing unit 39 may be performed at the time of generating the texture image by the texture image generation unit 37, or may be performed on the texture image used by the output image generation unit 38 when generating the output image. You may.

<画像処理システムの作用>
次に、本実施の形態に係る画像処理システム10の作用について説明する。複数のカメラ201〜20Nが立体形状の推定対象の被写体を撮影して得られた複数の撮影画像が画像処理装置30に入力されると、画像処理装置30によって図11に示す画像処理ルーチンが実行される。なお、ここでは、撮影幾何情報算出用画像は予め撮影され、カメラ201〜20Nの各々に記憶されている場合について説明する。
<Operation of image processing system>
Next, the operation of the image processing system 10 according to the present embodiment will be described. When a plurality of captured images obtained by photographing a subject whose three-dimensional shape is to be estimated by a plurality of cameras 2001 to 20N are input to the image processing device 30, the image processing device 30 executes the image processing routine shown in FIG. Will be done. Here, a case where the image for calculating the shooting geometric information is shot in advance and stored in each of the cameras 201 to 20N will be described.

ステップS10では、画像取得部31は、カメラ201〜20Nにより撮影して得られた複数の撮影画像、及び複数の撮影幾何情報算出用画像をカメラ201〜20Nから取得する。次に、ステップS12では、撮影幾何情報記憶部32は、前述したように、ステップS10で取得された撮影幾何情報算出用画像の各々に基づいて、カメラ201〜20Nと照明光源と被写体との位置関係、及びカメラ201〜20Nの光学パラメータを算出する。そして、撮影幾何情報記憶部32は、算出したカメラ201〜20Nと照明光源と被写体との位置関係、及びカメラ201〜20Nの光学パラメータを、算出に用いた撮影幾何情報算出用画像を撮影したカメラ201〜20Nにより撮影された撮影画像に対応付けて、撮影幾何情報データとしてメモリに出力する。 In step S10, the image acquisition unit 31 acquires a plurality of captured images obtained by photographing with the cameras 201 to 20N and a plurality of captured geometric information calculation images from the cameras 201 to 20N. Next, in step S12, as described above, the shooting geometric information storage unit 32 positions the cameras 201 to 20N, the illumination light source, and the subject based on each of the shooting geometric information calculation images acquired in step S10. The relationship and the optical parameters of the cameras 201-20N are calculated. Then, the photographing geometric information storage unit 32 captures the photographed geometric information calculation image using the calculated positional relationship between the cameras 201 to 20N, the illumination light source, and the subject, and the optical parameters of the cameras 2001 to 20N. It is output to the memory as shooting geometric information data in association with the shot image shot by 2001 to 20N.

次に、ステップS14では、立体形状推定部33は、ステップS10で取得された複数の撮影画像の各ペア間で対応点の追跡を行い、各ペアの撮影画像に対応する撮影幾何情報データを用いて、三角測量の原理によって被写体表面の点に関する位置及び奥行きを算出する。立体形状推定部33は、この位置及び奥行きを算出する処理を、検出された全ての対応点について行うことによって、三次元点群データを生成する。 Next, in step S14, the three-dimensional shape estimation unit 33 tracks the corresponding points between each pair of the plurality of captured images acquired in step S10, and uses the captured geometric information data corresponding to the captured images of each pair. Then, the position and depth of the point on the surface of the subject are calculated by the principle of triangulation. The three-dimensional shape estimation unit 33 generates three-dimensional point cloud data by performing the process of calculating the position and the depth for all the detected corresponding points.

次に、ステップS16では、メッシュモデル生成部34は、被写体表面が正しく表現できるように、点の削除及び統合を行い、また最適な3点の組み合せを算出することによって、ステップS14で生成された三次元点群データから、被写体表面をメッシュで表現した三次元メッシュモデルを生成する。 Next, in step S16, the mesh model generation unit 34 was generated in step S14 by deleting and integrating the points and calculating the optimum combination of the three points so that the surface of the subject can be expressed correctly. From the 3D point cloud data, a 3D mesh model that represents the surface of the subject with a mesh is generated.

次に、ステップS18では、メッシュ幾何情報計算部35は、ステップS16で生成された三次元メッシュモデルの各メッシュについて、メッシュの位置と法線の向きとステップS12で算出された撮影幾何情報データとを用いて、メッシュ幾何情報データを算出する。次に、ステップS20では、重み係数算出部36は、前述したように、ステップS16で生成された三次元メッシュモデルの各メッシュに対し、ステップS18で算出された当該メッシュのメッシュ幾何情報データに基づいて、当該メッシュに対応する画像情報が含まれる撮影画像の各々の重み係数を算出する。 Next, in step S18, the mesh geometric information calculation unit 35 sets the mesh position, the direction of the normal, and the photographed geometric information data calculated in step S12 for each mesh of the three-dimensional mesh model generated in step S16. Is used to calculate the mesh geometric information data. Next, in step S20, as described above, the weighting coefficient calculation unit 36 is based on the mesh geometric information data of the mesh calculated in step S18 for each mesh of the three-dimensional mesh model generated in step S16. Then, the weighting coefficient of each of the captured images including the image information corresponding to the mesh is calculated.

次に、ステップS22では、テクスチャ画像生成部37は、撮影画像から各メッシュに対応する領域の画像を抽出し、各メッシュに対応するテクスチャ画像を生成する。この際、テクスチャ画像生成部37は、各メッシュに対し、各撮影画像から抽出した画像に、各撮影画像の当該メッシュに対応付けられた重み係数を乗算し、乗算した結果を加算することによって、当該メッシュに対応するテクスチャ画像を生成する。 Next, in step S22, the texture image generation unit 37 extracts an image of a region corresponding to each mesh from the captured image, and generates a texture image corresponding to each mesh. At this time, the texture image generation unit 37 multiplies the image extracted from each captured image by the weighting coefficient associated with the mesh of each captured image for each mesh, and adds the result of the multiplication. A texture image corresponding to the mesh is generated.

次に、ステップS24では、出力画像生成部38は、三次元メッシュモデル及びメッシュ幾何情報データに基づいて、ステップS22で生成されたテクスチャ画像を三次元メッシュモデルの各メッシュに貼り付ける。また、出力画像生成部38は、指定された視点、照明光源の位置及び方向と、三次元メッシュモデル及びメッシュ幾何情報データとに基づいて、各メッシュと視点との位置関係、及び各メッシュに対する照明光の入射角を算出する。そして、出力画像生成部38は、指定された視点からは観察できないメッシュを除去する陰面処理を行った後に、光線追跡処理並びに陰影処理を行うことによって、指定された視点から観察された被写体を表す画像に相当する出力画像を生成する。 Next, in step S24, the output image generation unit 38 attaches the texture image generated in step S22 to each mesh of the three-dimensional mesh model based on the three-dimensional mesh model and the mesh geometric information data. Further, the output image generation unit 38 determines the positional relationship between each mesh and the viewpoint, and the illumination for each mesh, based on the designated viewpoint, the position and direction of the illumination light source, the three-dimensional mesh model, and the mesh geometric information data. Calculate the incident angle of light. Then, the output image generation unit 38 represents the subject observed from the designated viewpoint by performing the light ray tracing process and the shadow processing after performing the shadow surface processing for removing the mesh that cannot be observed from the designated viewpoint. Generates an output image that corresponds to the image.

次に、ステップS26では、色再現処理部39は、前述したように、入力された色再現パラメータに基づき、出力画像生成部38により出力された出力画像の各画素に対応する色を算出し、算出した各画素の色を画像出力装置に出力する。ステップS26の処理が終了すると、画像処理ルーチンが終了する。 Next, in step S26, as described above, the color reproduction processing unit 39 calculates the color corresponding to each pixel of the output image output by the output image generation unit 38 based on the input color reproduction parameter. The calculated color of each pixel is output to the image output device. When the processing of step S26 is completed, the image processing routine ends.

以上説明したように、本実施の形態に係る画像処理装置によれば、三次元メッシュモデルの各メッシュと画像撮影装置及び照明光源との位置関係及び姿勢に応じた重み係数を算出し、重み係数に応じた重み付けを行ってテクスチャ画像を生成することにより、三次元メッシュモデルに対して適切なテクスチャ画像を生成することができる。 As described above, according to the image processing apparatus according to the present embodiment, a weighting coefficient is calculated according to the positional relationship and orientation between each mesh of the three-dimensional mesh model and the image capturing apparatus and the illumination light source, and the weighting coefficient is calculated. By generating a texture image by weighting according to the above, it is possible to generate an appropriate texture image for the three-dimensional mesh model.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、上記実施の形態では、画像処理装置30の各機能部を、プログラムを実行することによって実現する場合を例に説明したが、これに限定されない。例えば、画像処理装置30の各機能部を、FPGA(Field-Programmable Gate Array)等のハードウェアで実現してもよいし、ハードウェアとソフトウェアとの組み合わせで実現してもよい。 For example, in the above embodiment, the case where each functional unit of the image processing device 30 is realized by executing a program has been described as an example, but the present invention is not limited to this. For example, each functional unit of the image processing device 30 may be realized by hardware such as FPGA (Field-Programmable Gate Array), or may be realized by a combination of hardware and software.

また、上記実施の形態において、重み係数算出部36は、メッシュの法線方向と画像の撮影時のカメラの光軸とがなす角と、メッシュの法線方向と出力画像生成部38が出力画像を生成する際に使用する指定された視点からの視線方向とがなす角と、の差に応じて重み係数を算出してもよい(変形例1)。この場合、この差が小さい撮影画像であるほど、大きい重み係数を算出する形態が例示される。 Further, in the above embodiment, the weight coefficient calculation unit 36 has the angle formed by the normal direction of the mesh and the optical axis of the camera at the time of taking an image, the normal direction of the mesh, and the output image generation unit 38 outputs an image. The weighting coefficient may be calculated according to the difference between the angle formed by the line-of-sight direction from the designated viewpoint used in generating the image (modification example 1). In this case, the smaller the difference is, the larger the weighting coefficient is calculated.

また、上記実施の形態において、重み係数算出部36は、メッシュにおける画像の撮影時の照明光の正反射方向とカメラの光軸とのなす角と、メッシュにおける出力画像生成部38が出力画像を生成する際に使用する指定された照明光源からの照明光の正反射方向と指定された視点からの視線方向とのなす角と、の差に応じて重み係数を算出してもよい(変形例2)。この場合、この差が小さい撮影画像であるほど、大きい重み係数を算出する形態が例示される。 Further, in the above embodiment, the weight coefficient calculation unit 36 calculates the angle formed by the specular reflection direction of the illumination light at the time of shooting the image on the mesh and the optical axis of the camera, and the output image generation unit 38 on the mesh outputs the output image. The weighting coefficient may be calculated according to the difference between the specular reflection direction of the illumination light from the specified illumination light source used at the time of generation and the line-of-sight direction from the specified viewpoint (modification example). 2). In this case, the smaller the difference is, the larger the weighting coefficient is calculated.

また、上記実施の形態において、重み係数算出部36は、メッシュの法線方向に対する画像の撮影時の照明光の入射角と、メッシュの法線方向に対する出力画像生成部38が出力画像を生成する際に使用する指定された照明光源からの照明光の入射角と、差に応じて重み係数を算出してもよい(変形例3)。この場合、この差が小さい撮影画像であるほど、大きい重み係数を算出する形態が例示される。 Further, in the above embodiment, the weight coefficient calculation unit 36 generates an output image by the incident angle of the illumination light at the time of taking an image with respect to the normal direction of the mesh and the output image generation unit 38 with respect to the normal direction of the mesh. The weighting coefficient may be calculated according to the incident angle of the illumination light from the designated illumination light source used in the case and the difference (modification example 3). In this case, the smaller the difference is, the larger the weighting coefficient is calculated.

これらの3つの変形例では、複数の異なる視点で撮影された画像に対し、指定された視点及び光源に応じて生成される出力画像(すなわち、再現したい画像)により近い状況で撮影されて得られた画像の重み係数が大きくなるため、三次元メッシュモデルに対して適切なテクスチャ画像を生成することができる。また、これらの3つの変形例では、図12に示すように、重み係数算出部36に対して、指定された視点及び照明光源の位置や姿勢等の再現環境幾何情報データが入力される。また、これらの3つの変形例の重み係数の算出手法と上記実施の形態で説明した3つの重み係数の算出手法との2つ以上を組み合わせて撮影画像の重み係数を算出してもよい。この場合、組み合わせの算出手法の各々により算出された重み係数を乗算して得られた結果を、撮影画像の最終的な重み係数とする形態が例示される。 In these three variants, images taken from a plurality of different viewpoints are obtained by being taken in a situation closer to the output image (that is, the image to be reproduced) generated according to the specified viewpoint and light source. Since the weighting coefficient of the image is large, it is possible to generate an appropriate texture image for the three-dimensional mesh model. Further, in these three modified examples, as shown in FIG. 12, the reproduction environment geometric information data such as the position and orientation of the designated viewpoint and the illumination light source is input to the weighting coefficient calculation unit 36. Further, the weighting coefficient of the captured image may be calculated by combining two or more of the weighting coefficient calculation method of these three modified examples and the three weighting coefficient calculation method described in the above embodiment. In this case, a form is exemplified in which the result obtained by multiplying the weighting coefficient calculated by each of the combination calculation methods is used as the final weighting coefficient of the captured image.

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能であるし、ネットワークを介して提供することも可能である。 Further, in the specification of the present application, the program has been described as an embodiment in which the program is pre-installed, but the program can be stored in a computer-readable recording medium and provided, or provided via a network. It is also possible to do.

10 画像処理システム
201〜20N カメラ
30 画像処理装置
31 画像取得部
32 撮影幾何情報記憶部
33 立体形状推定部
34 メッシュモデル生成部
35 メッシュ幾何情報計算部
36 重み係数算出部
37 テクスチャ画像生成部
38 出力画像生成部
39 色再現処理部
10 Image processing system 201-20N Camera 30 Image processing device 31 Image acquisition unit 32 Imaging geometric information storage unit 33 Three-dimensional shape estimation unit 34 Mesh model generation unit 35 Mesh geometric information calculation unit 36 Weight coefficient calculation unit 37 Texture image generation unit 38 Output Image generation unit 39 Color reproduction processing unit

Claims (13)

画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得する画像取得部と、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、前記メッシュにおける前記画像の撮影時の前記照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて前記重み係数を算出する画像処理装置。
An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weight coefficient calculation unit determines the weight according to the angle formed by the specular reflection direction of the illumination light from the illumination light source at the time of photographing the image on the mesh and the optical axis of the image capturing apparatus at the time of photographing the image. An image processing device that calculates a coefficient.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得する画像取得部と、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、前記メッシュの法線方向に対する前記画像の撮影時の前記照明光源からの照明光の入射角に応じて前記重み係数を算出する画像処理装置。
An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weighting coefficient calculation unit is an image processing device that calculates the weighting coefficient according to the incident angle of the illumination light from the illumination light source at the time of shooting the image with respect to the normal direction of the mesh.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得する画像取得部と、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記重み係数算出部は、指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点との位置関係及び姿勢を用いて、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュの法線方向と前記指定された視点からの視線方向とのなす角と、の差に応じて前記重み係数を算出する画像処理装置。
An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The weight coefficient calculation unit uses the positional relationship and orientation between the mesh and the designated viewpoint used when generating an image viewed from the designated viewpoint, and uses the normal direction of the mesh and the image. The weighting coefficient is calculated according to the difference between the angle formed by the optical axis of the image capturing apparatus at the time of photographing and the angle formed by the normal direction of the mesh and the line-of-sight direction from the designated viewpoint. Image processing device.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得する画像取得部と、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点及び前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュにおける前記画像の撮影時の照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュにおける前記指定された照明光源からの照明光の正反射方向と前記指定された視点からの視線方向とのなす角と、の差に応じて前記重み係数を算出する画像処理装置。
An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weight coefficient calculation unit includes the mesh, the designated viewpoint, and the designated viewpoint used when generating an image viewed from a designated viewpoint when the illumination light is irradiated from the designated illumination light source. Using the positional relationship and orientation with the illumination light source, the angle formed by the normal reflection direction of the illumination light from the illumination light source at the time of photographing the image in the mesh and the optical axis of the image capturing apparatus at the time of photographing the image. An image processing device that calculates the weighting coefficient according to the difference between the normal reflection direction of the illumination light from the designated illumination light source in the mesh and the line-of-sight direction from the designated viewpoint.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得する画像取得部と、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュの法線方向に対する前記画像の撮影時の照明光源からの照明光の入射角と、前記メッシュの法線方向に対する前記指定された照明光源からの照明光の入射角と、の差に応じて前記重み係数を算出する画像処理装置。
An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weight coefficient calculation unit has a positional relationship between the mesh and the designated illumination light source, which is used when generating an image viewed from a designated viewpoint when the illumination light is irradiated from the designated illumination light source. And the orientation, the incident angle of the illumination light from the illumination light source at the time of taking the image with respect to the normal direction of the mesh and the incident angle of the illumination light from the designated illumination light source with respect to the normal direction of the mesh. An image processing device that calculates the weighting coefficient according to the difference between.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得する画像取得部と、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて第1の重み係数を算出し、前記メッシュにおける前記画像の撮影時の前記照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて第2の重み係数を算出し、前記メッシュの法線方向に対する前記画像の撮影時の前記照明光源からの照明光の入射角に応じて第3の重み係数を算出し、指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点との位置関係及び姿勢を用いて、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュの法線方向と前記指定された視点からの視線方向とのなす角と、の差に応じて第4の重み係数を算出し、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点及び前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュにおける前記画像の撮影時の照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュにおける前記指定された照明光源からの照明光の正反射方向と前記指定された視点からの視線方向とのなす角と、の差に応じて第5の重み係数を算出し、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュの法線方向に対する前記画像の撮影時の照明光源からの照明光の入射角と、前記メッシュの法線方向に対する前記指定された照明光源からの照明光の入射角と、の差に応じて第6の重み係数を算出したうえで、前記第1から前記第6までの重み係数のうちの2つ以上に基づいて、前記メッシュに対する前記画像の最終的な重み係数を算出する画像処理装置。
An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weight coefficient calculation unit calculates a first weight coefficient according to an angle formed by the normal direction of the mesh and the optical axis of the image capturing apparatus at the time of capturing the image, and captures the image on the mesh. A second weighting coefficient is calculated according to the angle formed by the normal reflection direction of the illumination light from the illumination light source at the time and the optical axis of the image capturing apparatus at the time of photographing the image, and the second weighting coefficient is calculated with respect to the normal direction of the mesh. The mesh and the designation used when generating an image viewed from a designated viewpoint by calculating a third weighting coefficient according to the incident angle of the illumination light from the illumination light source at the time of taking the image. Using the positional relationship and orientation with the viewpoint, the angle formed by the normal direction of the mesh and the optical axis of the image capturing device at the time of shooting the image, the normal direction of the mesh, and the designated viewpoint. When the fourth weighting coefficient is calculated according to the difference between the angle formed by the line-of-sight direction and the image viewed from the specified viewpoint when the illumination light is emitted from the specified illumination light source. Using the positional relationship and orientation of the mesh, the designated viewpoint, and the designated illumination light source, the direction of normal reflection of the illumination light from the illumination light source at the time of taking the image on the mesh and the said. The angle formed by the optical axis of the image capturing apparatus at the time of taking an image, the angle formed by the normal reflection direction of the illumination light from the designated illumination light source in the mesh, and the line-of-sight direction from the designated viewpoint. A fifth weighting coefficient is calculated according to the difference between, and the mesh and the designation used when generating an image viewed from a designated viewpoint when the illumination light is irradiated from the designated illumination light source. Using the positional relationship and orientation with the illuminated light source, the incident angle of the illumination light from the illumination light source at the time of taking the image with respect to the normal direction of the mesh and the specified illumination with respect to the normal direction of the mesh. After calculating the sixth weighting coefficient according to the difference between the incident angle of the illumination light from the light source, the mesh is based on two or more of the first to sixth weighting coefficients. An image processing device that calculates the final weighting coefficient of the image.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得し、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、前記メッシュにおける前記画像の撮影時の前記照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて前記重み係数を算出する画像処理方法。
Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
In calculating the weighting coefficient, the angle formed by the normal reflection direction of the illumination light from the illumination light source at the time of photographing the image on the mesh and the optical axis of the image capturing apparatus at the time of photographing the image An image processing method for calculating the weighting coefficient.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得し、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、前記メッシュの法線方向に対する前記画像の撮影時の前記照明光源からの照明光の入射角に応じて前記重み係数を算出する画像処理方法。
Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weighting coefficient of each of the plurality of images to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The calculation of the weighting coefficient is an image processing method for calculating the weighting coefficient according to the incident angle of the illumination light from the illumination light source at the time of shooting the image with respect to the normal direction of the mesh.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得し、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記重み係数を算出することでは、指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点との位置関係及び姿勢を用いて、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュの法線方向と前記指定された視点からの視線方向とのなす角と、の差に応じて前記重み係数を算出する画像処理方法。
Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
In calculating the weighting coefficient, the normal direction of the mesh and the normal direction of the mesh are used by using the positional relationship and orientation between the mesh and the designated viewpoint used when generating an image viewed from the specified viewpoint. The weighting coefficient is determined according to the difference between the angle formed by the optical axis of the image capturing device at the time of capturing the image and the angle formed by the normal direction of the mesh and the line-of-sight direction from the designated viewpoint. Image processing method to calculate.
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得し、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点及び前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュにおける前記画像の撮影時の照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュにおける前記指定された照明光源からの照明光の正反射方向と前記指定された視点からの視線方向とのなす角と、の差に応じて前記重み係数を算出する画像処理方法。
Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
In calculating the weighting coefficient, the mesh, the designated viewpoint, and the designation used when generating an image viewed from a designated viewpoint when the illumination light is irradiated from the designated illumination light source. Using the positional relationship and orientation with the illuminated light source, the normal reflection direction of the illumination light from the illumination light source at the time of photographing the image in the mesh and the optical axis of the image capturing apparatus at the time of photographing the image are formed. An image processing method for calculating the weighting coefficient according to the difference between the angle and the angle formed by the normal reflection direction of the illumination light from the designated illumination light source in the mesh and the line-of-sight direction from the designated viewpoint. ..
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得し、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュの法線方向に対する前記画像の撮影時の照明光源からの照明光の入射角と、前記メッシュの法線方向に対する前記指定された照明光源からの照明光の入射角と、の差に応じて前記重み係数を算出する画像処理方法
Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
In calculating the weighting coefficient, the mesh used to generate an image viewed from a specified viewpoint when the illumination light is emitted from the designated illumination light source and the designated illumination light source are used. Using the positional relationship and orientation, the incident angle of the illumination light from the illumination light source at the time of taking the image with respect to the normal direction of the mesh and the illumination light from the designated illumination light source with respect to the normal direction of the mesh. An image processing method for calculating the weighting coefficient according to the difference between the incident angle and the angle of incidence .
画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得し、
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて第1の重み係数を算出し、前記メッシュにおける前記画像の撮影時の前記照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて第2の重み係数を算出し、前記メッシュの法線方向に対する前記画像の撮影時の前記照明光源からの照明光の入射角に応じて第3の重み係数を算出し、指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点との位置関係及び姿勢を用いて、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュの法線方向と前記指定された視点からの視線方向とのなす角と、の差に応じて第4の重み係数を算出し、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点及び前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュにおける前記画像の撮影時の照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュにおける前記指定された照明光源からの照明光の正反射方向と前記指定された視点からの視線方向とのなす角と、の差に応じて第5の重み係数を算出し、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュの法線方向に対する前記画像の撮影時の照明光源からの照明光の入射角と、前記メッシュの法線方向に対する前記指定された照明光源からの照明光の入射角と、の差に応じて第6の重み係数を算出したうえで、前記第1から前記第6までの重み係数のうちの2つ以上に基づいて、前記メッシュに対する前記画像の最終的な重み係数を算出する画像処理方法
Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
In calculating the weight coefficient, the first weight coefficient is calculated according to the angle formed by the normal direction of the mesh and the optical axis of the image capturing apparatus at the time of photographing the image, and the image in the mesh is calculated. The second weighting coefficient is calculated according to the angle formed by the normal reflection direction of the illumination light from the illumination light source at the time of shooting and the optical axis of the image capturing device at the time of shooting the image, and the normal line of the mesh. The mesh and the mesh used when generating an image viewed from a specified viewpoint by calculating a third weighting coefficient according to the incident angle of the illumination light from the illumination light source when the image is taken with respect to the direction. Using the positional relationship and orientation with the designated viewpoint, the angle formed by the normal direction of the mesh and the optical axis of the image capturing apparatus when the image is taken, the normal direction of the mesh, and the designation. The fourth weighting coefficient is calculated according to the difference between the angle formed by the line-of-sight direction from the viewpoint and the image viewed from the specified viewpoint when the illumination light is emitted from the specified illumination light source. The direction of normal reflection of the illumination light from the illumination light source at the time of taking the image on the mesh by using the positional relationship and the orientation of the mesh and the designated viewpoint and the designated illumination light source. The angle formed by the light axis of the image capturing apparatus at the time of capturing the image, the normal reflection direction of the illumination light from the designated illumination light source in the mesh, and the line-of-sight direction from the designated viewpoint. A fifth weighting coefficient is calculated according to the difference between the angle and the mesh, and the mesh used to generate an image viewed from a specified viewpoint when the illumination light is emitted from the specified illumination light source. Using the positional relationship and orientation with the designated illumination light source, the incident angle of the illumination light from the illumination light source at the time of taking the image with respect to the normal direction of the mesh and the designation with respect to the normal direction of the mesh. After calculating the sixth weighting coefficient according to the difference between the incident angle of the illumination light from the illumination light source and the incident angle of the illumination light, the above-mentioned is based on two or more of the first to the sixth weighting coefficients. An image processing method for calculating the final weighting coefficient of the image with respect to the mesh .
コンピュータを、請求項1〜請求項の何れか1項に記載の画像処理装置の各部として機能させるためのプログラム。 A program for causing a computer to function as each part of the image processing apparatus according to any one of claims 1 to 6.
JP2017137830A 2017-07-14 2017-07-14 Image processing equipment, methods, and programs Active JP6867645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017137830A JP6867645B2 (en) 2017-07-14 2017-07-14 Image processing equipment, methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017137830A JP6867645B2 (en) 2017-07-14 2017-07-14 Image processing equipment, methods, and programs

Publications (2)

Publication Number Publication Date
JP2019020952A JP2019020952A (en) 2019-02-07
JP6867645B2 true JP6867645B2 (en) 2021-05-12

Family

ID=65354475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017137830A Active JP6867645B2 (en) 2017-07-14 2017-07-14 Image processing equipment, methods, and programs

Country Status (1)

Country Link
JP (1) JP6867645B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194396A (en) 2019-05-29 2020-12-03 株式会社ソニー・インタラクティブエンタテインメント Mesh model generation method, mesh model generation apparatus, and program
JP7334509B2 (en) 2019-07-05 2023-08-29 凸版印刷株式会社 3D geometric model generation system, 3D geometric model generation method and program
CN113428374B (en) * 2021-07-29 2023-04-18 西南交通大学 Bridge structure detection data collection method and unmanned aerial vehicle system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3625624B2 (en) * 1996-08-30 2005-03-02 三洋電機株式会社 Texture information assigning method, medium recording texture information assigning program, and texture information assigning apparatus
JP2001236510A (en) * 2000-02-24 2001-08-31 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating three-dimensional visualized image and recording medium with three- dimensional visualized image generation program recorded thereon
US9905039B2 (en) * 2014-02-21 2018-02-27 Qualcomm Incorporated View independent color equalized 3D scene texturing

Also Published As

Publication number Publication date
JP2019020952A (en) 2019-02-07

Similar Documents

Publication Publication Date Title
EP3134868B1 (en) Generation and use of a 3d radon image
McCarthy et al. Multi-image photogrammetry for underwater archaeological site recording: an accessible, diver-based approach
KR102618542B1 (en) ToF (time of flight) capturing apparatus and method for processing image for decreasing blur of depth image thereof
US9619933B2 (en) Model and sizing information from smartphone acquired image sequences
US8754963B2 (en) Processing images having different focus
WO2015048694A2 (en) Systems and methods for depth-assisted perspective distortion correction
KR20200132838A (en) Method and system for generating 3D images of objects
WO2020039166A1 (en) Method and system for reconstructing colour and depth information of a scene
KR101666854B1 (en) Apparatus and method for depth unfolding based on multiple depth images
US20140300941A1 (en) Method and apparatus for generating hologram based on multi-view image
CN107517346B (en) Photographing method and device based on structured light and mobile device
JP6867645B2 (en) Image processing equipment, methods, and programs
GB2565354A (en) Method and corresponding device for generating a point cloud representing a 3D object
JP2016122444A (en) Method and apparatus for generating adapted slice image from focal stack
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
TW201716743A (en) Three dimensional characteristic information sensing system and sensing method
JP6968895B2 (en) Method and optical system to acquire tomographic distribution of electromagnetic field crest
JP2015046678A (en) Image processing device, image processing method and imaging device
KR101000859B1 (en) HDRI-Panorama image generation apparatus and method with fisheye lens
KR20110133677A (en) Method and apparatus for processing 3d image
JP2022024688A (en) Depth map generation device and program thereof, and depth map generation system
JP4091455B2 (en) Three-dimensional shape measuring method, three-dimensional shape measuring apparatus, processing program therefor, and recording medium
JP6835227B2 (en) Image processing equipment, image processing methods and computer programs
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and memory medium
JP5686412B2 (en) 3D shape estimation device, 3D shape estimation method, and 3D shape estimation program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210401

R150 Certificate of patent or registration of utility model

Ref document number: 6867645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250