JP2008204318A - Image processor, image processing method and image processing program - Google Patents

Image processor, image processing method and image processing program Download PDF

Info

Publication number
JP2008204318A
JP2008204318A JP2007041867A JP2007041867A JP2008204318A JP 2008204318 A JP2008204318 A JP 2008204318A JP 2007041867 A JP2007041867 A JP 2007041867A JP 2007041867 A JP2007041867 A JP 2007041867A JP 2008204318 A JP2008204318 A JP 2008204318A
Authority
JP
Japan
Prior art keywords
partial
image
subject
model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007041867A
Other languages
Japanese (ja)
Inventor
Akira Uchiumi
章 内海
Hirotake Yamazoe
大丈 山添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007041867A priority Critical patent/JP2008204318A/en
Publication of JP2008204318A publication Critical patent/JP2008204318A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of dynamically determining a reflection parameter close to an actual object as a reflection parameter of a surface of a subject model. <P>SOLUTION: A three-dimensional model creation section 22 creates a three-dimensional model of a subject from a plurality of subject images obtained by photographing the subject. A partial region selection section 23 divides the surface of the three-dimensional model into a plurality of surface regions and selects a partial photographed image of a corresponding region corresponding to each surface region for each subject image. A partial model image creation section 26 reads a reflection parameter of each partial region from a material database 25 and creates a partial model image corresponding to each partial photographed image using the read reflection parameter and illumination conditions under which the subject image was photographed. A parameter retrieval section 27 calculates the goodness of fit of partial model images for partial photographed images for each surface region and determines the reflection parameter of the partial region corresponding to the partial model image with the highest goodness of fit as the reflection parameter of each surface region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、被写体モデルの表面の反射パラメータを決定する画像処理装置、画像処理方法及び画像処理プログラムに関し、特に、多視点カメラにより撮影された2次元画像から作成した3次元被写体モデルの表面における反射パラメータを決定する画像処理装置、画像処理方法及び画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for determining a reflection parameter of a surface of a subject model, and in particular, reflection on the surface of a three-dimensional subject model created from a two-dimensional image photographed by a multi-view camera. The present invention relates to an image processing apparatus, an image processing method, and an image processing program for determining parameters.

固定した照明環境下で伝統舞踊の演者など動きのある被写体を複数のカメラによって撮影し、視体積交差法等を利用しながら、被写体の3次元形状並びに形状表面の色及び模様(以下、テクスチャと呼ぶ)を逐次取得し、動きのある3次元のCG(コンピュータグラフィックス)モデルを作成することが研究されている(例えば、非特許文献1参照)。   Photographing a moving subject, such as a traditional dancer, in a fixed lighting environment with multiple cameras and using the visual volume intersection method, etc., the three-dimensional shape of the subject and the color and pattern of the shape surface (hereinafter referred to as the texture) (Refer to Non-Patent Document 1, for example) to obtain a moving three-dimensional CG (computer graphics) model.

上記の処理により作成された3次元モデルは、CG環境内の仮想シーンに配置する部品として、舞台や他の演者など別途用意したCGオブジェクトとともに配置され、CG画像としてレンダリングされる。この際、被写体の3次元モデルをCG空間内で他のオブジェクトと違和感なく融合させるためには、3次元モデルにマッピングされるテクスチャデータが十分な解像度を持ち、また実物体に近い反射パラメータを有することが望ましい。
冨山他3名、「表示視点に依存した3次元動オブジェクトへの面テクスチャマッピング手法」、情報処理学会、コンピュータビジョンとイメージメディア研究会、vol.145、pp.17−24、2004年9月
The three-dimensional model created by the above processing is arranged with a separately prepared CG object such as a stage or another performer as a component to be arranged in a virtual scene in the CG environment, and is rendered as a CG image. At this time, the texture data mapped to the three-dimensional model has sufficient resolution and reflection parameters close to those of the real object in order to fuse the three-dimensional model of the subject with other objects in the CG space without any sense of incongruity. It is desirable.
Kashiyama et al., “Surface texture mapping method to 3D moving object depending on display viewpoint”, Information Processing Society of Japan, Computer Vision and Image Media Study Group, vol. 145, pp. 17-24, September 2004

しかしながら、上記の視体積交差法に用いられる画像データは、特定の照明環境下で撮影されており、その環境に特有の反射成分を含むため、撮影画像から反射パラメータを動的に分離することができず、実物体により近い反射パラメータを動的に獲得することは困難である。   However, since the image data used for the visual volume intersection method is captured under a specific illumination environment and includes a reflection component peculiar to the environment, the reflection parameter can be dynamically separated from the captured image. It is difficult to dynamically obtain a reflection parameter closer to a real object.

本発明の目的は、被写体モデルの表面の反射パラメータとして、実物体に近い反射パラメータを動的に決定することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することである。   An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of dynamically determining a reflection parameter close to a real object as a reflection parameter of the surface of a subject model.

本発明に係る画像処理装置は、被写体モデルの表面の反射パラメータを決定する画像処理装置であって、被写体の表面における部分領域ごとに反射パラメータを予め記憶しているデータベース部と、互いに異なる複数のカメラ視点から前記被写体を撮影した複数の被写体画像を取得する取得部と、前記複数の被写体画像から被写体の3次元モデルを作成するモデル作成部と、前記3次元モデルの表面を複数の表面領域に分割し、前記被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像を選択する選択部と、前記データベース部から各部分領域の反射パラメータを読み出し、読み出した反射パラメータと前記複数の被写体画像が撮影された照明条件とを用いて、各部分撮影画像に対応する部分モデル画像を作成する画像作成部と、前記表面領域ごとに前記部分撮影画像に対する前記部分モデル画像の適合度を算出し、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定する決定部とを備えるものである。   An image processing apparatus according to the present invention is an image processing apparatus that determines a reflection parameter of a surface of a subject model, and a database unit that stores a reflection parameter in advance for each partial region on the surface of a subject, and a plurality of different mutually An acquisition unit that acquires a plurality of subject images obtained by photographing the subject from a camera viewpoint, a model creation unit that creates a three-dimensional model of the subject from the plurality of subject images, and a surface of the three-dimensional model as a plurality of surface regions A selection unit that divides and selects a partial captured image of a corresponding region corresponding to each surface region for each of the subject images, reads reflection parameters of each partial region from the database unit, reads the reflected parameters and the plurality of subject images An image creation unit that creates a partial model image corresponding to each partial captured image using the lighting conditions in which A determination unit that calculates a degree of matching of the partial model image with respect to the partial captured image for each surface area, and determines a reflection parameter of the partial area corresponding to the partial model image having the highest degree of matching as a reflection parameter of each surface area; Is provided.

本発明に係る画像処理装置においては、互いに異なる複数のカメラ視点から被写体を撮影した複数の被写体画像が取得され、複数の被写体画像から被写体の3次元モデルが作成され、この3次元モデルの表面が複数の表面領域に分割され、被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像が選択される。ここで、データベース部には、被写体の表面を複数に分割した部分領域ごとに反射パラメータが予め記憶されており、このデータベース部から各部分領域の反射パラメータが読み出され、この反射パラメータと複数の被写体画像が撮影された照明条件とを用いて、各部分撮影画像に対応する部分モデル画像が作成される。その後、表面領域ごとに部分撮影画像に対する部分モデル画像の適合度が算出され、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータが各表面領域の反射パラメータとして決定されるので、被写体モデルの表面の反射パラメータとして、実物体に近い反射パラメータを動的に決定することができる。   In the image processing apparatus according to the present invention, a plurality of subject images obtained by photographing subjects from a plurality of different camera viewpoints are acquired, a three-dimensional model of the subject is created from the plurality of subject images, and the surface of the three-dimensional model is A partial photographed image of a corresponding area corresponding to each surface area is selected for each subject image. Here, in the database unit, the reflection parameter is stored in advance for each partial area obtained by dividing the surface of the subject into a plurality of parts, and the reflection parameter of each partial area is read out from the database unit. A partial model image corresponding to each partial captured image is created using the illumination conditions under which the subject image was captured. Thereafter, the suitability of the partial model image with respect to the partially captured image is calculated for each surface area, and the reflection parameter of the partial area corresponding to the partial model image having the highest fitness is determined as the reflection parameter of each surface area. A reflection parameter close to a real object can be dynamically determined as the reflection parameter of the model surface.

前記データベース部は、第1の解像度で前記被写体を撮影した画像から算出した反射パラメータを予め記憶し、前記取得部は、前記第1の解像度より低い第2の解像度で前記被写体を撮影した複数の被写体画像を取得し、前記画像作成部は、前記部分モデル画像として前記第1の解像度から前記第2の解像度へ解像度変換した低解像度部分モデル画像を作成することが好ましい。   The database unit stores in advance reflection parameters calculated from an image of the subject photographed at a first resolution, and the acquisition unit captures a plurality of photographs of the subject at a second resolution lower than the first resolution. Preferably, a subject image is acquired, and the image creation unit creates a low-resolution partial model image obtained by converting the resolution from the first resolution to the second resolution as the partial model image.

この場合、低解像度の被写体画像が取得され、高解像度の反射パラメータがデータベース部に記憶されている場合でも、被写体画像の解像度に合わせて部分撮影画像に対する部分モデル画像の適合度を高精度に算出することができるので、被写体モデルの表面の反射パラメータとして、実物体により近い反射パラメータを動的に決定することができる。   In this case, even when a low-resolution subject image is acquired and a high-resolution reflection parameter is stored in the database unit, the suitability of the partial model image with respect to the partial captured image is calculated with high accuracy in accordance with the resolution of the subject image. Therefore, the reflection parameter closer to the real object can be dynamically determined as the reflection parameter of the surface of the subject model.

前記決定部は、前記部分撮影画像に対する前記低解像度部分モデル画像の適合度を算出し、適合度の高い所定数の部分領域を候補部分領域として決定し、前記画像作成部は、前記候補部分領域の反射パラメータから前記第2の解像度より高い第3の解像度のサブピクセル部分モデル画像を作成し、前記決定部は、前記部分撮影画像に対する前記サブピクセル部分モデル画像の適合度を算出し、適合度が最も高いサブピクセル部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定することが好ましい。   The determining unit calculates a degree of matching of the low-resolution partial model image with respect to the partial captured image, determines a predetermined number of partial regions having a high degree of matching as candidate partial regions, and the image creating unit is configured to select the candidate partial region. A subpixel partial model image having a third resolution higher than the second resolution from the reflection parameter of the second resolution, and the determining unit calculates a degree of fitness of the subpixel partial model image with respect to the partial captured image, Preferably, the reflection parameter of the partial area corresponding to the subpixel partial model image having the highest is determined as the reflection parameter of each surface area.

この場合、部分撮影画像に対する低解像度部分モデル画像の適合度を算出した後、適合度の高い所定数の候補部分領域からサブピクセル部分モデル画像を作成して部分撮影画像に対するサブピクセル部分モデル画像の適合度を算出し、適合度が最も高いサブピクセル部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定しているので、候補部分領域を絞り込んだ後に、サブピクセル精度で適合度を求めることができ、被写体モデルの表面の反射パラメータとして、実物体にさらに近い反射パラメータを短時間に決定することができる。   In this case, after calculating the suitability of the low-resolution partial model image with respect to the partial captured image, a subpixel partial model image is created from a predetermined number of candidate partial regions having a high fitness, and the subpixel partial model image is compared with the partial captured image. Since the degree of matching is calculated and the reflection parameter of the partial area corresponding to the subpixel partial model image with the highest degree of matching is determined as the reflection parameter of each surface area, after narrowing down the candidate partial areas, The matching degree can be obtained, and the reflection parameter closer to the real object can be determined in a short time as the reflection parameter of the surface of the subject model.

前記データベース部は、前記反射パラメータとして、拡散反射パラメータと、鏡面反射パラメータとを予め記憶することが好ましい。   The database unit preferably stores in advance a diffuse reflection parameter and a specular reflection parameter as the reflection parameter.

この場合、被写体モデルの表面の反射パラメータとして、拡散反射パラメータと鏡面反射パラメータとを求めることができるので、これらを用いてよりリアルなテクスチャを動的に生成することができる。   In this case, since the diffuse reflection parameter and the specular reflection parameter can be obtained as the reflection parameters of the surface of the subject model, a more realistic texture can be dynamically generated using these parameters.

前記データベース部は、前記部分領域における鏡面反射パラメータを一定として前記部分領域ごとに鏡面反射パラメータを予め記憶し、前記画像作成部は、前記部分領域における鏡面反射パラメータを一定として各部分撮影画像に対応する部分モデル画像を作成することが好ましい。   The database unit stores in advance the specular reflection parameter for each partial region with a constant specular reflection parameter in the partial region, and the image creation unit supports each partial captured image with the specular reflection parameter in the partial region constant. It is preferable to create a partial model image to be created.

この場合、データベース部の記憶容量を削減することができるとともに、部分モデル画像を高速に作成することができる。   In this case, the storage capacity of the database unit can be reduced, and a partial model image can be created at high speed.

本発明に係る画像処理方法は、被写体の表面を複数に分割した部分領域ごとに反射パラメータを予め記憶しているデータベース部と、取得部と、モデル作成部と、選択部と、画像作成部と、決定部とを備える画像処理装置を用いて、被写体モデルの表面の反射パラメータを決定する画像処理方法であって、前記取得部が、互いに異なる複数のカメラ視点から前記被写体を撮影した複数の被写体画像を取得するステップと、前記モデル作成部が、前記複数の被写体画像から被写体の3次元モデルを作成するステップと、前記選択部が、前記3次元モデルの表面を複数の表面領域に分割し、前記被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像を選択するステップと、前記画像作成部が、前記データベース部から各部分領域の反射パラメータを読み出し、読み出した反射パラメータと前記複数の被写体画像が撮影された照明条件とを用いて、各部分撮影画像に対応する部分モデル画像を作成するステップと、前記決定部が、前記表面領域ごとに前記部分撮影画像に対する前記部分モデル画像の適合度を算出し、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定するステップとを含むものである。   An image processing method according to the present invention includes a database unit that stores reflection parameters in advance for each partial region obtained by dividing the surface of a subject into a plurality of parts, an acquisition unit, a model creation unit, a selection unit, an image creation unit, An image processing method for determining a reflection parameter of a surface of a subject model using an image processing device including a determination unit, wherein the acquisition unit captures the subject from a plurality of different camera viewpoints. Acquiring the image, the model creating unit creating a three-dimensional model of the subject from the plurality of subject images, and the selecting unit dividing the surface of the three-dimensional model into a plurality of surface regions, Selecting a partial captured image of a corresponding region corresponding to each surface region for each of the subject images, and the image creating unit reflecting each partial region from the database unit A step of creating a partial model image corresponding to each partial captured image using the read reflection parameter and the illumination condition in which the plurality of subject images are captured; and the determination unit includes: And calculating the degree of matching of the partial model image with respect to the partial captured image, and determining the reflection parameter of the partial area corresponding to the partial model image having the highest degree of matching as the reflection parameter of each surface area.

本発明に係る画像処理プログラムは、被写体モデルの表面の反射パラメータを決定するための画像処理プログラムであって、被写体の表面を複数に分割した部分領域ごとに反射パラメータを予め記憶しているデータベース部と、互いに異なる複数のカメラ視点から前記被写体を撮影した複数の被写体画像を取得する取得部と、前記複数の被写体画像から被写体の3次元モデルを作成するモデル作成部と、前記3次元モデルの表面を複数の表面領域に分割し、前記被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像を選択する選択部と、前記データベース部から各部分領域の反射パラメータを読み出し、読み出した反射パラメータと前記複数の被写体画像が撮影された照明条件とを用いて、各部分撮影画像に対応する部分モデル画像を作成する画像作成部と、前記表面領域ごとに前記部分撮影画像に対する前記部分モデル画像の適合度を算出し、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定する決定部としてコンピュータを機能させるものである。   An image processing program according to the present invention is an image processing program for determining a reflection parameter of a surface of a subject model, and a database unit that stores a reflection parameter in advance for each partial region obtained by dividing the surface of a subject. An acquisition unit that acquires a plurality of subject images obtained by photographing the subject from a plurality of different camera viewpoints, a model creation unit that creates a three-dimensional model of the subject from the plurality of subject images, and a surface of the three-dimensional model Is divided into a plurality of surface regions, a selection unit that selects a partial captured image of a corresponding region corresponding to each surface region for each of the subject images, and reflection parameters of each partial region are read from the database unit, and the read reflection parameters And a partial model image corresponding to each partial captured image using the lighting conditions in which the plurality of subject images are captured. And an image creation unit that creates a matching degree of the partial model image with respect to the partial captured image for each surface area, and sets a reflection parameter of the partial area corresponding to the partial model image with the highest matching degree for each surface area. The computer is made to function as a determination unit that determines the reflection parameter.

本発明によれば、被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像が選択され、データベース部から読み出された反射パラメータと、複数の被写体画像が撮影された照明条件とを用いて各部分撮影画像に対応する部分モデル画像が作成され、表面領域ごとに部分撮影画像に対する部分モデル画像の適合度が算出され、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータが各表面領域の反射パラメータとして決定されるので、被写体モデルの表面の反射パラメータとして、実物体に近い反射パラメータを動的に決定することができる。   According to the present invention, for each subject image, a partial captured image of a corresponding region corresponding to each surface region is selected, and the reflection parameter read from the database unit and the illumination conditions under which the plurality of subject images are captured are used. A partial model image corresponding to each partial captured image is created, and the degree of suitability of the partial model image with respect to the partial captured image is calculated for each surface region, and the reflection parameter of the partial region corresponding to the partial model image having the highest fitness is determined. Since it is determined as the reflection parameter of each surface region, the reflection parameter close to the real object can be dynamically determined as the reflection parameter of the surface of the subject model.

以下、本発明の一実施の形態による画像処理装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による画像処理装置の構成を示すブロック図である。   An image processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

図1に示す画像処理装置は、複数のビデオカメラ11〜1K、画像取得部21、3次元モデル作成部22、部分領域選択部23、入力部24、マテリアルデータベース25、部分モデル画像作成部26、パラメータ検索部27、テクスチャ更新部28、及びCG作成部29を備える。   1 includes a plurality of video cameras 11 to 1K, an image acquisition unit 21, a three-dimensional model creation unit 22, a partial region selection unit 23, an input unit 24, a material database 25, a partial model image creation unit 26, A parameter search unit 27, a texture update unit 28, and a CG creation unit 29 are provided.

K台(Kは2以上の整数)のビデオカメラ11〜1Kは、被写体を中心とする円上に所定間隔で配置され、動きのある被写体、例えば、人物を互いに異なる複数のカメラ視点から撮影した被写体画像を画像取得部21へ出力する。例えば、ビデオカメラ11〜1Kとして、10台のビデオカメラを用い、30万画素で撮影されたカラー動画像が各ビデオカメラから画像取得部21へ出力される。   The K video cameras 11 to 1K (K is an integer of 2 or more) are arranged at predetermined intervals on a circle centered on the subject, and photograph a moving subject, for example, a person from a plurality of different camera viewpoints. The subject image is output to the image acquisition unit 21. For example, ten video cameras are used as the video cameras 11 to 1K, and color moving images photographed with 300,000 pixels are output from each video camera to the image acquisition unit 21.

画像取得部21、3次元モデル作成部22、部分領域選択部23、入力部24、マテリアルデータベース25、部分モデル画像作成部26、パラメータ検索部27、テクスチャ更新部28、及びCG作成部29は、入力装置、表示装置、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、画像I/F(インターフェース)部及び外部記憶装置等を備えるコンピュータを用いて、ROM又は外部記憶装置に予め記憶されている、後述する画像処理を行うための画像処理プログラムをCPU等で実行することにより実現される。   The image acquisition unit 21, the 3D model creation unit 22, the partial region selection unit 23, the input unit 24, the material database 25, the partial model image creation unit 26, the parameter search unit 27, the texture update unit 28, and the CG creation unit 29 An input device, a display device, a ROM (Read Only Memory), a CPU (Central Processing Unit), a RAM (Random Access Memory), an image I / F (Interface) unit, an external storage device, etc. This is realized by executing an image processing program for performing image processing, which will be described later, stored in advance in an external storage device by the CPU.

なお、画像取得部21、3次元モデル作成部22、部分領域選択部23、入力部24、マテリアルデータベース25、部分モデル画像作成部26、パラメータ検索部27、テクスチャ更新部28、及びCG作成部29の構成例は、上記の例に特に限定されず、各ブロックを専用のハードウエアから構成したり、一部のブロック又はブロック内の一部の処理のみを専用のハードウエアで構成したりする等の種々の変更が可能である。また、マテリアルデータベースを所定のネットワークを介してコンピュータに接続し、後述する画像処理のみをコンピュータで実行するようにしてもよい。   Note that the image acquisition unit 21, the three-dimensional model creation unit 22, the partial region selection unit 23, the input unit 24, the material database 25, the partial model image creation unit 26, the parameter search unit 27, the texture update unit 28, and the CG creation unit 29. The configuration example is not particularly limited to the above example, and each block is configured by dedicated hardware, or only a part of blocks or only a part of processing in the block is configured by dedicated hardware. Various modifications are possible. Alternatively, the material database may be connected to a computer via a predetermined network, and only the image processing described later may be executed by the computer.

画像取得部21は、互いに異なる複数のカメラ視点から被写体を撮影した複数(K枚)の被写体画像を取得し、取得した複数の被写体画像を一次的に記憶するとともに、複数の被写体画像を3次元モデル作成部22へ出力する。3次元モデル作成部22は、例えば、視体積交差法を用いて、複数の被写体画像から被写体の3次元モデルを作成する。なお、3次元モデルの作成方法は、上記の例に特に限定されず、視体積交差法とステレオマッチング法とを併用する等の種々の変更が可能である。   The image acquisition unit 21 acquires a plurality (K) of subject images obtained by capturing subjects from a plurality of different camera viewpoints, temporarily stores the acquired plurality of subject images, and three-dimensionally stores the plurality of subject images. Output to the model creation unit 22. The three-dimensional model creation unit 22 creates a three-dimensional model of a subject from a plurality of subject images using, for example, a view volume intersection method. Note that the method of creating the three-dimensional model is not particularly limited to the above example, and various modifications such as the combined use of the visual volume intersection method and the stereo matching method are possible.

部分領域選択部23は、3次元モデル作成部22から3次元モデルを読み出し、3次元モデルの表面を複数の表面領域に分割する。例えば、3次元モデルが複数のポリゴンから構成されている場合、一つのポリゴンを一つの表面領域として分割したり、一つのポリゴンを複数の表面領域に分割することができる。部分領域選択部23は、分割された複数(N個:Nは2以上の整数)の表面領域の中から一の表面領域i(i=1,…,N)を選択し、表面領域iの3次元位置及び姿勢を算出し、3次元位置及び姿勢から表面領域iに対応する各被写体画像上の2次元位置を算出する。部分領域選択部23は、複数の被写体画像を一次的に記憶している画像取得部21を参照して、被写体画像ごとに表面領域iに対応する対応領域の部分撮影画像j(j=1,…,K)を選択してパラメータ検索部27へ出力する。   The partial region selection unit 23 reads the three-dimensional model from the three-dimensional model creation unit 22 and divides the surface of the three-dimensional model into a plurality of surface regions. For example, when the three-dimensional model is composed of a plurality of polygons, one polygon can be divided as one surface area, or one polygon can be divided into a plurality of surface areas. The partial region selection unit 23 selects one surface region i (i = 1,..., N) from among a plurality of divided (N: N is an integer of 2 or more) surface regions, A three-dimensional position and orientation are calculated, and a two-dimensional position on each subject image corresponding to the surface area i is calculated from the three-dimensional position and orientation. The partial area selection unit 23 refers to the image acquisition unit 21 that temporarily stores a plurality of subject images, and for each subject image, the partial captured image j (j = 1, 1) of the corresponding region corresponding to the surface region i. ..., K) are selected and output to the parameter search unit 27.

入力部5は、ユーザが種々のデータを入力するために用いられ、例えば、ビデオカメラ11〜1Kで被写体を撮影しているときの撮影照明条件が入力部5を介して入力され、この撮影照明条件が部分モデル画像作成部26へ入力される。また、入力部5は、テクスチャの更新方法をテクスチャ更新部28へ指示するためにも用いられる。   The input unit 5 is used for a user to input various data. For example, photographing illumination conditions when a subject is photographed by the video cameras 11 to 1K are input via the input unit 5, and this photographing illumination is used. The condition is input to the partial model image creation unit 26. The input unit 5 is also used to instruct the texture update unit 28 about a texture update method.

マテリアルデータベース25は、被写体の表面を複数に分割した部分領域ごとに反射パラメータを予め記憶している。具体的には、撮影時にシーンに存在する可能性のある物体(被写体)を光源位置が既知である環境下において複数のカメラで撮影し、撮影した高解像度(例えば、600万画素)の複数の静止画像から部分領域ごとに鏡面反射パラメータと高解像度の拡散反射パラメータ(色情報)とを求め、得られたデータがマテリアルデータとしてマテリアルデータベース25に予め格納されている。なお、部分領域の大きさ及び形状は、画像処理装置として機能するコンピュータの能力等に応じて任意に決定することができる。   The material database 25 stores a reflection parameter in advance for each partial area obtained by dividing the surface of the subject into a plurality of parts. Specifically, an object (subject) that may be present in the scene at the time of shooting is shot with a plurality of cameras in an environment where the light source position is known, and a plurality of high resolution (for example, 6 million pixels) shot The specular reflection parameter and the high-resolution diffuse reflection parameter (color information) are obtained for each partial region from the still image, and the obtained data is stored in advance in the material database 25 as material data. The size and shape of the partial area can be arbitrarily determined according to the ability of the computer functioning as the image processing apparatus.

ここで、マテリアルデータとして、データ内に含まれる拡散反射パラメータの座標集合(部分領域)R、(x,y)∈Rにおける拡散反射パラメータ[kd,r(x,y),kd,g(x,y),kd,b(x,y)]、微小領域R内の鏡面反射パラメータkを部分領域ごとにデータベース化して記憶している。ここで、拡散反射パラメータは、R、G、Bの各色成分が微小領域R内の位置ごとに記憶され、鏡面反射パラメータは、記憶容量の低減及び処理の簡略化のために、微小領域R内では一定と仮定して記憶されている。 Here, as the material data, the diffuse reflection parameters [k d, r (x, y) , k d, g in the coordinate set (partial region) R, (x, y) ∈R of the diffuse reflection parameters included in the data are included. (X, y) , k d, b (x, y) ], and the specular reflection parameter k s in the minute region R is stored in a database for each partial region. Here, the diffuse reflection parameter is stored for each position of the R, G, and B color components in the minute region R, and the specular reflection parameter is stored in the minute region R in order to reduce the storage capacity and simplify the processing. Then, it is assumed that it is constant.

なお、後述する反射パラメータの検索処理において部分モデル画像と部分撮影画像との位置ずれを考慮した最適解を得るためには、座標集合Rを平行移動させたマテリアルデータを多数生成しなければならないので、実際には複数のマテリアルデータで拡散反射パラメータを共有し、座標集合Rの移動量だけを別途記録することで記憶域の効率利用を図ることができる。   In order to obtain an optimal solution that takes into account the positional deviation between the partial model image and the partial captured image in the reflection parameter search process described later, a large amount of material data in which the coordinate set R is translated must be generated. Actually, the diffuse reflection parameter is shared by a plurality of material data, and only the movement amount of the coordinate set R is separately recorded, so that the storage area can be used efficiently.

部分モデル画像作成部26は、マテリアルデータベース25から各部分領域の反射パラメータを読み出し、読み出した反射パラメータと、入力部24を介して入力された被写体画像の照明条件と、部分領域選択部23により算出された表面領域iの3次元位置及び姿勢とを用いて、部分撮影画像1〜Kに対応する部分モデル画像1〜Kを表面領域iごとに作成する。このとき、部分モデル画像作成部26は、部分モデル画像の解像度が部分撮影画像の解像度に一致するように、例えば、600万画素の解像度から30万画素の解像度に部分モデル画像を解像度変換した低解像度部分モデル画像1〜Kを作成する。   The partial model image creation unit 26 reads the reflection parameters of each partial region from the material database 25, and calculates the read reflection parameters, the illumination conditions of the subject image input via the input unit 24, and the partial region selection unit 23. Using the three-dimensional position and orientation of the surface area i thus created, partial model images 1 to K corresponding to the partial captured images 1 to K are created for each surface area i. At this time, the partial model image creation unit 26, for example, converts the resolution of the partial model image from a resolution of 6 million pixels to a resolution of 300,000 pixels so that the resolution of the partial model image matches the resolution of the partial captured image. The resolution partial model images 1 to K are created.

パラメータ検索部27は、部分領域選択部23により選択された部分撮影画像1〜Kと、部分モデル画像作成部26により作成された低解像度部分モデル画像1〜Kとを用いて、表面領域ごとに部分撮影画像に対する部分モデル画像の適合度を算出し、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定する。   The parameter search unit 27 uses the partial captured images 1 to K selected by the partial region selection unit 23 and the low resolution partial model images 1 to K created by the partial model image creation unit 26 for each surface region. The degree of matching of the partial model image with respect to the partial captured image is calculated, and the reflection parameter of the partial area corresponding to the partial model image with the highest degree of matching is determined as the reflection parameter of each surface area.

具体的には、パラメータ検索部27は、上記のようにして部分撮影画像に対する低解像度部分モデル画像の適合度を算出し、低解像度部分モデル画像の基となる反射パラメータが対応付けられている部分領域のうち、適合度が高い上位M個(Mは所定の整数)の部分領域を候補部分領域として決定する。   Specifically, the parameter search unit 27 calculates the degree of matching of the low-resolution partial model image with respect to the partial captured image as described above, and the part associated with the reflection parameter that is the basis of the low-resolution partial model image Among the regions, the top M partial regions (M is a predetermined integer) having the highest fitness are determined as candidate partial regions.

その後、パラメータ検索部27は、上位M個の候補部分領域に対するサブピクセル部分モデル画像の作成を部分モデル画像作成部26に指示し、部分モデル画像作成部26は、上位M個の候補部分領域の反射パラメータから部分撮影画像の解像度より高い解像度のサブピクセル部分モデル画像を作成し、サブピクセル部分モデル画像をパラメータ検索部27へ出力する。パラメータ検索部27は、部分撮影画像に対するサブピクセル部分モデル画像の適合度を算出し、適合度が最も高いサブピクセル部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして最終的に決定する。   Thereafter, the parameter search unit 27 instructs the partial model image creation unit 26 to create subpixel partial model images for the top M candidate partial regions, and the partial model image creation unit 26 selects the top M candidate partial regions. A subpixel partial model image having a resolution higher than the resolution of the partial captured image is created from the reflection parameter, and the subpixel partial model image is output to the parameter search unit 27. The parameter search unit 27 calculates the degree of matching of the subpixel partial model image with respect to the partial captured image, and finally uses the reflection parameter of the partial area corresponding to the subpixel partial model image with the highest degree of matching as the reflection parameter of each surface area. To decide.

このようにして、撮影時に得られる部分撮影画像と部分モデル画像(マテリアルデータ)の対応を得るため、まず、マテリアルデータベース25内のマテリアルデータが、撮影条件に従い低解像度の劣化画像(低解像度部分モデル画像)に変換され、続いて、被写体画像の着目領域となる部分撮影画像と低解像度部分モデル画像との照合が行われ、高スコアの適合度を与えた上位M個のモデル画像についてさらに位置パラメータをサブピクセル精度で推定し、最終的に最も高い適合度を持つ部分モデル画像すなわちマテリアルデータを選択することができる。   In this way, in order to obtain a correspondence between the partial captured image and the partial model image (material data) obtained at the time of shooting, first, the material data in the material database 25 is a low resolution degraded image (low resolution partial model) according to the shooting conditions. Next, the partial captured image that is the target area of the subject image is compared with the low-resolution partial model image, and the position parameter is further set for the top M model images that have given high score fitness. Can be estimated with sub-pixel accuracy, and finally, a partial model image having the highest fitness, that is, material data can be selected.

テクスチャ更新部28は、3次元モデル作成部22から3次元モデルを読み出し、入力部5を介して指示されたテクスチャの更新方法に従って、パラメータ検索部27が決定した各表面領域の反射パラメータを利用して3次元モデルのテクスチャを動的に更新する。例えば、テクスチャ更新部28は、Back Projection法を用いて反射パラメータの更新とテクスチャ画像の再構成とを行なう。   The texture update unit 28 reads the 3D model from the 3D model creation unit 22 and uses the reflection parameters of the respective surface regions determined by the parameter search unit 27 according to the texture update method instructed via the input unit 5. To dynamically update the texture of the 3D model. For example, the texture update unit 28 updates the reflection parameter and reconstructs the texture image using the Back Projection method.

CG作成部29は、CG環境内の仮想シーンに配置する部品として、テクスチャが更新された3次元モデルを用いてCG画像を作成する。例えば、被写体が能の演者である場合、舞台や他の演者など別途用意したCGオブジェクトとともに、能の演者の3次元モデルが配置され、CG画像としてレンダリングされる。なお、テクスチャ更新部28は、適合度が予め定めた閾値に満たない場合、テクスチャ画像の更新を行なわないようにしてもよい。この場合、撮影画像のみの情報を利用したレンダリングが行なわれることになる。   The CG creation unit 29 creates a CG image using a three-dimensional model with an updated texture as a component to be placed in a virtual scene in the CG environment. For example, when the subject is a Noh performer, a 3D model of the Noh performer is arranged together with a separately prepared CG object such as a stage or another performer, and rendered as a CG image. Note that the texture update unit 28 may not update the texture image when the degree of matching is less than a predetermined threshold. In this case, rendering using only the information of the captured image is performed.

このようにして、本実施の形態では、シーン内の物体の反射特性をあらかじめモデル化してデータベースに格納し、撮影時に得た3次元モデルの表面のテクスチャに適合する反射パラメータをデータベース内で探索し、3次元モデルの反射パラメータを動的に更新することができる。   In this way, in the present embodiment, the reflection characteristics of the object in the scene are modeled in advance and stored in the database, and the reflection parameter matching the surface texture of the three-dimensional model obtained at the time of shooting is searched in the database. The reflection parameter of the three-dimensional model can be updated dynamically.

本実施の形態では、マテリアルデータベース25がデータベース部の一例に相当し、画像取得部21が取得部の一例に相当し、3次元モデル作成部22がモデル作成部の一例に相当し、部分領域選択部23が選択部の一例に相当し、部分モデル画像作成部26が画像作成部の一例に相当し、パラメータ検索部27が決定部の一例に相当する。   In the present embodiment, the material database 25 corresponds to an example of a database unit, the image acquisition unit 21 corresponds to an example of an acquisition unit, the 3D model creation unit 22 corresponds to an example of a model creation unit, and a partial region selection The unit 23 corresponds to an example of a selection unit, the partial model image generation unit 26 corresponds to an example of an image generation unit, and the parameter search unit 27 corresponds to an example of a determination unit.

次に、上記のように構成された画像処理装置により、被写体モデルの表面の反射パラメータを更新する反射パラメータ更新処理について説明する。図2は、図1に示す画像処理装置による反射パラメータ更新処理を説明するためのフローチャートであり、図3は、図2に示す反射パラメータ検索処理を模式的に示す図であり、図4は、マテリアルデータの一例を示す図であり、図5は、被写体画像の一例を示す図であり、図6は、3次元モデルの一例を示す図であり、図7は、鏡面反射パラメータの一例を示す図であり、図8は、部分撮影画像の一例を示す図であり、図9は、テクスチャが更新されたCG画像の一例を示す図であり、図10は、テクスチャの更新の有無により細部が高精細化されたCG画像の一例を示す図である。   Next, the reflection parameter update process for updating the reflection parameter on the surface of the subject model by the image processing apparatus configured as described above will be described. FIG. 2 is a flowchart for explaining the reflection parameter update process by the image processing apparatus shown in FIG. 1, FIG. 3 is a diagram schematically showing the reflection parameter search process shown in FIG. 2, and FIG. 5 is a diagram illustrating an example of material data, FIG. 5 is a diagram illustrating an example of a subject image, FIG. 6 is a diagram illustrating an example of a three-dimensional model, and FIG. 7 is an example of a specular reflection parameter. FIG. 8 is a diagram showing an example of a partially captured image, FIG. 9 is a diagram showing an example of a CG image with updated texture, and FIG. 10 shows details depending on whether or not the texture is updated. It is a figure which shows an example of a high-definition CG image.

ここで、マテリアルデータベース25には、マテリアルデータとして、被写体の表面を複数に分割した部分領域ごとに鏡面反射パラメータと拡散反射パラメータとを予め記憶しており、例えば、図4に示す矩形形状の複数のマテリアルデータがマテリアルデータベース25に予め記憶されている。   Here, in the material database 25, specular reflection parameters and diffuse reflection parameters are stored in advance as material data for each partial region obtained by dividing the surface of the subject into a plurality of parts. For example, a plurality of rectangular shapes shown in FIG. Are stored in the material database 25 in advance.

図2を参照して、まず、ステップS11において、各ビデオカメラ11〜1Kは、撮影した被写体画像を画像取得部21へ出力し、画像取得部21は、複数の被写体画像を取得して3次元モデル作成部22へ出力する。例えば、図5に示す複数の被写体画像が3次元モデル作成部22へ出力される。   Referring to FIG. 2, first, in step S <b> 11, each video camera 11 to 1 </ b> K outputs the captured subject image to the image acquisition unit 21, and the image acquisition unit 21 acquires a plurality of subject images and performs three-dimensional processing. Output to the model creation unit 22. For example, a plurality of subject images shown in FIG. 5 are output to the three-dimensional model creation unit 22.

次に、ステップS12において、3次元モデル作成部22は、視体積交差法を用いて、複数の被写体画像から被写体の3次元モデルを作成し、作成した3次元モデルを部分領域選択部23へ出力する。例えば、図5に示す複数の被写体画像から図6に示す3次元モデルが作成される。   Next, in step S <b> 12, the three-dimensional model creation unit 22 creates a three-dimensional model of the subject from the plurality of subject images using the view volume intersection method, and outputs the created three-dimensional model to the partial region selection unit 23. To do. For example, a three-dimensional model shown in FIG. 6 is created from a plurality of subject images shown in FIG.

次に、ステップS13において、部分領域選択部23は、3次元モデル作成部22から3次元モデルを読み出して3次元モデルの表面を複数の表面領域に分割し、分割された複数の表面領域の中から一の表面領域i(i=1,…,N)を選択する。   Next, in step S13, the partial region selection unit 23 reads the three-dimensional model from the three-dimensional model creation unit 22, divides the surface of the three-dimensional model into a plurality of surface regions, and among the plurality of divided surface regions. To select one surface area i (i = 1,..., N).

次に、ステップS14において、部分領域選択部23は、表面領域iの3次元位置及び姿勢(例えば、表面領域iの中心位置の3次元座標及び表面領域iの法線方向の角度)を算出して部分モデル画像作成部26へ出力する。次に、ステップS15において、部分領域選択部23は、算出した3次元位置及び姿勢から表面領域iに対応する各被写体画像上の2次元位置を算出する。   Next, in step S14, the partial region selection unit 23 calculates the three-dimensional position and orientation of the surface region i (for example, the three-dimensional coordinates of the center position of the surface region i and the normal direction angle of the surface region i). To the partial model image creation unit 26. Next, in step S15, the partial region selection unit 23 calculates a two-dimensional position on each subject image corresponding to the surface region i from the calculated three-dimensional position and orientation.

次に、ステップS16において、部分領域選択部23は、被写体画像上の2次元位置及び表面領域iの大きさから表面領域iに対応する対応領域を被写体画像ごとに決定し、画像取得部21を参照して被写体画像ごとに表面領域iに対応する対応領域の部分撮影画像j(j=1,…,K)を抽出してパラメータ検索部27へ出力する。   Next, in step S <b> 16, the partial region selection unit 23 determines a corresponding region corresponding to the surface region i from the two-dimensional position on the subject image and the size of the surface region i for each subject image, and the image acquisition unit 21. Referring to each subject image, a partial captured image j (j = 1,..., K) in a corresponding region corresponding to the surface region i is extracted and output to the parameter search unit 27.

次に、ステップS17において、部分モデル画像作成部26及びパラメータ検索部27は、以下のようにして、マテリアルデータベース25から表面領域iに最も類似する反射パラメータを検索する。   Next, in step S17, the partial model image creation unit 26 and the parameter search unit 27 search the reflection parameter most similar to the surface region i from the material database 25 as follows.

まず、部分モデル画像作成部26は、マテリアルデータベース25から各部分領域の反射パラメータを読み出し、読み出した反射パラメータと、入力部24を介して入力された被写体画像の照明条件と、部分領域選択部23により算出された表面領域iの3次元位置及び姿勢とを用いて、各部分撮影画像に対応する部分モデル画像1〜Kを作成する。   First, the partial model image creation unit 26 reads the reflection parameters of each partial region from the material database 25, the read reflection parameters, the illumination conditions of the subject image input via the input unit 24, and the partial region selection unit 23. Using the three-dimensional position and orientation of the surface region i calculated by the above, partial model images 1 to K corresponding to the partial captured images are created.

次に、パラメータ検索部27は、部分領域選択部23により選択された部分撮影画像1〜Kと、部分モデル画像作成部26により作成された低解像度部分モデル画像1〜Kとを用いて、表面領域ごとに部分撮影画像に対する低解像度部分モデル画像の適合度を算出し、低解像度部分モデル画像の基となる反射パラメータが対応付けられている部分領域のうち、適合度が高い上位M個の部分領域を候補部分領域として決定し、上位M個の候補部分領域に対するサブピクセル部分モデル画像の作成を部分モデル画像作成部26に指示する。   Next, the parameter search unit 27 uses the partial captured images 1 to K selected by the partial region selection unit 23 and the low resolution partial model images 1 to K created by the partial model image creation unit 26 to use the surface. The degree of fitness of the low-resolution partial model image with respect to the partial captured image is calculated for each area, and the top M parts having the highest fitness among the partial areas associated with the reflection parameters that are the basis of the low-resolution partial model image The region is determined as a candidate partial region, and the partial model image creation unit 26 is instructed to create subpixel partial model images for the top M candidate partial regions.

次に、部分モデル画像作成部26は、上位M個の候補部分領域の反射パラメータから部分撮影画像の解像度より高い解像度のサブピクセル部分モデル画像を作成し、サブピクセル部分モデル画像をパラメータ検索部27へ出力する。パラメータ検索部27は、部分撮影画像に対するサブピクセル部分モデル画像の適合度を算出し、適合度が最も高いサブピクセル部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして最終的に決定する。   Next, the partial model image creation unit 26 creates a subpixel partial model image having a resolution higher than the resolution of the partial captured image from the reflection parameters of the top M candidate partial regions, and the subpixel partial model image is a parameter search unit 27. Output to. The parameter search unit 27 calculates the degree of matching of the subpixel partial model image with respect to the partial captured image, and finally uses the reflection parameter of the partial area corresponding to the subpixel partial model image with the highest degree of matching as the reflection parameter of each surface area. To decide.

ここで、上記の適合度の計算方法について以下に詳細に説明する。まず、マテリアルデータベース25内のマテリアルデータを被写体画像(部分撮影画像)と比較するため、被写体画像の撮影条件に合わせた変換処理を以下のようにして行う。   Here, the calculation method of the above-mentioned fitness will be described in detail below. First, in order to compare the material data in the material database 25 with the subject image (partially photographed image), conversion processing according to the subject image photographing condition is performed as follows.

最初に、撮影環境の照明条件に従い、R、G、Bの各チャネルごとにカメラ方向から観測される輝度値を算出する。反射モデルには種々のものが考案されているが、本実施の形態では、CGのレンダリングでよく利用されるパラメトリックモデルであるPhong反射モデルを用いて輝度値を算出する。Phong反射モデルによれば、光源の入射方向と面法線のなす角を、視点(カメラ)方向と光源の反射ベクトルとのなす角をγとし、入射光強度をI、拡散反射率をk、鏡面反射率をkとすると、観測される輝度は次式で表される。 First, the luminance value observed from the camera direction is calculated for each of the R, G, and B channels according to the illumination conditions of the shooting environment. Various reflection models have been devised, but in this embodiment, the luminance value is calculated using a Phong reflection model, which is a parametric model often used in CG rendering. According to the Phong reflection model, the angle between the incident direction of the light source and the surface normal is γ, the angle between the viewpoint (camera) direction and the reflection vector of the light source is γ, the incident light intensity is I i , and the diffuse reflectance is k. When d and the specular reflectance are k s , the observed luminance is expressed by the following equation.

チャネルごとの光源の明るさ(入射強度)を[r,g,b]とすると、観測される色は次式で計算できる。 If the brightness (incident intensity) of the light source for each channel is [r i , g i , b i ], the observed color can be calculated by the following equation.

ここで、γは視点方向に依存するため、上式の右辺第2項はビデオカメラ11〜1Kごとに計算される。   Here, since γ depends on the viewpoint direction, the second term on the right side of the above equation is calculated for each of the video cameras 11 to 1K.

次に、着目しているマテリアルデータが、視体積交差法で得られた3次元形状表面上の特定の微小平面に対応すると仮定し、マテリアルデータ(微小平面)の座標系と各ビデオカメラ11〜1Kで観測される撮影像の座標系の間の幾何変換について考える。   Next, assuming that the material data of interest corresponds to a specific minute plane on the surface of the three-dimensional shape obtained by the visual volume intersection method, the coordinate system of the material data (minute plane) and each video camera 11 to 11 are assumed. Consider the geometric transformation between the coordinate systems of captured images observed at 1K.

一般にカメラにより平面を撮影した場合、被写体である平面上の座標と撮影画像の座標との関係は、平面射影変換行列と呼ばれる3×3の行列で表現できる。いま、着目する3次元形状表面の微小領域座標を(x,y)、ビデオカメラkの画像面座標(x,y)とすると、両者には以下の関係が得られる。 In general, when a plane is photographed by a camera, the relationship between the coordinates on the plane as a subject and the coordinates of the photographed image can be expressed by a 3 × 3 matrix called a plane projective transformation matrix. If the minute area coordinates on the surface of the three-dimensional shape of interest are (x, y) and the image plane coordinates (x k , y k ) of the video camera k, the following relationship is obtained.

ここで、Hは、ビデオカメラkに関する平面射影変換行列であり、ビデオカメラkのカメラパラメータと微小平面の位置及び姿勢から決定できる。 Here, H k is a plane projective transformation matrix for the video camera k, and can be determined from the camera parameters of the video camera k and the position and orientation of the minute plane.

次に、マテリアルデータの配置方向(微小面の法線周りの回転量)は未知であるので、以下の回転変換を考える。ここで、Rは法線軸周りの回転を示す。   Next, since the arrangement direction of the material data (the amount of rotation around the normal of the minute surface) is unknown, the following rotation conversion is considered. Here, R indicates rotation around the normal axis.

上記の式(4)から次式が得られる。   From the above equation (4), the following equation is obtained.

ここで、実際の観測画像は、さらにビデオカメラの光学系の特性による解像度の低下を受ける。色チャネルc(c∈{R,G,B})に関するビデオカメラk上の座標(x,y)における観測輝度Ic,(xk,yk)は次式で計算できる。ここで、h(x,y,x,y,θ)は劣化関数であり、以下のようにガウス分布で近似する。 Here, the actual observation image is further subjected to a reduction in resolution due to the characteristics of the optical system of the video camera. The observed luminance I c, (xk, yk) at the coordinates (x k , y k ) on the video camera k regarding the color channel c (cε {R, G, B}) can be calculated by the following equation. Here, h (x k , y k , x, y, θ) is a deterioration function, and is approximated by a Gaussian distribution as follows.

次に、K台のビデオカメラ各々について着目するマテリアルデータjを上記の手順に従って変換した画像をI (j)(k=1,…,K)とし、各ビデオカメラにおける観測画像をJ(k=1,…,K)とすると、両者の適合度rを次式により評価することができる。 Next, let I k (j) (k = 1,..., K) be an image obtained by converting the material data j of interest for each of the K video cameras according to the above procedure, and the observed image in each video camera is J k ( If k = 1,..., K), the compatibility r between them can be evaluated by the following equation.

次に、適合度rを最小とする(適合度が高い)上位M個のマテリアルデータについて、次式によりさらにサブピクセル精度で適合度を求め、最終的な選択とする。   Next, with respect to the top M material data having the minimum fitness r (high fitness), the fitness is further determined with sub-pixel accuracy by the following equation, and is finally selected.

上記の計算方法に基づくステップS17の反射パラメータの検索処理の一例を模式的に表すと、図3に示すフローチャートにようになる。なお、図3に示すフローチャートは、各処理の流れを明示的に表したものであり、上記の計算方法では、各処理が一体として処理され、図3に示す各処理が実行されれば、各処理の順序は図示の例に特に限定されず、種々の変更が可能である。   An example of the reflection parameter search process in step S17 based on the above calculation method is schematically shown in the flowchart shown in FIG. Note that the flowchart shown in FIG. 3 expresses the flow of each process explicitly. In the above calculation method, each process is processed as a unit, and each process shown in FIG. The order of processing is not particularly limited to the illustrated example, and various changes can be made.

まず、部分モデル画像作成部26は、処理31において、マテリアルデータベース25からマテリアルデータ(各部分領域の反射パラメータ)を読み出し、処理32において、式(6)及び式(7)に従い、マテリアルデータに対して2次元回転変換処理を実行する。   First, the partial model image creation unit 26 reads material data (reflection parameters of each partial region) from the material database 25 in process 31, and in process 32, the material data is subjected to the material data according to Expression (6) and Expression (7). The two-dimensional rotation conversion process is executed.

次に、処理33において、部分モデル画像作成部26は、入力部24を介して入力された被写体画像の照明条件と、部分領域選択部23が算出した表面領域iの3次元位置及び姿勢とを用いて、式(2)及び式(8)に従い、2次元回転変換されたマテリアルデータの拡散反射率を計算する。   Next, in processing 33, the partial model image creation unit 26 determines the illumination conditions of the subject image input via the input unit 24 and the three-dimensional position and orientation of the surface region i calculated by the partial region selection unit 23. Then, the diffuse reflectance of the material data subjected to the two-dimensional rotation conversion is calculated according to the equations (2) and (8).

次に、各ビデオカメラすなわち各部分撮影画像1〜Kに対する部分モデル画像1〜Kを作成するために、処理34において、部分モデル画像作成部26は、上記照明条件並びに3次元位置及び姿勢を用いて、式(2)及び式(8)に従い、2次元回転変換されたマテリアルデータの鏡面反射率を計算する。例えば、図7に示す鏡面反射パラメータが算出される。   Next, in order to create the partial model images 1 to K for the respective video cameras, that is, the partial captured images 1 to K, in the process 34, the partial model image creation unit 26 uses the illumination conditions, the three-dimensional position and the posture. Then, according to the formula (2) and the formula (8), the specular reflectance of the material data subjected to the two-dimensional rotation conversion is calculated. For example, the specular reflection parameter shown in FIG. 7 is calculated.

次に、部分モデル画像作成部26は、式(6)及び式(7)に従い、処理35において、上記3次元位置及び姿勢を用いて、マテリアルデータに対して平面射影変換処理を実行し、処理36において、マテリアルデータの解像度を部分撮影画像の解像度に一致させるために、マテリアルデータに対して解像度変換処理を実行し、処理37において、部分モデル画像1〜Kを作成する。   Next, the partial model image creation unit 26 executes a planar projective transformation process on the material data in the process 35 using the three-dimensional position and orientation in accordance with the expressions (6) and (7), In 36, a resolution conversion process is performed on the material data in order to make the resolution of the material data coincide with the resolution of the partially captured image. In process 37, partial model images 1 to K are created.

次に、部分モデル画像作成部26は、処理36において、部分撮影画像1〜Kと、部分モデル画像1〜Kとを照合して上記の適合度(Score j)を算出する。その後、適合度を最小とする上位M個のマテリアルデータについて、上記と基本的に同様の処理を繰り返すことにより、サブピクセル精度で適合度を求め、最も適合度が小さい(最も適合度が高い)反射パラメータを表面領域iの反射パラメータとして決定する。   Next, in a process 36, the partial model image creation unit 26 compares the partial captured images 1 to K with the partial model images 1 to K to calculate the above-described fitness (Score j). After that, the top M material data with the minimum fitness is basically repeated in the same manner as described above, thereby obtaining the fitness with sub-pixel accuracy and having the smallest fitness (highest fitness). The reflection parameter is determined as the reflection parameter of the surface region i.

再び図2を参照して、次に、ステップS18において、テクスチャ更新部28は、3次元モデル作成部22から3次元モデルを読み出し、Back Projection法により、パラメータ検索部27が決定した表面領域iの反射パラメータを用いて3次元モデルのテクスチャを更新する。   Referring to FIG. 2 again, next, in step S18, the texture update unit 28 reads out the 3D model from the 3D model creation unit 22, and uses the Back Projection method to determine the surface area i determined by the parameter search unit 27. The texture of the 3D model is updated using the reflection parameter.

次に、ステップS19において、テクスチャ更新部28は、全ての表面領域に対して上記の処理が終了したか否かを判断し、全ての表面領域に対する処理が終了していない場合は、次の表面領域の処理を開始するように部分領域選択部23に指示し、ステップS13以降の処理が繰り返され、全ての表面領域に対する処理が終了している場合は、処理がステップS20へ移行される。   Next, in step S19, the texture update unit 28 determines whether or not the above processing has been completed for all the surface regions. If the processing has not been completed for all the surface regions, The partial region selection unit 23 is instructed to start the region processing, and the processing from step S13 is repeated, and when the processing for all the surface regions is completed, the processing proceeds to step S20.

次に、CG作成部29は、CG環境内の仮想シーンに配置する部品として、テクスチャが更新された3次元モデルを用いてCG画像を作成し、その後、次の撮影画像を処理するために、ステップS11以降の処理が繰り返される。例えば、図8に示す部分撮影画像のテクスチャが更新され、図9に示すCG画像が作成される。また、図10の(a)は、テクスチャの更新前のCG画像の一例を示し、図10の(b)は、テクスチャの更新後のCG画像の一例を示しており、テクスチャの更新により細部が高精細化されていることがわかる。   Next, the CG creation unit 29 creates a CG image using a three-dimensional model with an updated texture as a component to be placed in a virtual scene in the CG environment, and then processes the next captured image. The process after step S11 is repeated. For example, the texture of the partially captured image shown in FIG. 8 is updated, and the CG image shown in FIG. 9 is created. FIG. 10A shows an example of a CG image before the texture update, and FIG. 10B shows an example of the CG image after the texture update. It can be seen that the definition is high.

上記の処理により、本実施の形態では、互いに異なる複数のカメラ視点から被写体を撮影した複数の被写体画像が取得され、複数の被写体画像から被写体の3次元モデルが作成され、この3次元モデルの表面が複数の表面領域に分割され、被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像が選択される。   Through the above processing, in the present embodiment, a plurality of subject images obtained by photographing subjects from a plurality of different camera viewpoints are acquired, a three-dimensional model of the subject is created from the plurality of subject images, and the surface of the three-dimensional model Are divided into a plurality of surface areas, and a partial captured image of a corresponding area corresponding to each surface area is selected for each subject image.

一方、マテリアルデータベース25には、被写体の表面を複数に分割した部分領域ごとに鏡面反射パラメータ及び拡散反射パラメータを含むマテリアルデータが予め記憶されており、マテリアルデータベース25から各部分領域の鏡面反射パラメータ及び拡散反射パラメータが読み出され、これらの鏡面反射パラメータ及び拡散反射パラメータと複数の被写体画像が撮影された照明条件とを用いて、各部分撮影画像に対応する部分モデル画像が作成される。その後、表面領域ごとに部分撮影画像に対する部分モデル画像の適合度が算出され、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータが各表面領域の反射パラメータとして決定されるので、被写体モデルの表面の鏡面反射パラメータ及び拡散反射パラメータとして、実物体に近い鏡面反射パラメータ及び拡散反射パラメータを動的に決定し、テクスチャを動的に更新することができる。   On the other hand, in the material database 25, material data including a specular reflection parameter and a diffuse reflection parameter is stored in advance for each partial area obtained by dividing the surface of the subject into a plurality of parts. The diffuse reflection parameters are read out, and a partial model image corresponding to each partial captured image is created using these specular reflection parameters, diffuse reflection parameters, and illumination conditions in which a plurality of subject images are captured. Thereafter, the suitability of the partial model image with respect to the partially captured image is calculated for each surface area, and the reflection parameter of the partial area corresponding to the partial model image having the highest fitness is determined as the reflection parameter of each surface area. The specular reflection parameter and the diffuse reflection parameter close to the real object can be dynamically determined as the specular reflection parameter and the diffuse reflection parameter of the model surface, and the texture can be dynamically updated.

なお、本実施の形態では、2次元データをマテリアルデータとして記憶し、全てのマテリアルデータの中から最適なマテリアルデータを検索したが、マテリアルデータを3次元的に構成し、3次元モデルの各表面領域に近接するマテリアルデータを事前に選択し、ある程度絞り込まれたマテリアルデータの中から最適なマテリアルデータを検索するようにしてもよい。また、鏡面反射パラメータを微小領域R内は一定としたが、拡散反射パラメータと同様に微小領域R内の位置に応じて異なる鏡面反射パラメータを記憶するようにしてもよい。   In this embodiment, two-dimensional data is stored as material data, and optimum material data is searched from all the material data. However, the material data is three-dimensionally configured and each surface of the three-dimensional model is stored. Material data close to the region may be selected in advance, and optimum material data may be searched from material data narrowed down to some extent. Further, although the specular reflection parameter is constant in the minute region R, different specular reflection parameters may be stored depending on the position in the minute region R as in the case of the diffuse reflection parameter.

本発明の一実施の形態による画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. 図1に示す画像処理装置による反射パラメータ更新処理を説明するためのフローチャートである。It is a flowchart for demonstrating the reflection parameter update process by the image processing apparatus shown in FIG. 図2に示す反射パラメータ検索処理を模式的に示す図である。It is a figure which shows typically the reflection parameter search process shown in FIG. マテリアルデータの一例を示す図である。It is a figure which shows an example of material data. 被写体画像の一例を示す図である。It is a figure which shows an example of a to-be-photographed image. 3次元モデルの一例を示す図である。It is a figure which shows an example of a three-dimensional model. 鏡面反射パラメータの一例を示す図である。It is a figure which shows an example of a specular reflection parameter. 部分撮影画像の一例を示す図である。It is a figure which shows an example of a partial picked-up image. テクスチャが更新されたCG画像の一例を示す図である。It is a figure which shows an example of the CG image in which the texture was updated. テクスチャの更新の有無により細部が高精細化されたCG画像の一例を示す図である。It is a figure which shows an example of the CG image in which the detail was highly defined by the presence or absence of the update of a texture.

符号の説明Explanation of symbols

11〜1K ビデオカメラ
21 画像取得部
22 3次元モデル作成部
23 部分領域選択部
24 入力部
25 マテリアルデータベース
26 部分モデル画像作成部
27 パラメータ検索部
28 テクスチャ更新部
29 CG作成部
11 to 1K video camera 21 image acquisition unit 22 three-dimensional model creation unit 23 partial region selection unit 24 input unit 25 material database 26 partial model image creation unit 27 parameter search unit 28 texture update unit 29 CG creation unit

Claims (7)

被写体モデルの表面の反射パラメータを決定する画像処理装置であって、
被写体の表面を複数に分割した部分領域ごとに反射パラメータを予め記憶しているデータベース部と、
互いに異なる複数のカメラ視点から前記被写体を撮影した複数の被写体画像を取得する取得部と、
前記複数の被写体画像から被写体の3次元モデルを作成するモデル作成部と、
前記3次元モデルの表面を複数の表面領域に分割し、前記被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像を選択する選択部と、
前記データベース部から各部分領域の反射パラメータを読み出し、読み出した反射パラメータと前記複数の被写体画像が撮影された照明条件とを用いて、各部分撮影画像に対応する部分モデル画像を作成する画像作成部と、
前記表面領域ごとに前記部分撮影画像に対する前記部分モデル画像の適合度を算出し、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定する決定部とを備えることを特徴とする画像処理装置。
An image processing apparatus for determining a reflection parameter of a surface of a subject model,
A database unit that stores a reflection parameter in advance for each partial region obtained by dividing the surface of the subject into a plurality of parts;
An acquisition unit that acquires a plurality of subject images obtained by photographing the subject from a plurality of different camera viewpoints;
A model creation unit for creating a three-dimensional model of a subject from the plurality of subject images;
A selection unit that divides the surface of the three-dimensional model into a plurality of surface regions and selects a partial captured image of a corresponding region corresponding to each surface region for each of the subject images;
An image creation unit that reads reflection parameters of each partial region from the database unit and creates partial model images corresponding to the partial captured images using the read reflection parameters and illumination conditions under which the plurality of subject images are captured. When,
A determination unit that calculates a degree of matching of the partial model image with respect to the partial captured image for each surface area, and determines a reflection parameter of the partial area corresponding to the partial model image having the highest degree of matching as a reflection parameter of each surface area; An image processing apparatus comprising:
前記データベース部は、第1の解像度で前記被写体を撮影した画像から算出した反射パラメータを予め記憶し、
前記取得部は、前記第1の解像度より低い第2の解像度で前記被写体を撮影した複数の被写体画像を取得し、
前記画像作成部は、前記部分モデル画像として前記第1の解像度から前記第2の解像度へ解像度変換した低解像度部分モデル画像を作成することを特徴とする請求項1記載の画像処理装置。
The database unit stores in advance reflection parameters calculated from an image of the subject photographed at a first resolution,
The obtaining unit obtains a plurality of subject images obtained by photographing the subject at a second resolution lower than the first resolution;
The image processing apparatus according to claim 1, wherein the image creation unit creates a low-resolution partial model image obtained by converting the resolution from the first resolution to the second resolution as the partial model image.
前記決定部は、前記部分撮影画像に対する前記低解像度部分モデル画像の適合度を算出し、適合度の高い所定数の部分領域を候補部分領域として決定し、
前記画像作成部は、前記候補部分領域の反射パラメータから前記第2の解像度より高い第3の解像度のサブピクセル部分モデル画像を作成し、
前記決定部は、前記部分撮影画像に対する前記サブピクセル部分モデル画像の適合度を算出し、適合度が最も高いサブピクセル部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定することを特徴とする請求項2記載の画像処理装置。
The determining unit calculates a degree of matching of the low-resolution partial model image with respect to the partial captured image, and determines a predetermined number of partial areas having a high degree of matching as candidate partial areas;
The image creating unit creates a sub-pixel partial model image having a third resolution higher than the second resolution from the reflection parameter of the candidate partial region;
The determining unit calculates a degree of matching of the subpixel partial model image with respect to the partial captured image, and determines a reflection parameter of a partial region corresponding to the subpixel partial model image having the highest degree of matching as a reflection parameter of each surface region. The image processing apparatus according to claim 2, wherein:
前記データベース部は、前記反射パラメータとして、拡散反射パラメータと、鏡面反射パラメータとを予め記憶することを特徴とする請求項1〜3のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the database unit stores in advance a diffuse reflection parameter and a specular reflection parameter as the reflection parameter. 前記データベース部は、前記部分領域における鏡面反射パラメータを一定として前記部分領域ごとに鏡面反射パラメータを予め記憶し、
前記画像作成部は、前記部分領域における鏡面反射パラメータを一定として各部分撮影画像に対応する部分モデル画像を作成することを特徴とする請求項4記載の画像処理装置。
The database unit stores in advance the specular reflection parameter for each partial region as a constant specular reflection parameter in the partial region,
The image processing apparatus according to claim 4, wherein the image creation unit creates a partial model image corresponding to each partial captured image with a specular reflection parameter in the partial region being constant.
被写体の表面を複数に分割した部分領域ごとに反射パラメータを予め記憶しているデータベース部と、取得部と、モデル作成部と、選択部と、画像作成部と、決定部とを備える画像処理装置を用いて、被写体モデルの表面の反射パラメータを決定する画像処理方法であって、
前記取得部が、互いに異なる複数のカメラ視点から前記被写体を撮影した複数の被写体画像を取得するステップと、
前記モデル作成部が、前記複数の被写体画像から被写体の3次元モデルを作成するステップと、
前記選択部が、前記3次元モデルの表面を複数の表面領域に分割し、前記被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像を選択するステップと、
前記画像作成部が、前記データベース部から各部分領域の反射パラメータを読み出し、読み出した反射パラメータと前記複数の被写体画像が撮影された照明条件とを用いて、各部分撮影画像に対応する部分モデル画像を作成するステップと、
前記決定部が、前記表面領域ごとに前記部分撮影画像に対する前記部分モデル画像の適合度を算出し、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定するステップとを含むことを特徴とする画像処理方法。
An image processing apparatus including a database unit that stores reflection parameters in advance for each partial region obtained by dividing the surface of a subject, an acquisition unit, a model creation unit, a selection unit, an image creation unit, and a determination unit An image processing method for determining a reflection parameter of a surface of a subject model using
The obtaining unit obtaining a plurality of subject images obtained by photographing the subject from a plurality of different camera viewpoints;
The model creating unit creating a three-dimensional model of a subject from the plurality of subject images;
The selection unit dividing the surface of the three-dimensional model into a plurality of surface regions, and selecting a partial captured image of a corresponding region corresponding to each surface region for each subject image;
The image creation unit reads reflection parameters of each partial region from the database unit, and uses the read reflection parameters and the illumination conditions under which the plurality of subject images are captured, and the partial model image corresponding to each partial captured image The steps of creating
The determination unit calculates the degree of matching of the partial model image with respect to the partial captured image for each surface area, and the reflection parameter of the partial area corresponding to the partial model image having the highest degree of matching is used as the reflection parameter of each surface area. And a determining step.
被写体モデルの表面の反射パラメータを決定するための画像処理プログラムであって、
被写体の表面を複数に分割した部分領域ごとに反射パラメータを予め記憶しているデータベース部と、
互いに異なる複数のカメラ視点から前記被写体を撮影した複数の被写体画像を取得する取得部と、
前記複数の被写体画像から被写体の3次元モデルを作成するモデル作成部と、
前記3次元モデルの表面を複数の表面領域に分割し、前記被写体画像ごとに各表面領域に対応する対応領域の部分撮影画像を選択する選択部と、
前記データベース部から各部分領域の反射パラメータを読み出し、読み出した反射パラメータと前記複数の被写体画像が撮影された照明条件とを用いて、各部分撮影画像に対応する部分モデル画像を作成する画像作成部と、
前記表面領域ごとに前記部分撮影画像に対する前記部分モデル画像の適合度を算出し、適合度が最も高い部分モデル画像に対応する部分領域の反射パラメータを各表面領域の反射パラメータとして決定する決定部としてコンピュータを機能させることを特徴とする画像処理プログラム。
An image processing program for determining a reflection parameter of a surface of a subject model,
A database unit that stores a reflection parameter in advance for each partial region obtained by dividing the surface of the subject into a plurality of parts;
An acquisition unit that acquires a plurality of subject images obtained by photographing the subject from a plurality of different camera viewpoints;
A model creation unit for creating a three-dimensional model of a subject from the plurality of subject images;
A selection unit that divides the surface of the three-dimensional model into a plurality of surface regions and selects a partial captured image of a corresponding region corresponding to each surface region for each of the subject images;
An image creation unit that reads reflection parameters of each partial region from the database unit and creates partial model images corresponding to the partial captured images using the read reflection parameters and illumination conditions under which the plurality of subject images are captured. When,
As a determination unit that calculates the degree of matching of the partial model image with respect to the partial captured image for each surface area, and determines the reflection parameter of the partial area corresponding to the partial model image with the highest degree of matching as the reflection parameter of each surface area An image processing program for causing a computer to function.
JP2007041867A 2007-02-22 2007-02-22 Image processor, image processing method and image processing program Pending JP2008204318A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007041867A JP2008204318A (en) 2007-02-22 2007-02-22 Image processor, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007041867A JP2008204318A (en) 2007-02-22 2007-02-22 Image processor, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2008204318A true JP2008204318A (en) 2008-09-04

Family

ID=39781741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007041867A Pending JP2008204318A (en) 2007-02-22 2007-02-22 Image processor, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2008204318A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013254233A (en) * 2012-06-05 2013-12-19 Dainippon Printing Co Ltd Texture mapping device, texture mapping method, program
JP2014164615A (en) * 2013-02-26 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> Shading information derivation device, shading information derivation method, and program
JP2015515350A (en) * 2012-04-26 2015-05-28 ビジョン アールティ リミテッド 3D camera system
US9948865B2 (en) 2014-09-29 2018-04-17 Olympus Corporation Image processing apparatus, imaging device, and image processing method
CN110573834A (en) * 2017-09-08 2019-12-13 株式会社小松制作所 Construction management device and construction management method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015515350A (en) * 2012-04-26 2015-05-28 ビジョン アールティ リミテッド 3D camera system
JP2013254233A (en) * 2012-06-05 2013-12-19 Dainippon Printing Co Ltd Texture mapping device, texture mapping method, program
JP2014164615A (en) * 2013-02-26 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> Shading information derivation device, shading information derivation method, and program
US9948865B2 (en) 2014-09-29 2018-04-17 Olympus Corporation Image processing apparatus, imaging device, and image processing method
CN110573834A (en) * 2017-09-08 2019-12-13 株式会社小松制作所 Construction management device and construction management method

Similar Documents

Publication Publication Date Title
US11410320B2 (en) Image processing method, apparatus, and storage medium
JP6493395B2 (en) Image processing apparatus and image processing method
CN110998659B (en) Image processing system, image processing method, and program
JP4392507B2 (en) 3D surface generation method
US20180012411A1 (en) Augmented Reality Methods and Devices
JP6685827B2 (en) Image processing apparatus, image processing method and program
JP4284664B2 (en) Three-dimensional shape estimation system and image generation system
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP2001506384A (en) Apparatus and method for three-dimensional surface shape reconstruction
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
EP2294555A1 (en) Three dimensional mesh modeling
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
JP2016537901A (en) Light field processing method
US20200057778A1 (en) Depth image pose search with a bootstrapped-created database
WO2020152927A1 (en) Training data generation method, training data generation device, and inference processing method
US10163250B2 (en) Arbitrary view generation
JP2008204318A (en) Image processor, image processing method and image processing program
JP2004280776A (en) Method for determining shape of object in image
CN107437268A (en) Photographic method, device, mobile terminal and computer-readable storage medium
WO2020151078A1 (en) Three-dimensional reconstruction method and apparatus
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
JP2006072805A (en) Three-dimensional model display device and program
CN109166176B (en) Three-dimensional face image generation method and device
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP2014164497A (en) Information processor, image processing method and program