JP2023032793A - Texture acquisition system, texture acquisition device and texture acquisition program - Google Patents

Texture acquisition system, texture acquisition device and texture acquisition program Download PDF

Info

Publication number
JP2023032793A
JP2023032793A JP2021139107A JP2021139107A JP2023032793A JP 2023032793 A JP2023032793 A JP 2023032793A JP 2021139107 A JP2021139107 A JP 2021139107A JP 2021139107 A JP2021139107 A JP 2021139107A JP 2023032793 A JP2023032793 A JP 2023032793A
Authority
JP
Japan
Prior art keywords
subject
information
polarized
illumination
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021139107A
Other languages
Japanese (ja)
Inventor
秀樹 三ツ峰
Hideki Mitsumine
淳 洗井
Jun Arai
俊枝 三須
Toshie Misu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2021139107A priority Critical patent/JP2023032793A/en
Publication of JP2023032793A publication Critical patent/JP2023032793A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Generation (AREA)

Abstract

To acquire detailed information of a three-dimensional model necessary for photorealistic CG rendering capable of expressing the texture of the surface of a subject in real time.SOLUTION: A texture acquisition device 1 of a texture acquisition system 1000 comprises: a subject shape acquisition unit 120 that acquires shape information of a subject from a depth measurement device 20; a reflection component separation unit 141 that separates reflected light from the subject irradiated with polarized light of multiple wavelengths into a diffuse reflection component and a specular reflection component; a diffuse reflection calculator 142 that calculates a diffuse reflection coefficient and normal information using the diffuse reflection component; a specular reflection calculation unit that calculates the roughness and reflectance of the surface of the object using a predetermined specular reflection model, and calculates a refractive index using the Fresnel equation; and a three-dimensional model detailed information output unit 150 that outputs the calculated information as three-dimensional model detailed information.SELECTED DRAWING: Figure 1

Description

本発明は、コンピュータグラフィックス(CG)において扱う素材データである被写体情報として、形状や質感などを取得する、質感取得システム、質感取得装置および質感取得プログラムに関する。 The present invention relates to a texture acquisition system, a texture acquisition device, and a texture acquisition program for acquiring shape, texture, and the like as object information, which is material data handled in computer graphics (CG).

近年のAR(Augmented Reality)/VR(Virtual Reality)技術の普及により、実世界の被写体をCG技術などで扱える被写体情報(以下、「3次元モデル」と称する場合がある。)に変換するニーズが高まっている。これは一般的にヴォリュメトリックキャプチャと呼ばれる技術で、被写体を取り囲むように配置されたカメラや奥行き計測装置により被写体全体の表面模様や形状を取得する(非特許文献1,2参照)。 With the recent spread of AR (Augmented Reality) / VR (Virtual Reality) technology, there is a need to convert real-world subjects into subject information (hereinafter sometimes referred to as "three-dimensional models") that can be handled by CG technology. rising. This is a technique generally called volumetric capture, in which the surface pattern and shape of the entire subject are acquired by cameras and depth measuring devices arranged to surround the subject (see Non-Patent Documents 1 and 2).

従来のヴォリュメトリックキャプチャでは、特に撮影後に照明条件を変更するなどの必要がある場合においては、フラットな照明環境下に被写体を配置し撮影するなどの工夫を行うことで、被写体表面に一様に照明を当て、陰影なく撮影している。これは被写体の反射率を直接計測できないことから、疑似的に照明が被写体表面への入射光量を一様にするとともに指向性を有しないような照明効果とした状態で撮影することで、被写体への各部位への入射光量を正規化し、得られる撮影映像上の輝度を疑似的に拡散反射係数として扱えるようにするものである。これにより、レンダリング時に疑似的にシェーディング(陰影)を付加することで仮想空間における照明条件で見込まれるような3次元モデルの見え方を表現している。 With conventional volumetric capture, especially when it is necessary to change the lighting conditions after shooting, it is possible to create a uniform image on the surface of the subject by taking measures such as arranging the subject under a flat lighting environment. The subject is illuminated and shot without shadows. Since it is not possible to directly measure the reflectance of the subject, the amount of light incident on the surface of the subject is made uniform and the lighting effect is non-directional. In this method, the amount of light incident on each part of the image is normalized, and the luminance on the obtained photographed image can be treated as a pseudo diffuse reflection coefficient. As a result, pseudo shading is added at the time of rendering to express the appearance of the three-dimensional model as expected under the lighting conditions in the virtual space.

O. Schreer, et al., “Capture and 3D Video Processing of Volumetric Video,”2019 IEEE International Conference on Image Processing (ICIP), Taipei, Taiwan, 2019, pp. 4310-4314.O. Schreer, et al., “Capture and 3D Video Processing of Volumetric Video,” 2019 IEEE International Conference on Image Processing (ICIP), Taipei, Taiwan, 2019, pp. 4310-4314. O. Schreer, et al.,“ADVANCED VOLUMETRIC CAPTURE AND PROCESSING,” [online],IBC2018,[令和3年7月1日検索],インターネット<URL:https://www.ibc.org/download?ac=6559>O. Schreer, et al., “ADVANCED VOLUMETRIC CAPTURE AND PROCESSING,” [online], IBC2018, [searched July 1, 2021], Internet <URL: https://www.ibc.org/download? ac=6559>

しかしながら、従来のヴォリュメトリックキャプチャ技術を用いた手法では、反射光の拡散反射光成分を疑似的に求めている。また、鏡面反射光成分については、扱われていないか、手動により被写体全体で一様あるいは被写体の部位ごとに鏡面反射係数を設定している。手動で係数(鏡面反射係数)を付与する場合に、被写体が非剛体で時間的に変化するようなときでは、被写体の各部位ごとに係数を付与するのは多大な労力がかかるため現実的には困難であり、特にライブ映像に対応させることはさらに困難となる。 However, in the method using the conventional volumetric capture technology, the diffuse reflected light component of the reflected light is obtained in a pseudo manner. Also, the specular reflection light component is not handled, or the specular reflection coefficient is manually set uniformly over the entire subject or for each part of the subject. When assigning coefficients (specular reflection coefficients) manually, when the subject is non-rigid and changes over time, assigning coefficients to each part of the subject takes a lot of effort, so it is not realistic. is difficult, and it is even more difficult to adapt to live video.

また、被写体表面を微視的に観察すると、多くの被写体表面で細かな凹凸があることから、照明をあてた際の見え方が大きく異なる。被写体表面の凹凸は、ツヤや手触り感などの見た目、つまり質感の印象に大きく影響を与える要素である。そのため、この質感をだすためには、被写体の各部位単位もしくは撮影画素の画素単位以下の細かい単位で鏡面反射の振る舞いを記述する必要があるが、現状では表現できていない。 Further, when observing the surface of an object microscopically, the surface of many objects has fine unevenness, and therefore the appearance of the object is greatly different when illuminated. The unevenness of the surface of the subject is a factor that greatly affects the appearance, such as gloss and texture, that is, the impression of texture. Therefore, in order to create this texture, it is necessary to describe the behavior of the specular reflection in units of parts of the subject or in units smaller than the pixel unit of the imaged pixels, but this cannot be expressed at present.

ARアプリケーションにおいては、取得した被写体情報をコンテンツとして利用する場合、被写体情報をもとにCG技術でレンダリングし実空間にARグラスなどにより重畳する。その際、実空間の照明条件に整合していなければ違和感を生じさせる映像となる。さらに、実空間の照明は、複雑な分光特性を有している一方で、一般的なCGモデルの表面模様はRGB3色分光で表現されていることから、整合させることは困難であり、不自然な合成映像となることがある。 In an AR application, when using the obtained subject information as content, rendering is performed using CG technology based on the subject information and superimposed on the real space using AR glasses or the like. At that time, if the lighting conditions do not match the real space, the image will give a sense of discomfort. Furthermore, while lighting in real space has complex spectral characteristics, the surface pattern of a general CG model is represented by RGB three-color spectrum, which makes matching difficult and unnatural. may result in a composite image.

これらの要因は、AR/VRにおいて複数の被写体情報を一つのシーンに同時に配置して描画した際に、それぞれの被写体で環境を整合させることを困難にする。そのため、ARのように実空間と仮想空間の環境不整合による違和感だけでなく、仮想空間の被写体同士でも違和感を生じることになり、没入感や臨場感などにも悪影響を与える。 These factors make it difficult to match the environment of each object when a plurality of pieces of object information are arranged and rendered simultaneously in one scene in AR/VR. As a result, not only discomfort due to the environment mismatch between the real space and the virtual space, as in AR, but also discomfort occurs between subjects in the virtual space, which adversely affects the sense of immersion and presence.

本発明は、以上のような点を鑑みてなされたものであり、被写体表面の質感を表現できるフォトリアルなCGレンダリングに必要となる3次元モデルの詳細情報を、リアルタイムに取得することができる、質感取得システム、質感取得装置および質感取得プログラムを提供することを課題とする。 The present invention has been made in view of the above points, and enables real-time acquisition of detailed information of a three-dimensional model that is necessary for photorealistic CG rendering that can express the texture of the surface of an object. An object of the present invention is to provide a texture acquisition system, a texture acquisition device, and a texture acquisition program.

前記課題を解決するために、本発明の質感取得システムは、被写体を取り囲んで配置される、奥行き計測装置、偏光照明装置および偏光撮影装置を有する撮影ブースと、奥行き計測装置、偏光照明装置および偏光撮影装置に通信接続され、被写体表面の凹凸の状態で示される質感を取得する質感取得装置と、を備える構成とした。
また、質感取得装置は、記憶部と、被写体形状取得部と、計測制御部と、反射成分分離部と、拡散反射算出部と、鏡面反射算出部と、3次元モデル詳細情報出力部とを備える構成とした。
In order to solve the above-mentioned problems, the texture acquisition system of the present invention includes: a photographing booth having a depth measuring device, a polarized lighting device, and a polarized photographing device; a texture acquisition device that is communicatively connected to the photographing device and that acquires the texture indicated by the unevenness of the surface of the object.
Also, the texture acquisition device includes a storage unit, a subject shape acquisition unit, a measurement control unit, a reflection component separation unit, a diffuse reflection calculation unit, a specular reflection calculation unit, and a three-dimensional model detailed information output unit. It was configured.

かかる構成によれば、質感取得装置は、被写体形状取得部によって、奥行き計測装置が計測した奥行きの情報を受信することにより、前記被写体の形状情報を取得し、計測制御部によって、複数波長の偏向光を偏光照明装置が被写体に照射する制御を行い、反射成分分離部が複数波長の偏向光それぞれが照射された被写体からの反射光を偏光撮影装置が撮影した情報として取得し、反射光を拡散反射成分と鏡面反射成分とに分離することができる。
これにより、質感取得システムの質感取得装置は、被写体に照射した、複数波長の偏向光それぞれの反射光について、拡散反射成分と鏡面反射成分とに分離することができる。
According to this configuration, the texture acquisition device acquires the shape information of the subject by receiving the depth information measured by the depth measurement device by the subject shape acquisition unit, and the measurement control unit detects the deflection of the plurality of wavelengths. The polarized lighting device controls the irradiation of the light onto the subject, and the reflection component separation unit acquires the reflected light from the subject irradiated with the polarized light of multiple wavelengths as information captured by the polarized imaging device, and diffuses the reflected light. It can be separated into reflective and specular components.
As a result, the texture acquisition device of the texture acquisition system can separate the reflected light of each of the polarized lights of a plurality of wavelengths irradiated onto the subject into diffuse reflection components and specular reflection components.

また、質感取得装置は、拡散反射算出部によって、3方向に配置された偏光照明装置が複数波長の偏向光それぞれを被写体に照射することにより偏光撮影装置が撮影した反射光について、反射成分分離部により分離された拡散反射成分と、偏光照明装置の照明位置および照明強度とを、ランバートの余弦則に適用し、被写体の拡散反射係数および法線情報を算出することができる。
これにより、質感取得システムの質感取得装置は、鏡面反射成分を除いた拡散反射成分のみにより、被写体の拡散反射係数および法線情報を算出できるため、反射光の分離を行わない場合に比べ、より正確に拡散反射係数および法線情報を取得することができる。
In addition, the texture acquisition device uses the diffuse reflection calculation unit to irradiate the object with polarized light of a plurality of wavelengths from the polarized lighting devices arranged in three directions, and the reflected light captured by the polarization imaging device is analyzed by the reflected light component separating unit. Lambert's cosine law can be applied to the diffuse reflection component separated by and the illumination position and illumination intensity of the polarized illumination device to calculate the diffuse reflection coefficient and normal information of the object.
As a result, the texture acquisition device of the texture acquisition system can calculate the diffuse reflection coefficient and normal line information of the subject using only the diffuse reflection component excluding the specular reflection component. Diffuse reflection coefficient and normal information can be obtained accurately.

また、質感取得装置は、鏡面反射算出部によって、複数波長の偏向光それぞれについて反射成分分離部により分離された鏡面反射成分、偏光照明装置の照明位置、偏光撮影装置のカメラ位置、および、算出された法線情報を、所定の鏡面反射モデルに適用し、その鏡面反射モデルにより得られる法線分布関数が最大値に対して半値となる角度を、被写体表面の粗さのパラメータとして算出するとともに、偏光照明装置の照明位置、偏光撮影装置のカメラ位置、法線情報、法線分布関数を、所定の鏡面反射モデルに適用し、複数波長の偏向光のp波およびs波それぞれにおける被写体の反射率を算出し、算出した反射率を、屈折率が異なる媒質中の反射に関するフレネルの式に適用することにより被写体の屈折率を算出することができる。
これにより、質感取得システムの質感取得装置は、被写体表面の詳細な法線分布の状況を示すパラメータとして粗さを算出できるとともに、波長ごとにp波、s波それぞれにおける被写体の反射率と、被写体の屈折率を算出することができる。
In addition, the texture acquisition device includes the specular reflection components separated by the reflection component separation unit for each of the polarized lights of a plurality of wavelengths, the illumination position of the polarization illumination device, the camera position of the polarization imaging device, and the calculated The obtained normal information is applied to a predetermined specular reflection model, and the angle at which the normal distribution function obtained by the specular reflection model has a half value of the maximum value is calculated as a parameter of the surface roughness of the subject, Applying the illumination position of the polarizing illumination device, the camera position of the polarizing imaging device, the normal information, and the normal distribution function to a predetermined specular reflection model, the reflectance of the object for each of the p-wave and s-wave polarized light of multiple wavelengths is calculated. is calculated, and the calculated reflectance is applied to Fresnel's equation regarding reflection in media having different refractive indices, whereby the refractive index of the object can be calculated.
As a result, the texture acquisition device of the texture acquisition system can calculate the roughness as a parameter that indicates the detailed normal distribution of the surface of the object, and also calculate the reflectance of the object for each of the p-wave and s-wave for each wavelength, and can be calculated.

また、質感取得装置は、3次元モデル詳細情報出力部によって、算出された、拡散反射係数、法線情報、被写体表面の粗さ、反射率、屈折率のうちのいずれかを含む情報を、その情報を算出するために偏光撮影装置が撮影した時刻に合わせて3次元モデル詳細情報として出力することができる。
これにより、質感取得システムの質感取得装置は、3次元モデルのより詳細な情報を、例えば外部装置等にリアルタイムに出力することができる。
In addition, the texture acquisition device outputs information including any one of the diffuse reflection coefficient, normal line information, surface roughness of the subject, reflectance, and refractive index calculated by the three-dimensional model detailed information output unit. In order to calculate the information, it is possible to output as three-dimensional model detailed information in accordance with the time when the polarization photographing device takes the photograph.
As a result, the texture acquisition device of the texture acquisition system can output more detailed information of the three-dimensional model to, for example, an external device in real time.

本発明によれば、被写体表面の質感を表現できるフォトリアルなCGレンダリングに必要となる3次元モデルの詳細情報を、リアルタイムに取得する、質感取得システム、質感取得装置および質感取得プログラムを提供することができる。 According to the present invention, there is provided a texture acquisition system, a texture acquisition device, and a texture acquisition program for acquiring detailed information of a three-dimensional model necessary for photorealistic CG rendering capable of expressing the texture of the surface of an object in real time. can be done.

本実施形態に係る質感取得装置を含む質感取得システムの全体構成を示す機能ブロック図である。1 is a functional block diagram showing the overall configuration of a texture acquisition system including a texture acquisition device according to this embodiment; FIG. 本実施形態の質感取得装置による質感取得処理に関する説明図である。FIG. 4 is an explanatory diagram relating to texture acquisition processing by the texture acquisition device of the present embodiment; 本実施形態の撮影ブースを、正8面体で構成する例を示す説明図である。It is explanatory drawing which shows the example which comprises a photography booth of this embodiment by a regular octahedron. 本実施形態に係る偏光照明装置における照明パターンの一例を示す図である。It is a figure which shows an example of the illumination pattern in the polarization|polarized-light illumination device which concerns on this embodiment. 本実施形態に係る偏光撮影装置のカメラ撮像板のRGBベイヤ配列を示す説明図である。It is an explanatory view showing the RGB Bayer arrangement of the camera imaging plate of the polarization imaging device according to the present embodiment. 本実施形態における反射光の拡散反射成分と鏡面反射成分の分離に関する説明図である。FIG. 4 is an explanatory diagram for separating a diffuse reflection component and a specular reflection component of reflected light according to the embodiment; 本実施形態におけるランバートの余弦則に関する説明図である。FIG. 3 is an explanatory diagram relating to Lambert's cosine law in the present embodiment; 本実施形態におけるランバートの余弦則に基づく、拡散反射係数および法線情報の算出に関する説明図である。FIG. 4 is an explanatory diagram relating to calculation of a diffuse reflection coefficient and normal information based on Lambert's cosine law in the present embodiment; 本実施形態におけるランバートの余弦則に基づく、拡散反射係数および法線情報の算出に関する説明図である。FIG. 4 is an explanatory diagram relating to calculation of a diffuse reflection coefficient and normal information based on Lambert's cosine law in the present embodiment; 本実施形態における鏡面反射に関する反射モデルの説明図である。FIG. 4 is an explanatory diagram of a reflection model regarding specular reflection in this embodiment; 本実施形態における被写体表面での反射および屈折に関する説明図である。FIG. 4 is an explanatory diagram relating to reflection and refraction on the surface of an object in this embodiment; 本実施形態の撮影ブースをマルチスペクトル照明およびマルチスペクトルカメラで構成する一例を示す図である。It is a figure which shows an example which comprises a photography booth of this embodiment by a multispectral illuminator and a multispectral camera. 本実施形態の撮影ブースをマルチスペクトル照明およびマルチスペクトルカメラで構成する一例を示す図である。It is a figure which shows an example which comprises a photography booth of this embodiment by a multispectral illuminator and a multispectral camera. 本実施形態に係る3次元モデル詳細情報出力部の変形例に関する説明図である。FIG. 11 is an explanatory diagram relating to a modification of the three-dimensional model detailed information output unit according to the present embodiment; 本実施形態に係る質感取得装置の処理の流れを示すフローチャートである。5 is a flow chart showing the flow of processing of the texture acquisition device according to the present embodiment; 本実施形態における拡散反射成分のみによる、拡散反射係数および法線情報の算出結果を示す図である。FIG. 5 is a diagram showing calculation results of a diffuse reflection coefficient and normal vector information using only a diffuse reflection component in the embodiment;

以下、本発明を実施するための形態(以下、「実施形態」と称する。)について図面を参照して説明する。
まず、図1を参照して、質感取得装置1を含む質感取得システム1000の概要を先に説明し、その後各構成について説明する。
EMBODIMENT OF THE INVENTION Hereafter, the form (it is called "embodiment" hereafter) for implementing this invention is demonstrated with reference to drawings.
First, with reference to FIG. 1, an outline of a texture acquisition system 1000 including the texture acquisition device 1 will be described first, and then each configuration will be described.

質感取得システム1000は、図1に示すように、被写体を撮影する撮影ブースBHに配置される、奥行き計測装置20、偏光照明装置30および偏光撮影装置40と、その奥行き計測装置20、偏光照明装置30および偏光撮影装置40に通信接続される質感取得装置1とを備えている。なお、質感取得装置1は、ネットワーク等を介して1つ以上の外部装置5と通信接続される。 As shown in FIG. 1, the texture acquisition system 1000 includes a depth measuring device 20, a polarized lighting device 30, and a polarized lighting device 40, and the depth measuring device 20 and the polarized lighting device, which are arranged in a photography booth BH for photographing a subject. 30 and a texture acquisition device 1 that is communicatively connected to the polarizing imaging device 40 . The texture acquisition device 1 is connected for communication with one or more external devices 5 via a network or the like.

本実施形態に係る質感取得装置1は、AR/VRに利用する被写体情報(3次元モデル)の計測や、3次元テレビにおける被写体情報のキャプチャ手法として有用なものであり、被写体の質感を取得する処理(以下、「質感取得処理」と称する。)として、(1)拡散反射成分・鏡面反射成分の分離処理、(2)拡散反射成分を用いた、拡散反射係数および法線情報の算出処理、(3)鏡面反射成分を用いた、被写体表面の「粗さ」および鏡面反射係数(本実施形態では、「被写体の屈折率」として算出)の算出処理(以下「粗さおよび屈折率算出処理」と称する。)、を実現する。 The texture acquisition device 1 according to the present embodiment is useful as a method for measuring subject information (three-dimensional model) used in AR/VR and capturing subject information in three-dimensional television, and acquires the texture of a subject. The processing (hereinafter referred to as "texture acquisition processing") includes (1) processing for separating diffuse reflection components and specular reflection components, (2) processing for calculating diffuse reflection coefficients and normal information using the diffuse reflection components, (3) Calculation processing of the “roughness” of the surface of the subject and the specular reflection coefficient (calculated as “refractive index of the subject” in this embodiment) using the specular reflection component (hereinafter “roughness and refractive index calculation processing” ), is realized.

(1)拡散反射成分・鏡面反射成分の分離処理において、質感取得装置1は、図2で示すように、偏光照明装置30から偏光照明(例えば、赤(R:Red)照明、緑(G:Green)照明、青(B:Blue)照明)による偏向光(照明光)を被写体Sに照射する。そして、照射された被写体Sの反射光を、例えば、偏光方向0度、45度、90度、135度それそれで選択的に透過する偏光撮影装置40で撮影する(後記する図5,図6参照)。撮影画像Pは、光源が映り込んだようなハイライトとして映る鏡面反射成分Isと、被写体内部に侵入した入射光が物体の色成分を吸収して拡散する拡散反射成分Idとを合わせた画像となる。質感取得装置1では、偏向光の被写体表面での反射挙動の違いを利用し、拡散反射成分Idと鏡面反射成分Isを分離する(詳細は後記)。 (1) In the process of separating the diffuse reflection component and the specular reflection component, the texture acquisition device 1, as shown in FIG. The subject S is irradiated with polarized light (illumination light) by the green (B) illumination and the blue (B) illumination. Then, the reflected light from the irradiated object S is photographed by a polarizing photographing device 40 that selectively transmits the polarized light of 0, 45, 90, and 135 degrees (see FIGS. 5 and 6 to be described later). ). The photographed image P is a combination of the specular reflection component I s that appears as a highlight that looks like the light source is reflected, and the diffuse reflection component I d that is diffused by the incident light entering the subject that absorbs the color components of the object. becomes an image. The texture acquisition device 1 separates the diffuse reflection component I d and the specular reflection component I s by using the difference in the reflection behavior of the polarized light on the object surface (details will be described later).

(2)拡散反射係数および法線情報の算出処理では、質感取得装置1は、分離された拡散反射成分Idを用いて、波長ごとの被写体表面の法線情報N(法線ベクトルN)と、拡散反射係数Kdとを算出する(図2参照)。本実施形態では、各波長(例えば、赤、緑、青)ごとに、照度差ステレオの手法を用いて3方向からの反射光を観測し、被写体表面の面法線ベクトルと拡散反射係数Kdとを算出する(詳細は後記)。 (2) In the diffuse reflection coefficient and normal information calculation process, the texture acquisition apparatus 1 uses the separated diffuse reflection component I d to obtain the normal information N (normal vector N) of the surface of the object for each wavelength and , diffuse reflection coefficient K d (see FIG. 2). In this embodiment, for each wavelength (for example, red, green, and blue), reflected light from three directions is observed using a method of photometric stereo, and the surface normal vector of the object surface and the diffuse reflection coefficient K d and are calculated (details will be described later).

(3)粗さおよび屈折率算出処理では、質感取得装置1は、分離された鏡面反射成分Isを用いて、被写体表面の粗さγと、被写体の屈折率njを算出する。質感取得装置1は、鏡面反射係数Ksについて、波長依存を考慮しない単一のパラメータとして求めることも可能である。しかしながら、フレネル反射を考慮した場合、鏡面反射係数Ksは入射角度の依存性があるとともに、厳密にはp波、s波で異なる振る舞いをするため、本実施形態においては、反射の傾向を示す情報として、波長帯ごとの被写体の屈折率njを算出するものとする。この他にも、後記する参考文献3で示される、Schlickらが提案したフレネル係数近似式のRo(法線に平行に入射する光の反射係数)等として求めることで、フレネル反射や波長依存性、偏光を考慮した係数として求めることが可能である。 (3) In the roughness and refractive index calculation process, the texture acquisition apparatus 1 uses the separated specular reflection component I s to calculate the surface roughness γ of the subject and the refractive index n j of the subject. The texture acquisition device 1 can also obtain the specular reflection coefficient K s as a single parameter that does not consider wavelength dependence. However, when Fresnel reflection is taken into account, the specular reflection coefficient K s depends on the angle of incidence and, strictly speaking, behaves differently for p-waves and s-waves. As information, the refractive index n j of the subject for each wavelength band is calculated. In addition, Fresnel reflection and wavelength dependence can be obtained by obtaining Ro (reflection coefficient of light incident parallel to the normal) of the Fresnel coefficient approximation formula proposed by Schlick et al. , can be obtained as a coefficient considering the polarization.

このように、質感取得装置1は、従来のヴォリュメトリックキャプチャ技術を用いた手法では取得できない、正確な被写体表面での拡散反射係数Kdや法線情報、被写体表面の凹凸の状態を示すパラメータである粗さγ、および、被写体の屈折率njを取得可能とする。そして、質感取得装置1は、このようにして取得した3次元モデルの詳細な情報(後記する「3次元モデル詳細情報」)を、CG描画装置などの外部装置5(図1参照)それぞれの性能(スペック)に応じて出力する。
以下、本実施形態に係る質感取得装置1を含む質感取得システム1000の詳細について説明する。
In this way, the texture acquisition apparatus 1 can obtain accurate diffuse reflection coefficient K d and normal information on the surface of the subject, parameters indicating the state of unevenness of the surface of the subject, which cannot be obtained by a method using conventional volumetric capture technology. and the refractive index n j of the subject. Then, the texture acquisition device 1 acquires detailed information of the three-dimensional model thus acquired (“three-dimensional model detailed information” to be described later), and the performance of each external device 5 (see FIG. 1) such as a CG rendering device. Output according to (spec).
Details of the texture acquisition system 1000 including the texture acquisition device 1 according to the present embodiment will be described below.

<質感取得装置の構成>
本実施形態に係る質感取得装置1は、一般的なコンピュータにより構成され、図1に示すように、制御部10と、入出力部11と、記憶部12とを備える。
入出力部11は、情報の送受信を行うための通信インタフェース、および、キーボード等の入力装置や、モニタ等の出力装置との間で情報の送受信を行うための入出力インタフェースからなる。
<Configuration of Texture Acquisition Device>
A texture acquisition device 1 according to the present embodiment is configured by a general computer, and includes a control unit 10, an input/output unit 11, and a storage unit 12, as shown in FIG.
The input/output unit 11 includes a communication interface for transmitting and receiving information, and an input/output interface for transmitting and receiving information to and from an input device such as a keyboard and an output device such as a monitor.

記憶部12は、フラッシュメモリやハードディスク、RAM(Random Access Memory)等により構成される。この記憶部12には、質感取得装置1による質感取得処理の初期設定情報200(詳細は後記)が格納される。
また、記憶部12には、制御部10の各機能を実行させるためのプログラム(質感取得プログラム)や、制御部10の処理に必要な情報が一時的に記憶される。
The storage unit 12 is configured by a flash memory, a hard disk, a RAM (Random Access Memory), or the like. Initial setting information 200 (details of which will be described later) for texture acquisition processing by the texture acquisition device 1 is stored in the storage unit 12 .
The storage unit 12 also temporarily stores a program (texture acquisition program) for executing each function of the control unit 10 and information necessary for processing of the control unit 10 .

制御部10は、質感取得装置1の制御全般を司り、図1に示すように、初期設定情報取得部110、被写体形状取得部120、計測制御部130、質感計算部140、3次元モデル詳細情報出力部150を含んで構成される。
この制御部10は、例えば、記憶部12に記憶されたプログラム(質感取得プログラム)を、図示を省略したCPU(Central Processing Unit)が、RAMに展開し実行することにより実現される。
The control unit 10 controls overall control of the texture acquisition device 1, and as shown in FIG. It is configured including an output unit 150 .
The control unit 10 is implemented, for example, by a CPU (Central Processing Unit) (not shown) expanding a program (texture acquisition program) stored in the storage unit 12 into a RAM and executing the program.

初期設定情報取得部110は、質感取得装置1が質感取得処理を実行するに際し、撮影ブースBHに設置した各装置の照明位置、配光特性、カメラ姿勢を含む情報を、初期設定情報200として予め取得し、記憶部12に記憶しておく。この初期設定情報取得部110が初期設定情報200を取得する一例を、図3を参照して説明する。
図3は、撮影ブースBHを、正8面体で構成する例を示している。奥行き計測装置20、偏光照明装置30および偏光撮影装置40は、被写体を取り囲んで配置されている。図3で示すように、正8面体の頂点に、各偏光照明装置30を点光源として配置する。また、奥行き計測装置20および偏光撮影装置40は、正8面体の中心に視線を向け、面中央に配置する。
When the texture acquisition device 1 executes texture acquisition processing, the initial setting information acquisition unit 110 preliminarily acquires information including the lighting position, light distribution characteristics, and camera orientation of each device installed in the photography booth BH as initial setting information 200. It is acquired and stored in the storage unit 12 . An example of how the initial setting information acquisition unit 110 acquires the initial setting information 200 will be described with reference to FIG.
FIG. 3 shows an example in which the photography booth BH is configured with a regular octahedron. The depth measuring device 20, the polarizing lighting device 30 and the polarizing imaging device 40 are arranged to surround the subject. As shown in FIG. 3, each polarized illumination device 30 is arranged as a point light source at the vertex of the regular octahedron. Also, the depth measuring device 20 and the polarizing device 40 are placed at the center of the plane with the line of sight directed to the center of the regular octahedron.

各光源(偏光照明装置30)が照射する波長帯および波長パターンは、計測制御部130によってクロストークが生じない組み合わせで複数設定する。なお、この組み合わせは、最低3種類であり、それ以上でも可能である(後記する図12,図13参照)。ここで、マルチスペクトル偏光光源とマルチスペクトル偏光カメラを用いることにより、3軸以上の設定が可能であるが、説明を簡単にするため、本実施形態では、原則としてR,G,Bの3波長とし、R,G,Bの各光源をXYZ各軸のプラスマイナス方向に設置したXYZ3軸で説明を行う。 A plurality of wavelength bands and wavelength patterns irradiated by each light source (polarized illumination device 30) are set by the measurement control unit 130 in a combination that does not cause crosstalk. The number of combinations is at least three, and more are possible (see FIGS. 12 and 13 to be described later). Here, by using a multispectral polarized light source and a multispectral polarized camera, it is possible to set three or more axes. , and the XYZ three axes in which the R, G, and B light sources are installed in the plus and minus directions of each XYZ axis will be described.

図3で示すように、各光源(偏光照明装置30)において、被写体の上下(例えば、G(緑))、前後(例えば、R(赤))、左右(例えば、B(青))から同じ波長帯の照明を照射する。つまり、複数波長の偏向光を偏光照明装置30から照射する。
本実施形態においては、奥行き計測装置20により、被写体形状が既知となり、事前の初期設定により照明位置も既知となる。よって、設置した照明に対する被写体表面の表裏の情報を取得することができ、プラスマイナス方向から同時に同じ波長帯もしくは波長パターンの照明光を照射可能とする。これは、XYZ軸において、プラス側マイナス側のいずれの照明がその部位に照射されているかの判別が可能なためである。
さらに、各光源(偏光照明装置30)と隣接するカメラそれぞれの位置関係は、正8面体内部に設置される撮影ブースの中心に対していずれも対象とする。これは、被写体表面の「粗さ」を求める際に、フレネル反射の考慮を無視できるようにするためであり、これにより未知数を減らした上で「粗さ」を導出可能にする(詳細は後記)。なお、正8面体は一例であり、これに限定されない。
As shown in FIG. 3, each light source (polarized illumination device 30) emits the same light from above and below (e.g., G (green)), front and back (e.g., R (red)), and left and right (e.g., B (blue)) of the subject. Irradiate the illumination of the wavelength band. In other words, polarized lights of multiple wavelengths are emitted from the polarized illumination device 30 .
In this embodiment, the depth measurement device 20 makes the shape of the object known, and also makes the lighting position known by initial setting in advance. Therefore, it is possible to obtain information on the front and back of the object surface with respect to the installed lighting, and it is possible to simultaneously irradiate illumination light of the same wavelength band or wavelength pattern from the plus and minus directions. This is because it is possible to determine which illumination on the XYZ axis is on the plus side or the minus side.
Furthermore, the positional relationship between each light source (polarized illumination device 30) and each adjacent camera is symmetrical with respect to the center of the photography booth installed inside the regular octahedron. This is to allow consideration of Fresnel reflections to be ignored when determining the "roughness" of the surface of the subject. ). Note that the regular octahedron is an example and is not limited to this.

なお、各光源を面光源(フラットパネルディスプレイ等)で構成することも可能であるが、本実施形態のように点光源とすることで、撮影ブースBHの設置対象範囲が広い場合でも、大規模なフラットパネルディスプレイを設置する必要がなく施工が容易となる。また、撮影ブースBHが面光源(フラットパネルディスプレイ)で囲まれるよりも、ディスプレイで被写体の周囲を囲まない点光源の方が、被写体の音声収録を容易に行うことができる。 Each light source can be composed of a surface light source (such as a flat panel display). Installation is easy because there is no need to install a flat panel display. In addition, a point light source that does not surround the subject with a display makes it easier to record the voice of the subject than a shooting booth BH that is surrounded by a surface light source (flat panel display).

初期設定情報取得部110は、各光源である偏光照明装置30が配置される照明位置(X,Y,Z座標)、空間上の各方向への光度等を測定した配光特性、奥行き計測装置20および偏光撮影装置40が配置されるカメラ位置(X,Y,Z座標)やカメラ姿勢(ロール・ピッチ・ヨー)の情報を、初期設定情報200としてシステム管理装置等から取得し、記憶部12に記憶する。
なお、撮影ブースBHの1箇所に配置される奥行き計測装置20と偏光撮影装置40との組は、同じカメラ位置であり同じカメラ姿勢であるものとする。
The initial setting information acquisition unit 110 acquires the illumination position (X, Y, Z coordinates) where the polarized illumination device 30 as each light source is arranged, the light distribution characteristics obtained by measuring the luminous intensity in each direction in the space, and the depth measurement device. 20 and the camera position (X, Y, Z coordinates) and the camera orientation (roll, pitch, yaw) where the polarizing imaging device 40 is arranged are acquired as the initial setting information 200 from the system management device or the like, and the storage unit 12 memorize to
It is assumed that the set of the depth measurement device 20 and the polarization photography device 40 arranged at one location in the photography booth BH has the same camera position and the same camera posture.

図1に戻り構成の説明をつづける。被写体形状取得部120は、計測制御部130を介して、撮影ブースBHに配置された各奥行き計測装置20に計測を実行させる指示情報を送信する。そして、被写体形状取得部120は、各奥行き計測装置20からの計測情報を受信することにより、(大まかな)被写体形状を取得する。
なお、奥行き計測装置20は、例えば、カメラから近赤外線を発光し、物体に反射して戻ってくるまでの時間を測定することで奥行きを算出するToF(Time of Flight)方式のカメラを用いることができる。
また、本実施形態で示す奥行き計測装置20を設置せず、被写体を取り囲むように設置したカメラ映像(例えば、偏光撮影装置40の映像)に対するステレオマッチングの形状計測手法を用いて、被写体全体の形状を取得するようにしてもよい。
Returning to FIG. 1, the description of the configuration is continued. The subject shape acquisition unit 120 transmits instruction information for executing measurement to each depth measurement device 20 arranged in the photography booth BH via the measurement control unit 130 . Then, the subject shape acquisition unit 120 acquires a (rough) subject shape by receiving measurement information from each depth measurement device 20 .
The depth measurement device 20 may use, for example, a ToF (Time of Flight) camera that calculates the depth by measuring the time it takes for near-infrared rays to be emitted from the camera, reflected by an object, and returned. can be done.
In addition, without installing the depth measurement device 20 shown in this embodiment, using a shape measurement method of stereo matching for a camera image (for example, the image of the polarization imaging device 40) installed so as to surround the subject, the shape of the entire subject may be obtained.

計測制御部130は、撮影ブースBHに配置された、奥行き計測装置20、偏光照明装置30および偏光撮影装置40に対し、被写体形状取得部120や質感計算部140と連携して、指示情報を送信することにより各装置を制御する。
具体的には、計測制御部130は、奥行き計測装置20に対して指示情報を送信することにより被写体形状の計測を実行させる。
The measurement control unit 130 cooperates with the subject shape acquisition unit 120 and the texture calculation unit 140 to transmit instruction information to the depth measurement device 20, the polarized illumination device 30, and the polarized photography device 40 placed in the photography booth BH. Each device is controlled by
Specifically, the measurement control unit 130 causes the depth measurement device 20 to measure the shape of the subject by transmitting instruction information.

また、計測制御部130は、質感計算部140が質感取得処理を実行する際に、偏光照明装置30に対し、例えば図4で示すような所定パターンの照明状態になるように制御する指示情報を送信する。図4は、計測する偏光撮影装置40がRGB分光の例であり、1シーケンスを6フレーム(図4(a)~図4(f))で構成し、偏光照明装置30による照明の波長帯、および、偏光方向を変えたパターンとする。ここでは、それぞれの照明が、隣接する照明の波長帯、および、偏光方向が同一とならないように点灯させることとし、時間推移に伴い順次R→G→Bと変更させ、偏光方向も0度と90度で変更させる。
例えば、正8面体の最上部に位置する偏光照明装置30は、図4(a)~図4(f)で示すように、波長帯がG→B→R→G→B→Rと変更し、偏光方向も90度→0度→90度→0度→90度→0度と変更される。
In addition, when the texture calculation unit 140 executes texture acquisition processing, the measurement control unit 130 provides instruction information to the polarized illumination device 30 so as to control the illumination state of a predetermined pattern as shown in FIG. 4, for example. Send. FIG. 4 is an example of RGB spectroscopy with the polarization imaging device 40 to be measured, one sequence is composed of 6 frames (FIGS. 4A to 4F), and the wavelength band of illumination by the polarization illumination device 30, And, the pattern is changed in polarization direction. Here, each illumination is lit so that the wavelength band and the polarization direction of the adjacent illumination are not the same, and is sequentially changed from R → G → B with the passage of time, and the polarization direction is also set to 0 degree. Change by 90 degrees.
For example, the polarized illumination device 30 positioned at the top of the regular octahedron changes the wavelength band from G→B→R→G→B→R as shown in FIGS. 4(a) to 4(f). , the polarization direction is also changed as follows: 90 degrees→0 degrees→90 degrees→0 degrees→90 degrees→0 degrees.

ここで、偏光方向を変更する理由は、被写体表面への照明光のp波(p偏光)の入射角度によっては、ブリュースター角となり、反射光が消失してしまう可能性があるためである。しかし、このブリュースター角となるのは、表面が粗くなく鏡面状態の場合にのみ生じる稀なケースである。そのため、用途上問題がなければ、偏光方向の時間推移に伴う変更は省略可能であり、1シーケンスを3フレームで構成することができる。この場合には、例えば、図4(a)→図4(c)→図4(e)のように、偏光方向は変えず、照明の波長帯だけをRGBの3パターンで変更すればよい。
なお、ブリュースター角での反射光の消失を考慮する場合は、偏光方向を順次変更した照明光を照射したした上で、消失した時間前後の情報により内挿することにより解決してもよいがこれに限定されない。
Here, the reason for changing the polarization direction is that depending on the angle of incidence of the p-wave (p-polarized light) of the illumination light on the surface of the object, the Brewster's angle may occur and the reflected light may disappear. However, this Brewster's angle is a rare case that occurs only when the surface is not rough and mirror-finished. Therefore, if there is no problem in terms of application, the change accompanying the time transition of the polarization direction can be omitted, and one sequence can be composed of three frames. In this case, for example, as shown in FIG. 4(a)→FIG. 4(c)→FIG. 4(e), only the wavelength band of the illumination may be changed by three patterns of RGB without changing the polarization direction.
When considering the disappearance of the reflected light at the Brewster angle, it may be solved by irradiating illumination light whose polarization direction is sequentially changed and interpolating information before and after the disappearance time. It is not limited to this.

また、計測制御部130は、質感計算部140が質感取得処理を実行し、偏光照明装置30による被写体への照明光の照射が行われることに対応して、偏光撮影装置40に反射光の撮影を実行する指示情報を送信する。 In addition, the measurement control unit 130 causes the polarization photographing device 40 to capture the reflected light in response to the texture calculation unit 140 executing the texture acquisition process and the polarization lighting device 30 irradiating the subject with illumination light. Sends instruction information to execute

偏光撮影装置40(ここでは、「偏光RGBカメラ」とする。)のカメラ撮像板は、例えば図5で示すように、RGBベイヤ配列となっている。さらに、RGBの各画素は、4分割の画素で構成され、それぞれ偏光方向0度、45度、90度、135度の成分を選択的に透過する画素となっている。なお、図5においては、斜線で示すハッチの方向が透過する偏向光成分の方向を示している。 A camera imaging plate of the polarization imaging device 40 (here, referred to as a “polarization RGB camera”) has an RGB Bayer arrangement as shown in FIG. 5, for example. Further, each pixel of RGB is composed of four divided pixels, which selectively transmit components of polarization directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees, respectively. In FIG. 5, the hatched direction indicates the direction of the transmitted polarized light component.

図1に戻り構成の説明をつづける。質感計算部140は、質感取得処理として、上記した、(1)拡散反射成分・鏡面反射成分の分離処理、(2)拡散反射成分を用いた、拡散反射係数および法線情報の算出処理、(3)鏡面反射成分を用いた、被写体表面の「粗さ」および被写体の屈折率の算出処理を実行する。この質感計算部140は、反射成分分離部141と、拡散反射算出部142と、鏡面反射算出部143とを備える。 Returning to FIG. 1, the description of the configuration is continued. As texture acquisition processing, the texture calculation unit 140 performs the above-described (1) diffuse reflection component/specular reflection component separation processing, (2) diffuse reflection coefficient and normal information calculation processing using the diffuse reflection component, ( 3) Perform processing for calculating the "roughness" of the object surface and the refractive index of the object using the specular reflection component. The texture calculation unit 140 includes a reflection component separation unit 141 , a diffuse reflection calculation unit 142 and a specular reflection calculation unit 143 .

反射成分分離部141は、反射光における拡散反射成分と鏡面反射成分の分離を行う。ここでは、偏光照明装置30を点光源とし、計測制御部130の制御により、RGBの3色照明として被写体に照射する例を図6で示す。その際、偏光撮影装置40を偏光RGBカメラ40aとし、この偏光RGBカメラ40aにより被写体を撮影する。
この偏光RGBカメラ40aのカメラ撮像板は、図6の符号101で示すように、RGBベイヤ配列となっており、さらに、RGBの各画素は、4分割の画素で構成され、それぞれ偏光方向0度,45度,90度,135度の成分を選択的に透過する画素となっている。なお、4分割の画素および偏光方向0度,45度,90度,135度は一例であり、これに限定されない。
The reflection component separating unit 141 separates the diffuse reflection component and the specular reflection component in the reflected light. Here, FIG. 6 shows an example in which the polarized illumination device 30 is used as a point light source, and the subject is illuminated with RGB three-color illumination under the control of the measurement control unit 130 . At that time, the polarized RGB camera 40a is used as the polarized light photographing device 40, and the object is photographed by the polarized RGB camera 40a.
The camera imaging plate of this polarized RGB camera 40a has an RGB Bayer array, as indicated by reference numeral 101 in FIG. , 45 degrees, 90 degrees, and 135 degrees are selectively transmitted. Note that the 4-divided pixels and the polarization directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees are just examples, and the present invention is not limited to these.

観測される輝度Iは、二色性反射モデルに基づき、次の式(1)により表される。なお、二色性反射モデルは、反射光のスペクトルは拡散反射成分と鏡面反射成分のスペクトルの線形和で表すことができる、というものである。 The observed brightness I is represented by the following equation (1) based on the dichroic reflection model. The dichroic reflection model states that the spectrum of reflected light can be represented by a linear sum of the spectra of the diffuse reflection component and the specular reflection component.

I=Id +a(1+cos(2Θ-β)) ・・・式(1)
ここで、Id は、拡散反射成分、a(1+cos(2Θ-β))が、鏡面反射成分Isを表す。また、aは、振幅を示し、Θは画素の偏光方向を示す。βは位相である。
I=I d +a(1+cos(2Θ-β)) Equation (1)
Here, I d represents the diffuse reflection component and a(1+cos(2Θ−β)) represents the specular reflection component I s . Also, a indicates the amplitude, and Θ indicates the polarization direction of the pixel. β is the phase.

偏光方向0度,45度,90度,135度の画素で得られた輝度値(それぞれ、I0 ,I45 ,I90,I135とする。)は、図6で示すように、その平均値Iaveに対して正弦波で表される挙動を示すが、偏光角度の倍角で正弦波となる。そこで、三角関数の公式sin(θ-β)+cos(θ-β)=1(βは位相を考慮)を用いて、例えば、I0 +I45 =a(aは三角関数の振幅)となる。これにより、振幅aを算出することができる。また、観測された輝度Iの最小値Iminが拡散反射成分Idであり、振幅aの2倍である2aが鏡面反射成分Isとなる。
このようにして、反射成分分離部141は、反射光の拡散反射成分Idと、鏡面反射成分Isとを分離することができる。
The luminance values obtained from pixels with polarization directions of 0, 45, 90, and 135 degrees (I 0 , I 45 , I 90 , and I 135 , respectively) are averaged as shown in FIG. It exhibits sinusoidal behavior with respect to the value I ave , but becomes sinusoidal at double the polarization angle. Therefore, using the trigonometric function formula sin(θ−β) 2 +cos(θ−β) 2 =1 (β considers the phase), for example, I 0 2 +I 45 2 =a (a is the amplitude of the trigonometric function ). Thereby, the amplitude a can be calculated. The minimum value I min of the observed brightness I is the diffuse reflection component I d , and 2a, which is twice the amplitude a, is the specular reflection component I s .
In this way, the reflection component separating section 141 can separate the diffuse reflection component I d and the specular reflection component I s of the reflected light.

なお、反射成分分離部141は、例えば撮影した1シーケンス分(6フレーム)(図4参照)から拡散反射成分と鏡面反射成分の分離を行う。この際、1シーケンス中の画像は撮影時刻が異なる。被写体が非剛体であり、1シーケンス中で被写体に動きがある場合には、基準となる時刻のフレームの状態に対し、前後フレームに対して動き補償を行い、時刻が異なっていても同一の被写体部位を対象として処理を行う。
また、反射成分分離部141は、この拡散反射成分と鏡面反射成分の分離の手法として、上記のように偏向光の被写体表面の反射の挙動の違いを利用した分離に限定せず、他の手法(例えば、深層学習により鏡面反射成分を算出して取り除く等)を用いてもよい。
Note that the reflection component separation unit 141 separates, for example, one sequence (6 frames) (see FIG. 4) that has been photographed into a diffuse reflection component and a specular reflection component. At this time, the images in one sequence have different photographing times. When the subject is non-rigid and moves in one sequence, motion compensation is performed on the frame before and after the frame at the reference time, and the same subject is identified even if the time is different. Processing is performed with the body part as the target.
In addition, the reflection component separation unit 141 does not limit the method of separating the diffuse reflection component and the specular reflection component to the separation using the difference in the reflection behavior of the surface of the object of the polarized light as described above. (For example, a specular reflection component is calculated and removed by deep learning) may be used.

図1に戻り構成の説明をつづける。拡散反射算出部142は、反射成分分離部141が算出した拡散反射成分Idを用いて、拡散反射係数Kdおよび法線情報を算出する。ここで、拡散反射算出部142は、反射光の強さが入射角の余弦に比例する、というランバートの余弦則と、照度差ステレオの手法とを利用する。この照度差ステレオ手法では、3方向から同じ波長帯で照明された画像を得る。よって、3フレームで撮影され分離された反射光(拡散反射成分Id)のR(赤),G(緑),B(青)の波長ごとの照度差ステレオで法線情報(面法線ベクトル)と拡散反射係数Kdを算出する。 Returning to FIG. 1, the description of the configuration is continued. The diffuse reflection calculator 142 uses the diffuse reflection component I d calculated by the reflection component separator 141 to calculate the diffuse reflection coefficient K d and normal information. Here, the diffuse reflection calculator 142 uses Lambert's cosine law, which states that the intensity of reflected light is proportional to the cosine of the incident angle, and the method of photometric stereo. This photometric stereo technique obtains images illuminated in the same wavelength band from three directions. Therefore, normal information (surface normal vector ) and the diffuse reflection coefficient Kd .

ここで、被写体表面の凹凸状態を、撮影画素単位での被写体表面の面法線ベクトルとするが、本実施形態において面法線ベクトルは、被写体表面の画素単位レベルの面積での平均法線とする。しかし、実際の被写体の表面は、さらに細かい単位で面をもっているため、その細かい面の法線分布を法線分布関数のパラメータ「γ」(被写体表面の粗さのパラメータ)として、鏡面反射算出部143が算出する(詳細は後記)。 Here, the uneven state of the object surface is defined as the surface normal vector of the object surface in shooting pixel units. do. However, since the surface of an actual subject has surfaces in even finer units, the specular reflection calculator uses the normal distribution of the finer surfaces as the parameter "γ" (roughness parameter of the surface of the subject) of the normal distribution function. 143 (details below).

一方、ランバートの余弦則は、図7で示す状態で、被写体表面において拡散反射係数Kdのとき、式(2)により表される。
ここでの観測光強度Iは、反射光成分のうち、鏡面反射成分Isを取り除いた拡散反射成分Idとする。また、拡散反射係数Kdと法線ベクトルNが未知数となる。
On the other hand, Lambert's cosine law is expressed by Equation (2) when the diffuse reflection coefficient is K d on the object surface in the state shown in FIG.
Here, the observed light intensity I is assumed to be the diffuse reflection component I d obtained by removing the specular reflection component Is from the reflected light components. Also, the diffuse reflection coefficient Kd and the normal vector N are unknown.

そして、拡散反射算出部142は、法線ベクトルNおよび拡散反射係数Kdを、偏光撮影装置40で撮影して得た拡散反射成分Idの画像から、以下に示す導出手法に基づき、連立方程式を解くことにより求める。ここで、法線ベクトルは単位ベクトルであり、算出したベクトルNを正規化したものが面法線ベクトル、ユークリッドノルムが拡散反射係数Kdとなる。 Then, the diffuse reflection calculation unit 142 calculates the normal vector N and the diffuse reflection coefficient K d from the image of the diffuse reflection component I d obtained by photographing with the polarization imaging device 40, based on the following derivation method, the simultaneous equations is obtained by solving Here, the normal vector is a unit vector, the surface normal vector is obtained by normalizing the calculated vector N, and the Euclidean norm is the diffuse reflection coefficient Kd .

ここでは、図8(a)で示すように、3つの照明(L1, L2, L3)について、偏光撮影装置40で撮影した結果、上記式(2)で示すランバートの余弦則により、図8(b)で示す式(3)が導出される。
また、図8(c)で示すように、法線ベクトルを式(4)で表し、単位法線ベクトルを式(5)で表す。
Here, as shown in FIG. 8(a), three illuminations (L 1 , L 2 , L 3 ) are photographed by the polarizing imaging device 40. As a result, according to Lambert's cosine law shown in the above equation (2), Equation (3) shown in FIG. 8(b) is derived.
Further, as shown in FIG. 8(c), the normal vector is represented by Equation (4), and the unit normal vector is represented by Equation (5).

この式(4)および式(5)を、式(3)に代入することにより図9(a)の式(6)とする。そして、初期設定情報200で示される照明位置や照明強度、カメラによる得られた観測光強度(拡散反射成分Id)により既知となる定数を、式(7)の右辺において定数(Ca,Cb,Cc)として展開する(図9(b)参照)。これにより、式(8)で示す連立一次方程式を立てる(図9(c)参照)。
この連立方程式を解き、法線ベクトルnのノルムが拡散反射係数Kdとなることにより、拡散反射係数Kdと法線ベクトル(面法線ベクトル)とを、図9(c)で示す式(9)により求めることができる。
By substituting the equations (4) and (5) into the equation (3), the equation (6) in FIG. 9A is obtained. Constants known from the illumination position and illumination intensity indicated by the initial setting information 200 and the observed light intensity (diffuse reflection component I d ) obtained by the camera are represented by constants (Ca, Cb, Cc) (see FIG. 9(b)). As a result, the simultaneous linear equations shown in Equation (8) are established (see FIG. 9(c)).
By solving this simultaneous equation and finding that the norm of the normal vector n becomes the diffuse reflection coefficient Kd , the diffuse reflection coefficient Kd and the normal vector (surface normal vector) are expressed by the equation shown in FIG. 9(c) ( 9).

このように、拡散反射算出部142は、3方向に配置された偏光照明装置(3つの照明(L1, L2, L3))が複数波長(RGB)の偏向光それぞれを被写体に照射することにより得られた反射光について、反射成分分離部141により分離された拡散反射成分Idと、偏光照明装置30の照明位置および照明強度とを、ランバートの余弦則に適用し、被写体の拡散反射係数Kdおよび法線情報(法線ベクトル)を算出することができる。 In this way, the diffuse reflection calculation unit 142 irradiates the object with polarized light of multiple wavelengths (RGB) from the polarized lighting devices (three lights (L 1 , L 2 , L 3 )) arranged in three directions. The diffuse reflection component I d separated by the reflection component separation unit 141 and the illumination position and illumination intensity of the polarized illumination device 30 are applied to Lambert's cosine law to determine the diffuse reflection of the subject. The coefficient Kd and normal information (normal vector) can be calculated.

図1に戻り構成の説明をつづける。鏡面反射算出部143は、反射成分分離部141により分離された鏡面反射成分Isを用いて、被写体表面の粗さの程度を示すパラメータ(γ)(以下、「粗さ(γ)」と記載)と、被写体の屈折率njを算出する。 Returning to FIG. 1, the description of the configuration is continued. The specular reflection calculation unit 143 uses the specular reflection component I s separated by the reflection component separation unit 141 to calculate a parameter (γ) indicating the degree of roughness of the object surface (hereinafter referred to as “roughness (γ)”). ) and the refractive index n j of the subject.

<粗さ(γ)算出処理>
まず、鏡面反射算出部143による被写体表面の粗さ(γ)の算出処理について説明する。なお、本実施形態においては、物理ベースレンダリングの所定の鏡面反射モデルとして、以下の式(10)で示す、Cook-Torranceの鏡面反射モデルに則って説明する。
<Roughness (γ) calculation process>
First, calculation processing of the surface roughness (γ) of the subject by the specular reflection calculator 143 will be described. In the present embodiment, as a predetermined specular reflection model for physically based rendering, the Cook-Torrance specular reflection model represented by the following equation (10) will be described.

Figure 2023032793000002
Figure 2023032793000002

本実施形態では、図10で示すように、被写体のある部位に対し、異なる位置の照明(偏光照明装置30)からの入射角度(θi)、異なる位置に配置した偏光撮影装置40で観測する角度(θr)とし、観測された光強度Vを鏡面反射成分Isとする。ここで、処理で用いる入射光と反射光は、フレネル項(F)の影響を考慮しないようにp波、s波をそれぞれ独立して扱う。また、照明(偏光照明装置30)と隣接するカメラ(偏光撮影装置40)、そのカメラと隣接する照明の位置は、撮影ブースBHに対し、いずれも対称となっており、被写体が一定サイズ以下であれば、照明ベクトル(L)と視線ベクトル(V)のなす角は、同一と仮定することができる。これによりフレネル反射による影響を無視できるものとする。なお、幾何学的減衰係数(G)は、レンダリングの際の明るさを決定する上では影響がないため定数1として本実施形態では考慮しない。 In this embodiment, as shown in FIG. 10, a part of an object is observed at different angles of incidence (θ i ) from illumination (polarized illumination device 30) at different positions and with polarized light imaging devices 40 arranged at different positions. Let the angle (θ r ) and the observed light intensity V be the specular reflection component I s . Here, the incident light and the reflected light used in the processing are treated independently as p-waves and s-waves so as not to consider the influence of the Fresnel term (F). In addition, the camera (polarized photographing device 40) adjacent to the lighting (polarized lighting device 30) and the position of the lighting adjacent to the camera are both symmetrical with respect to the photography booth BH. If so, the angle between the illumination vector (L) and the line-of-sight vector (V) can be assumed to be the same. This makes it possible to ignore the influence of Fresnel reflection. Note that the geometrical attenuation coefficient (G) is set to a constant 1 and is not considered in this embodiment because it has no effect on determining the brightness during rendering.

また、本実施形態では、法線分布関数Dを、以下の式(11)により表現する。これは、法線分布関数をガウス分布関数として表現するものである。詳細は、参考文献1(田中法博,富永昌治,”3次元反射モデルの解析と推定",情報処理学会論文誌コンピュータビジョンとイメージメディア(CVIM),vol.41,pp.1-11,Dec. 2000)に示されている。 Moreover, in this embodiment, the normal distribution function D is expressed by the following equation (11). This expresses the normal distribution function as a Gaussian distribution function. For details, refer to reference 1 (Norihiro Tanaka, Shoji Tominaga, “Analysis and Estimation of 3D Reflection Model”, Information Processing Society of Japan Transactions on Computer Vision and Image Media (CVIM), vol.41, pp.1-11, Dec. 2000).

Figure 2023032793000003
Figure 2023032793000003

ここで、被写体表面の粗さ(γ)は照明光の映り込みがどの程度分散するかを表すパラメータであり、表面の法線がどれくらい分散しているかを表すものである。
図10で示すように、光源と視線がなす角の半分の角度(ハーフベクトルH)と面法線ベクトルのなす角を(ρ)とし、粗さ(γ)について、法線分布関数D(ρ)が最大値に対して半値(1/2)になる角度を(γ)とする。本実施形態においては、3つの光源(偏光照明装置30)の位置と、ひとつのカメラ(偏光撮影装置40)の位置から、事前に照明位置、姿勢、強度やカメラ姿勢などを校正しておくことで、(ρ)は、既知となるため、未知数(γ)をガウシアンフィッティング(ガウスカーブフィッティング)により求めることができる。
Here, the roughness (γ) of the surface of the subject is a parameter representing how much the reflection of the illumination light is dispersed, and represents how much the surface normal is dispersed.
As shown in FIG. 10, let (ρ) be the angle between the half angle (half vector H) of the angle formed by the light source and the line of sight and the surface normal vector, and the normal distribution function D (ρ ) is the half value (1/2) of the maximum value is defined as (γ). In this embodiment, from the positions of three light sources (polarized lighting device 30) and the position of one camera (polarized imaging device 40), the lighting position, orientation, intensity, camera orientation, etc. are calibrated in advance. Since (ρ) is known, the unknown (γ) can be obtained by Gaussian fitting (Gaussian curve fitting).

このように、鏡面反射算出部143は、反射成分分離部141により分離された鏡面反射成分Is、偏光照明装置30の照明位置、偏光撮影装置40のカメラ位置、および、法線情報(法線ベクトル)を、所定の鏡面反射モデル(Cook-Torranceの鏡面反射モデル)に適用し、法線分布関数D(ρ)が最大値に対して半値となる角度を、被写体表面の粗さ(γ)として算出することができる。
なお、算出した被写体表面の粗さ(γ)は、カメラのダイナミックレンジなどに起因して、ノイズの影響を受けやすい。そのため、異なる照明およびカメラで取得した(γ)の値の平均値をとることで、(γ)の安定化を図ってもよい。
また、本実施形態における法線分布関数の表現は、上記したガウス分布関数に限定されるものではなく、GGX分布関数、Beckman関数などに当てはめて粗さ(γ)を導出することも可能である。
In this way, the specular reflection calculation unit 143 calculates the specular reflection component I s separated by the reflection component separation unit 141, the illumination position of the polarization lighting device 30, the camera position of the polarization imaging device 40, and the normal information (normal vector) is applied to a predetermined specular reflection model (Cook-Torrance specular reflection model), and the angle at which the normal distribution function D(ρ) is half the maximum value is the roughness of the object surface (γ) can be calculated as
Note that the calculated object surface roughness (γ) is susceptible to noise due to the dynamic range of the camera and the like. Therefore, (γ) may be stabilized by averaging the values of (γ) obtained with different illumination and cameras.
In addition, the expression of the normal distribution function in this embodiment is not limited to the Gaussian distribution function described above, and it is also possible to derive the roughness (γ) by applying it to the GGX distribution function, Beckman function, etc. .

<被写体屈折率の算出処理>
次に、鏡面反射算出部143による被写体屈折率njの算出処理について説明する。
式(10)で示す、Cook-Torranceの鏡面反射モデルにおいて、上記のように、幾何学的減衰係数(G)は、影響が少ないことから定数1とみなす。また、法線分布関数(D)、法線ベクトル(N)、照明ベクトル(L)、視線ベクトル(V)は、既知となり、πは定数である。
ここで、p波とs波は独立して作用するため、上記Cook-Torranceの鏡面反射モデルに基づくトータルの反射率は、それぞれ、Rs_spec,Rp_specとなり、以下の式(12),式(13)で表される。なお、irsは、反射されたs波の光量、ipsは、反射されたp波の光量を表し、isはs波の入射光量、ipはp波の入射光量を表す。
<Calculation processing of object refractive index>
Next, calculation processing of the subject refractive index n j by the specular reflection calculator 143 will be described.
In the Cook-Torrance specular reflection model shown in Equation (10), the geometrical attenuation coefficient (G) is regarded as a constant 1 because it has little effect, as described above. Also, the normal distribution function (D), normal vector (N), illumination vector (L), and line-of-sight vector (V) are known, and π is a constant.
Here, since the p-wave and s-wave act independently, the total reflectance based on the above Cook-Torrance specular reflection model is R s_spec and R p_spec respectively, and the following equations (12) and ( 13). Note that i rs represents the amount of reflected s-wave light, i ps represents the amount of reflected p-wave light, i s represents the amount of incident s-wave light, and ip represents the amount of incident p-wave light.

Figure 2023032793000004
Figure 2023032793000004

また、Cook-Torranceの鏡面反射モデル(式10)から、以下の式(14)および式(15)が導出できる。 Also, the following equations (14) and (15) can be derived from the Cook-Torrance specular reflection model (equation 10).

Figure 2023032793000005
Figure 2023032793000005

式(12)および式(14)、式(13)および式(15)のそれぞれを解くことで、rs,i,j,rp,i,jが求められる。なお、通常は照明が無偏光の場合のため、F=(rs,i,j+rp,i,j)/2とする。
このように、鏡面反射算出部143は、偏光照明装置30の照明位置、偏光撮影装置40のカメラ位置、法線情報(法線ベクトル)、法線分布関数(D)を、所定の鏡面反射モデル(Cook-Torranceの鏡面反射モデル)に適用し、p波,s波のそれぞれの被写体の反射率を、観測した光源数分求めることができる。
By solving equations (12) and (14) and equations (13) and (15), r s,i,j and r p,i,j are obtained. Note that F=(r s,i,j +r p,i,j )/2 because the illumination is normally non-polarized.
In this way, the specular reflection calculator 143 converts the illumination position of the polarizing illumination device 30, the camera position of the polarizing imaging device 40, the normal information (normal vector), and the normal distribution function (D) into a predetermined specular reflection model. (Cook-Torrance specular reflection model) can be applied to obtain the reflectance of each subject for p-wave and s-wave for the number of light sources observed.

一方、異なる媒質における被写体表面での反射と屈折の振る舞いは、図11で示すように、媒質1(本実施形態では空気)の屈折率を「ni」とし、媒質2(本実施形態では被写体)の屈折率を「nj」とすると、フレネルの式により、s偏光の反射率(rs,i,j)は、式(16)で表され、p偏光の反射率(rp,i,j)は、式(17)で表される。 On the other hand, the behavior of reflection and refraction on the object surface in different media is as shown in FIG . ) is the refractive index of “n j ”, according to the Fresnel equation, the reflectance of s-polarized light (r s,i,j ) is represented by equation (16), and the reflectance of p-polarized light (r p,i , j ) is represented by equation (17).

Figure 2023032793000006
Figure 2023032793000006

この式(16)および式(17)から、被写体屈折率(nj)として式をまとめると、以下の式(18)となる。 From the equations (16) and (17), the subject refractive index (n j ) can be summarized as the following equation (18).

Figure 2023032793000007
Figure 2023032793000007

ここで、媒質1は、空気であることから、以下に基づき既知とすることができる(参考文献2:中西純一郎,空気の屈折率と電磁波の伝搬特性,相模工業大学紀要,10(1),pp:23-31,1976/3/31)。15℃、760mmHgで、0.03%の二酸化炭素CO2を含む乾燥空気の真空に対する屈折率niは、波長λ0(μ)=0.2~1.25において次の式(19)で与えられる。 Here, since the medium 1 is air, it can be known based on the following (Reference 2: Junichiro Nakanishi, Refractive index of air and propagation characteristics of electromagnetic waves, Bulletin of Sagami Institute of Technology, 10 (1), pp:23-31, 3/31/1976). The refractive index n i of dry air containing 0.03% carbon dioxide CO 2 at 15° C. and 760 mmHg with respect to vacuum is given by the following equation (19) at wavelength λ 0 (μ)=0.2 to 1.25.

Figure 2023032793000008
Figure 2023032793000008

以上のようにして、鏡面反射算出部143は、入射角度ごとのs波、p波のフレネル反射を考慮した反射率(rs,i,j,rp,i,j)を求めるとともに、式(19)から算出した空気の屈折率niを、式(18)に代入することにより、被写体屈折率(nj)を求めることができる。 As described above, the specular reflection calculation unit 143 obtains the reflectance (r s,i,j , r p,i,j ) considering the Fresnel reflection of the s-wave and p-wave for each incident angle, and the formula By substituting the air refractive index n i calculated from (19) into the equation (18), the object refractive index (n j ) can be obtained.

なお、上記した本実施形態においては、図3および図4で説明したように、RGBの3色光源において偏光方向を0度と90度に変更して点灯させるものとして説明した。しかしながら、それ以外にも、マルチスペクトルにより詳細な分光反射率を取得することが可能である。例えば、図12で示すように、波長の異なる6色分光(B+,B-,G+,G-,R+,R-)の光源において偏光方向を0度と90度に変更し、1シーケンスを12フレームで構成するようにしてもよい。このようにすることで、詳細な分光反射率を測定することが可能となる。 In the above-described embodiment, as described with reference to FIGS. 3 and 4, it is assumed that the RGB three-color light source is lit with the polarization direction changed between 0 degrees and 90 degrees. However, other than that, it is possible to acquire detailed spectral reflectance by multi-spectrum. For example, as shown in FIG. 12, the polarization direction is changed to 0 degrees and 90 degrees in light sources of six color spectra (B+, B-, G+, G-, R+, R-) with different wavelengths, and one sequence is 12 You may make it comprise by a frame. By doing so, it becomes possible to measure the spectral reflectance in detail.

他の例としては、図13で示すように、より多くの波長帯として12色分光(B+,B’+,B-,B’-,G+,G’+,G-,G’-,R+,R’+,R-,R’-)の照明とし、それに対応するマルチスペクトルの偏光カメラを用いることで、1シーケンスの必要撮影フレーム数を増加させることなく、より詳細な分光反射率を観測することもできる。これにより、複雑な形状の被写体で生じる照明の死角領域を低減することができる。さらに、波長帯だけでなく、例えば、1か所の光源波長を櫛形フィルタや分光分布を制御可能なマルチスペクトル照明を用いてコード化することで、光源点数を増加させずに、1シーケンスに必要となる撮影フレーム数を低減することができる。 As another example, as shown in FIG. 13, 12 color spectrum (B+, B'+, B-, B'-, G+, G'+, G-, G'-, R+ , R'+, R-, R'-) and a corresponding multispectral polarization camera, more detailed spectral reflectance can be observed without increasing the number of frames required for one sequence. You can also As a result, it is possible to reduce the blind area of the lighting that occurs in a complex-shaped object. Furthermore, in addition to the wavelength band, for example, by coding the light source wavelength at one location using a comb filter or multispectral illumination that can control the spectral distribution, the number of light sources required for one sequence can be reduced without increasing the number of light source points. can be reduced.

なお、本実施形態を実際に適応した実装例においては、図3で示した撮影ブースBHの正8面体の一面を、図12及び図13で示すように、底面に設置させるよう回転させて配置する。これは、図3で示す配置では、撮影ブースBH底面からの照明が施工上困難であるためと、図12および図13で示すように底面に設定されるようにした方が、撮影ブースに被写体を配置する撮影ステージSTを設置しやすいためである。 In an implementation example in which this embodiment is actually applied, one side of the regular octahedron of the photography booth BH shown in FIG. 3 is rotated and placed on the bottom as shown in FIGS. do. This is because, in the arrangement shown in FIG. 3, lighting from the bottom of the photography booth BH is difficult in terms of construction, and it is better to set the lighting on the bottom of the photography booth as shown in FIGS. This is because it is easy to install the photographing stage ST on which the .

図1に戻り構成の説明をつづける。3次元モデル詳細情報出力部150は、質感計算部140が計算した、拡散反射係数Kd、法線情報(面法線ベクトル)、被写体表面の粗さ(γ)、被写体屈折率(nj)、被写体の反射率のうちのいずれかを含む情報(3次元モデル詳細情報)を、各情報を算出するために偏光撮影装置40が撮影した時刻に合わせて所定の3次元モデル詳細情報としてCG描画装置等の外部装置5へ出力する。なお、この所定の3次元モデル詳細情報に、質感計算部140が計算した拡散反射係数Kd、法線情報(面法線ベクトル)、被写体表面の粗さ(γ)、被写体屈折率(nj)、および、被写体の反射率の情報をすべて含めてもよいが、外部装置5の性能や用途等に応じて、これらの情報の中から、予め3次元モデル詳細情報に含める情報を所定の3次元モデル設定情報として設定しておき、各外部装置5に出力する。
この3次元モデル詳細情報を取得することにより、CG描画装置(外部装置5)は、被写体表面の細かな凹凸の状態を質感として、リアルタイムに表現することが可能となる。
Returning to FIG. 1, the description of the configuration is continued. The three-dimensional model detailed information output unit 150 outputs the diffuse reflection coefficient K d , normal information (surface normal vector), object surface roughness (γ), and object refractive index (n j ) calculated by the texture calculation unit 140. , the reflectance of the object (three-dimensional model detailed information) is drawn as predetermined three-dimensional model detailed information according to the time when the polarizing imaging device 40 captures each piece of information. Output to an external device 5 such as a device. The predetermined three-dimensional model detailed information includes the diffuse reflection coefficient K d calculated by the texture calculation unit 140, normal information (surface normal vector), surface roughness of the subject (γ), subject refractive index (n j ), and the reflectance information of the object may be included. It is set as dimensional model setting information and output to each external device 5 .
By acquiring this three-dimensional model detailed information, the CG rendering device (external device 5) can express in real time the state of fine unevenness on the surface of the subject as a texture.

なお、鏡面反射算出部143が算出した被写体分光反射率(s波の反射率(rs,i,j)、p波の反射率(rp,i,j))については、低次元線形モデルに当てはめ、例えば7~8個の基底関数で表現して出力するようにしてもよい。算出された被写体分光反射率を、基底関数とその重みで近似することで、複雑な分光反射率を重みと基底関数のみで表現することができる。なお、基底関数を7~8個とし、7~8つの重み係数で表現した場合には、データサイズは大きくなり、データ蓄積や伝送における負荷は大きくなるが正確性は増す。一方、基底関数を3個のように少なくすれば、データサイズは小さくなる一方で、正確性は減少するが、伝送路や蓄積容量に制限がある場合には有利となる。 Note that the subject spectral reflectance (s-wave reflectance (r s,i,j ), p-wave reflectance (r p,i,j )) calculated by the specular reflection calculator 143 is calculated using a low-dimensional linear model , and may be expressed by, for example, 7 to 8 basis functions and output. By approximating the calculated subject spectral reflectance with the basis functions and their weights, complex spectral reflectance can be expressed only with the weights and basis functions. If 7 to 8 basis functions are used and 7 to 8 weighting factors are used, the data size becomes large and the load in data storage and transmission increases, but the accuracy increases. On the other hand, if the number of basis functions is reduced to 3, the data size is reduced and the accuracy is reduced, but it is advantageous when the transmission path and storage capacity are limited.

また、3次元モデル詳細情報出力部150が、被写体屈折率(nj)を外部装置5に出力することで、p波,s波を考慮したレンダリングが可能となる。しかしながら、外部装置5のCGレンダラーが偏光を考慮していない場合や、外部装置5の負荷を増加させないことが好ましい場合がある。この場合には、屈折率ではなく、例えばSchlickらが提案したフレネル反射係数近似式のRoとして3次元モデル詳細情報出力部150で変換して出力するようにしてもよい。なお、フレネル反射係数近似式のRoは、法線に平行に入射する光の鏡面反射係数であり、以下の(参考文献3)に詳しい。このRoを、外部装置5へ出力することで、大きな品質低下を伴わずに、レンダリングすることが可能となる。
(参考文献3)“Schlicks approximation,”Wikipedia,<URL:https://en.wikipedia.org/wiki/Schlick's_approximation>
In addition, the three-dimensional model detailed information output unit 150 outputs the object refractive index (n j ) to the external device 5, so that rendering taking p-waves and s-waves into account is possible. However, there are cases where the CG renderer of the external device 5 does not consider polarization, and where it is preferable not to increase the load on the external device 5 . In this case, the three-dimensional model detailed information output unit 150 may convert and output the Fresnel reflection coefficient approximation R o proposed by Schlick et al. instead of the refractive index. Note that R o in the Fresnel reflection coefficient approximation is the specular reflection coefficient of light incident parallel to the normal, and is detailed in (Reference 3) below. By outputting this R o to the external device 5, it is possible to perform rendering without significant deterioration in quality.
(Reference 3) “Schlicks approximation,” Wikipedia, <URL: https://en.wikipedia.org/wiki/Schlick's_approximation>

<3次元モデル詳細情報出力部の変形例>
次に、3次元モデル詳細情報出力部150(図1参照)の変形例について図14を参照して説明する。変形例に係る3次元モデル詳細情報出力部150aは、本実施形態に係る3次元モデル詳細情報出力部150が所定の3次元モデル詳細情報を出力するのに代わって、図1で示す外部装置5それぞれのレンダリングに関する処理能力や提示条件を含む情報(後記する「最適化条件情報51」)を各外部装置5から取得し、その外部装置5それぞれに最適な情報(外部装置それぞれに応じた3次元モデル詳細情報)を生成し出力する機能を備える。
<Modified example of 3D model detailed information output unit>
Next, a modification of the three-dimensional model detailed information output unit 150 (see FIG. 1) will be described with reference to FIG. The 3D model detailed information output unit 150a according to the modification outputs predetermined 3D model detailed information from the 3D model detailed information output unit 150 according to the present embodiment, and the external device 5 shown in FIG. Information ("optimization condition information 51" to be described later) including processing capacity and presentation conditions for each rendering is acquired from each external device 5, and optimal information for each external device 5 (three-dimensional It has a function to generate and output model detailed information).

3次元モデル詳細情報出力部150aは、図14で示すように、送信内容判定部151と、詳細情報出力部152と3DCGレンダリング部153とを備える。
なお、ここでは一例として、CG描画装置である外部装置5が、3DCG描画能力の高い(図14で「High」と表記)外部装置5Aと、3DCG描画能力の低い(図14で「Low」と表記)外部装置5Bであるものとして説明する。
The three-dimensional model detailed information output unit 150a includes a transmission content determination unit 151, a detailed information output unit 152, and a 3DCG rendering unit 153, as shown in FIG.
Here, as an example, the external device 5, which is a CG drawing device, is divided into an external device 5A with high 3DCG drawing ability ("High" in FIG. 14) and an external device 5A with low 3DCG drawing ability ("Low" in FIG. 14). Notation) Description will be made assuming that the device is the external device 5B.

送信内容判定部151は、各外部装置5(ここでは、外部装置5A,5B)から、最適化条件情報51を取得する。この最適化条件情報51には、例えば、それぞれの外部装置5に関する、装置種別の情報(据え置き立体テレビ、HMD、スマートホン、PC等)、3D描画についてのハードウェアリソース(メモリ容量、ハードウェア容量、CPU処理速度等)のスペックの情報、点群・メッシュ・NURBSカーブなどの利用する3Dデータの種類の情報、質感取得装置1が計算した、拡散反射係数Kd、法線情報(面法線ベクトル)、被写体表面の粗さ(γ)、被写体屈折率(nj)、被写体の反射率などの情報のうち、その外部装置5が要求する情報(提示条件)などの各外部装置5の3DCG描画を最適化するために必要となる情報が含まれる。 The transmission content determination unit 151 acquires the optimization condition information 51 from each external device 5 (here, the external devices 5A and 5B). The optimization condition information 51 includes, for example, device type information (stationary 3D TV, HMD, smart phone, PC, etc.), hardware resources (memory capacity, hardware capacity , CPU processing speed, etc.), information on the type of 3D data to be used such as point cloud, mesh, NURBS curve, etc., diffuse reflection coefficient K d calculated by the texture acquisition device 1, normal information (surface normal 3DCG of each external device 5 such as information (presentation conditions) requested by the external device 5 among information such as object surface roughness (γ), object refractive index (n j ), object reflectance, etc. Contains information needed to optimize rendering.

送信内容判定部151は、各外部装置5から取得した最適化条件情報51を用いて、まず、出力情報として、3次元モデル詳細情報52を出力するか、または、2次元画像53として出力するかを判定する。ここで、送信内容判定部151は、例えば、外部装置5Aのように、3DCG描画能力が高い場合(例えば、処理能力の高いCPUを備えた専用の立体テレビ)には、3次元モデル詳細情報52を出力と判定する。そして、送信内容判定部151は、その外部装置5のスペックや設定に応じた3次元モデル詳細情報52の生成を、詳細情報出力部152に指示する。例えば、送信内容判定部151は、点群やポリゴン・制御点のリダクション(間引き)を外部装置5のスペックに応じて行い、3次元モデル詳細情報52を生成する指示を行う。 Using the optimization condition information 51 acquired from each external device 5, the transmission content determination unit 151 first outputs the three-dimensional model detailed information 52 or the two-dimensional image 53 as the output information. judge. Here, for example, when the 3DCG drawing ability is high like the external device 5A (for example, a dedicated stereoscopic television equipped with a CPU with high processing ability), the transmission content determination unit 151 determines the detailed 3D model information 52. is determined as an output. Then, the transmission content determination unit 151 instructs the detailed information output unit 152 to generate the three-dimensional model detailed information 52 according to the specifications and settings of the external device 5 . For example, the transmission content determination unit 151 performs reduction (thinning) of point groups, polygons, and control points according to the specifications of the external device 5 and issues an instruction to generate the three-dimensional model detailed information 52 .

一方、送信内容判定部151は、例えば、外部装置5Bのように、3DCG描画能力が低い場合(例えば、3DCG描画能力処理能力の低いCPUを備えたPC)には、3次元モデル詳細情報52を送信するのではなく、質感情報を2次元画像53として送るものと判定し、その旨の情報を3DCGレンダリング部153に出力する。
この場合、送信内容判定部151は、外部装置5Bに対し、2次元画像のリサンプルを行い、解像度等の情報を取得した上で、その情報を含めて3DCGレンダリング部153に指示情報を出力する。
On the other hand, the transmission content determination unit 151, for example, when the 3DCG drawing ability is low like the external device 5B (for example, a PC having a CPU with low 3DCG drawing ability processing ability), the 3D model detailed information 52 is It is determined that the texture information is to be sent as a two-dimensional image 53 instead of being sent, and information to that effect is output to the 3DCG rendering section 153 .
In this case, the transmission content determination unit 151 performs resampling of the two-dimensional image for the external device 5B, acquires information such as resolution, and outputs instruction information including the information to the 3DCG rendering unit 153. .

詳細情報出力部152は、送信内容判定部151の指示に基づき、各外部装置5(例えば、外部装置5A)が3Dレンダリングするのに必要となる最適な情報として、拡散反射係数Kd、法線情報(面法線ベクトル)、被写体表面の粗さ(γ)、被写体屈折率(nj)、被写体の反射率の中から選択した情報を、外部装置それぞれに応じた3次元モデル詳細情報52として生成し、その外部装置5(ここでは、外部装置5A)に出力する。 Based on the instruction from the transmission content determination unit 151, the detailed information output unit 152 selects the diffuse reflection coefficient K d , normal line Information selected from information (surface normal vector), object surface roughness (γ), object refractive index (n j ), and object reflectance is used as three-dimensional model detailed information 52 corresponding to each external device. It generates and outputs to the external device 5 (external device 5A in this case).

3DCGレンダリング部153は、3DCGレンダリング機能を備え、レンダリング機能を持たない外部装置5や、3D描画における処理能力の低い外部装置5(例えば、外部装置5B)に代わって、レンダリング処理を実行し、その外部装置5に応じた2次元画像53を変換して出力する。 The 3DCG rendering unit 153 has a 3DCG rendering function, and executes rendering processing on behalf of the external device 5 that does not have the rendering function or the external device 5 (for example, the external device 5B) that has low processing power in 3D drawing. A two-dimensional image 53 corresponding to the external device 5 is converted and output.

このようにすることで、3次元モデル詳細情報出力部150aは、各外部装置5のハードウェアリソースやスペックに応じて出力する情報を最適化することができる。なお、3次元モデル詳細情報出力部150aは、図14で示すような、3DCG描画能力を高(High)低(Low)のように、2段階に分けるのではなく、各外部装置5の3DCG描画能力の段階(3段階以上の複数の段階)に合わせて、形状データを削減して送ったり、分光反射率を表現する基底関数の数を削減して送るようにしてもよい。 By doing so, the 3D model detailed information output unit 150a can optimize the information to be output according to the hardware resources and specifications of each external device 5 . Note that the 3D model detailed information output unit 150a does not divide the 3DCG drawing capability into two stages such as high and low as shown in FIG. According to the level of ability (multiple levels of three or more levels), shape data may be reduced and sent, or the number of basis functions expressing spectral reflectance may be reduced and sent.

また、外部装置5に対し3次元モデル詳細情報52を3次元モデル詳細情報出力部150aが送信して、外部装置5側でレンダリングを行わせる際、データの配信や処理パスの増加により、遅延が発生することが見込まれる。そのため、送信内容判定部151が、事前にレイテンシー要件として定義された遅延時間に収まるか否かを、取得した最適化条件情報51で示される外部装置5の性能やネットワーク状態に基づき判定し、3次元モデル詳細情報52として出力するか、2次元画像53として出力するかを動的に制御するようにしてもよい。このレイテンシー要件は、3次元モデル詳細情報出力部150aが、各外部装置5から最適化条件情報51に含めて取得してもよい。
このようにすることにより、質感取得装置1は、外部装置5とのインタラクションの成立のために要求される遅延時間(レイテンシー要件)に収まるか否かに基づいて、3次元モデル詳細情報52として出力するか、2次元画像53として出力するかを自動制御することが可能となる。
Further, when the three-dimensional model detailed information output unit 150a transmits the three-dimensional model detailed information 52 to the external device 5 and causes the external device 5 to perform rendering, a delay occurs due to data distribution and an increase in processing paths. expected to occur. Therefore, the transmission content determination unit 151 determines whether or not the delay time defined in advance as the latency requirement is satisfied based on the performance of the external device 5 and the network state indicated by the obtained optimization condition information 51. Whether to output as the dimensional model detailed information 52 or as the two-dimensional image 53 may be dynamically controlled. This latency requirement may be included in the optimization condition information 51 and acquired from each external device 5 by the three-dimensional model detailed information output unit 150a.
By doing so, the texture acquisition device 1 outputs the three-dimensional model detailed information 52 based on whether or not the delay time (latency requirement) required for establishment of interaction with the external device 5 is satisfied. It is possible to automatically control whether to output as a two-dimensional image 53 or to output as a two-dimensional image 53 .

<質感取得装置の動作>
次に、本実施形態に係る質感取得装置1が実行する動作について、図15を参照して説明する。
<Operation of texture acquisition device>
Next, operations performed by the texture acquisition device 1 according to the present embodiment will be described with reference to FIG. 15 .

まず、質感取得装置1の初期設定情報取得部110は、撮影ブースBHに設置した、各装置(奥行き計測装置20、偏光照明装置30および偏光撮影装置40)の、カメラ位置、カメラ姿勢、照明位置、配光特性等の情報を、初期設定情報200としてシステム管理装置等から取得し、記憶部12に記憶しておく(ステップS1)。 First, the initial setting information acquisition unit 110 of the texture acquisition device 1 acquires the camera position, camera orientation, and illumination position of each device (the depth measurement device 20, the polarized lighting device 30, and the polarized photography device 40) installed in the photography booth BH. , information such as light distribution characteristics is acquired as the initial setting information 200 from the system management device or the like, and stored in the storage unit 12 (step S1).

次に、質感取得装置1の被写体形状取得部120は、計測制御部130を介して、撮影ブースBHに配置された奥行き計測装置20に計測を実行させる指示情報を送信する。そして、被写体形状取得部120は、奥行き計測装置20からの計測情報を受信することにより、(大まかな)被写体形状を取得する(ステップS2)。 Next, the subject shape acquisition unit 120 of the texture acquisition device 1 transmits instruction information for executing measurement to the depth measurement device 20 placed in the photography booth BH via the measurement control unit 130 . Then, the subject shape acquisition unit 120 acquires the (rough) subject shape by receiving the measurement information from the depth measurement device 20 (step S2).

次に、質感取得装置1の質感計算部140(反射成分分離部141)は、被写体表面の反射光について、拡散反射成分Idと鏡面反射成分Isの分離を行う(ステップS3)。
具体的には、質感計算部140(反射成分分離部141)は、計測制御部130を介して、例えば、図4で示したようなパターンで、RGBの3色照明を各偏光照明装置30により被写体に照射させる。そして、その反射光を偏光撮影装置40により撮影する。
Next, the texture calculation unit 140 (reflection component separation unit 141) of the texture acquisition device 1 separates the reflected light from the surface of the object into diffuse reflection component I d and specular reflection component I s (step S3).
Specifically, the texture calculation unit 140 (reflection component separation unit 141), via the measurement control unit 130, emits RGB three-color illumination in a pattern such as that shown in FIG. Illuminate the subject. Then, the reflected light is photographed by the polarization photographing device 40 .

そして、反射成分分離部141は、図6で示すように、偏光方向0度,45度,90度,135度の画素で得られた輝度値から、正弦波を生成する。そして、反射成分分離部141は、その正弦波の輝度Iの最小値Iminを拡散反射成分Idとし、振幅aの2倍である2aを鏡面反射成分Isとする。 Then, as shown in FIG. 6, the reflection component separating unit 141 generates a sine wave from the brightness values obtained from the pixels with the polarization directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees. Then, the reflection component separation unit 141 sets the minimum value I min of the luminance I of the sine wave as the diffuse reflection component I d and sets 2a, which is twice the amplitude a, as the specular reflection component I s .

次に、質感計算部140(拡散反射算出部142)は、反射成分分離部141が算出した拡散反射成分Idを用いて、拡散反射係数Kdおよび法線情報を算出する(ステップS4)。
ここで、拡散反射算出部142は、ランバートの余弦則と照度差ステレオの手法とを適用して、図8(b)で示した式(3)を導出し、観測した照明強度(拡散反射成分Id)および初期設定情報200で示される照明位置等の情報により、図9(c)で示す式(8)を導出する。そして、拡散反射算出部142は、式(8)の連立一次方程式を解くことにより、拡散反射係数Kdおよび法線情報(法線ベクトル)を算出する。
Next, the texture calculation unit 140 (diffuse reflection calculation unit 142) calculates a diffuse reflection coefficient Kd and normal line information using the diffuse reflection component Id calculated by the reflection component separation unit 141 (step S4).
Here, the diffuse reflection calculation unit 142 applies Lambert's cosine law and the photometric stereo method to derive the equation (3) shown in FIG. I d ) and information such as the illumination position indicated by the initial setting information 200, formula (8) shown in FIG. 9(c) is derived. Then, the diffuse reflection calculator 142 calculates the diffuse reflection coefficient K d and the normal information (normal vector) by solving the simultaneous linear equations of Equation (8).

続いて、質感計算部140(鏡面反射算出部143)は、反射成分分離部141が算出した鏡面反射成分Isを用いて、被写体表面の粗さ(γ)を算出する(ステップS5)。
ここで、鏡面反射算出部143は、図10で示すように、光源と視線がなす角の半分の角度(ハーフベクトルH)と面法線ベクトルのなす角を(ρ)とし、粗さのパラメータ(γ)について、法線分布関数D(ρ)が最大値に対して半値(1/2)になる角度を(γ)とする。そして、鏡面反射算出部143は、上記した式(11)で表現される法線分布関数の未知数(γ)を、ガウシアンフィッティングにより求める。
Subsequently, the texture calculation unit 140 (specular reflection calculation unit 143) calculates the roughness (γ) of the object surface using the specular reflection component I s calculated by the reflection component separation unit 141 (step S5).
Here, as shown in FIG. 10, the specular reflection calculation unit 143 sets the angle between the half angle (half vector H) of the angle formed by the light source and the line of sight to the surface normal vector (ρ), and the roughness parameter Regarding (γ), let (γ) be the angle at which the normal distribution function D(ρ) is half the maximum value (1/2). Then, the specular reflection calculator 143 obtains the unknown (γ) of the normal distribution function expressed by the above equation (11) by Gaussian fitting.

次に、質感計算部140(鏡面反射算出部143)は、s波およびp波それぞれについて、入射された反射光量および反射された光量に基づき、反射率を算出する(ステップS6)。
ここで、鏡面反射算出部143は、s波、p波それぞれについて、上記した式(12)および式(13)に基づき、それぞれの反射率を算出する。
Next, the texture calculation unit 140 (specular reflection calculation unit 143) calculates the reflectance for each of the s-wave and the p-wave based on the amount of incident light and the amount of reflected light (step S6).
Here, the specular reflection calculator 143 calculates the reflectance of each of the s-wave and the p-wave based on the above equations (12) and (13).

続いて、鏡面反射算出部143は、算出したp波、s波の反射率を用いて、上記した式(18)により、被写体屈折率(nj)を算出する。なお、空気の屈折率(ni)は、予め初期設定情報200に記憶しておくものとする(ステップS7)。 Subsequently, the specular reflection calculation unit 143 calculates the object refractive index (n j ) from the above equation (18) using the calculated p-wave and s-wave reflectances. It is assumed that the refractive index (n i ) of air is stored in advance in the initial setting information 200 (step S7).

そして、質感取得装置1の3次元モデル詳細情報出力部150は、質感計算部140が計算した、拡散反射係数Kd、法線情報(面法線ベクトル)、被写体表面の粗さ(γ)、被写体屈折率(nj)、被写体の反射率のうち、予め設定した所定の情報を、3次元モデル詳細情報として生成し、各情報を算出するために偏光撮影装置40が撮影した時刻に合わせて、CG描画装置等の外部装置5へ出力する(ステップS8)。
このとき、上記したように、3次元モデル詳細情報出力部150は、反射率については、基底関数とその重みで表現して3次元モデル詳細情報に含めるようにしてもよいし、Schlickらが提案したフレネル反射係数近似式のRoとして3次元モデル詳細情報に含めるようにしてもよい。
Then, the three-dimensional model detailed information output unit 150 of the texture acquisition device 1 outputs the diffuse reflection coefficient K d , the normal information (surface normal vector), the roughness (γ) of the object surface, Of the object refractive index (n j ) and the object reflectance, predetermined information set in advance is generated as three-dimensional model detailed information, and in order to calculate each piece of information, according to the time when the polarization photographing device 40 photographed , to an external device 5 such as a CG drawing device (step S8).
At this time, as described above, the three-dimensional model detailed information output unit 150 may express the reflectance by basis functions and their weights and include them in the three-dimensional model detailed information. It may be included in the three-dimensional model detailed information as Ro of the Fresnel reflection coefficient approximation formula.

また、質感取得装置1が、図14で示す3次元モデル詳細情報出力部150aを備える場合には、各外部装置5から最適化条件情報55を取得し、その外部装置5のスペックや設定に応じた3次元モデル詳細情報52を生成して出力するか、または、3次元モデル詳細情報出力部150a(3DCGレンダリング部153)においてレンダリングを行い、2次元画像53に変換して外部装置5に出力するようにしてもよい。 14, the optimization condition information 55 is acquired from each external device 5, and according to the specifications and settings of the external device 5, Alternatively, the 3D model detailed information output unit 150a (3DCG rendering unit 153) renders the 3D model detailed information 52, converts it into a 2D image 53, and outputs it to the external device 5. You may do so.

≪実装例≫
実装例について説明する。ここでは、図3で示すように、撮影ブースBHを、正8面体の頂点に偏光照明装置30を配置し、各面の中央に奥行き計測装置20および偏光撮影装置40を配置して、正8面体内部を撮影するように設置する。また、図12および図13で示したように、正8面体の一面を底面として回転した配置とする。
ここで、偏光照明装置30には、直線偏光フィルタを配置し、偏光方向は偏光しないこととし、1シーケンス3フレームで撮影を行う場合を想定する。
そして、偏光撮影装置40として、例えば、240Hzの高速偏光RGBカメラを用い、さらにシーケンス間でオプティカルフローによる動き検出および動きキャンセル処理を行う。これにより、1シーケンス内での被写体の動きによる影響を抑制する。本実装例では、240Hzの高速偏光RGBカメラであることから、1シーケンス3フレームを240/3=80Hzで撮影可能となる。
この撮影ブースBHの構成で、本実施形態に係る質感取得装置1による質感取得処理を行い、3次元モデル詳細情報に、取得時刻やその他の情報(撮影条件、カメラ構成情報等)のメタデータを付したファイルを出力する。
≪Example of implementation≫
An implementation example is explained. Here, as shown in FIG. 3, the photography booth BH has a regular octahedron with polarized illumination devices 30 arranged at the vertices of a regular octahedron, and a depth measurement device 20 and a polarized photography device 40 arranged at the center of each plane. Install so as to photograph the inside of the mask. Also, as shown in FIGS. 12 and 13, the arrangement is such that one surface of the regular octahedron is rotated as the bottom surface.
Here, it is assumed that a linear polarizing filter is arranged in the polarizing illumination device 30, the polarization direction is not polarized, and shooting is performed with one sequence of three frames.
A high-speed polarization RGB camera of 240 Hz, for example, is used as the polarization imaging device 40, and motion detection and motion cancellation processing by optical flow are performed between sequences. This suppresses the influence of the movement of the subject within one sequence. In this implementation example, since it is a 240 Hz high-speed polarized RGB camera, it is possible to shoot 3 frames in one sequence at 240/3=80 Hz.
With this configuration of the photography booth BH, texture acquisition processing is performed by the texture acquisition device 1 according to the present embodiment, and metadata such as the acquisition time and other information (shooting conditions, camera configuration information, etc.) is added to the three-dimensional model detailed information. output the attached file.

ここで、本実施形態の質感取得装置1の質感計算部140(拡散反射算出部142)による、拡散反射係数Kdおよび法線情報の算出の効果について具体例を説明する。
従来手法においては、拡散反射係数Kdおよび法線情報(法線ベクトル)の算出について、反射光の拡散反射成分Idと鏡面反射成分Isを分離することなく行われていた。一方、本実施形態に係る質感取得装置1では、反射光の拡散反射成分Idと鏡面反射成分Isとを分離し、拡散反射成分Id(拡散反射光)のみを用いて、拡散反射係数Kdおよび法線情報(法線ベクトル)を算出する。
Here, a specific example of the effect of calculating the diffuse reflection coefficient Kd and the normal information by the texture calculation unit 140 (diffuse reflection calculation unit 142) of the texture acquisition device 1 of the present embodiment will be described.
In the conventional method, the diffuse reflection coefficient Kd and the normal information (normal vector) are calculated without separating the diffuse reflection component Id and the specular reflection component Is of the reflected light. On the other hand, the texture acquisition apparatus 1 according to this embodiment separates the diffuse reflection component I d and the specular reflection component I s of the reflected light, and uses only the diffuse reflection component I d (diffuse reflection light) to obtain the diffuse reflection coefficient Calculate Kd and normal information (normal vector).

この結果、図16(a)で示すように、拡散反射光のみ(折れ線A)を用いた本実施形態の拡散反射係数Kdの結果は、反射光を分離しない(折れ線B)の拡散反射係数Kdの結果よりも、真値に近い値となっている。
また、図16(b)で示すように、拡散反射光のみ(折れ線A)を用いた本実施形態の法線情報(法線ベクトル)の結果は、反射光を分離しない(折れ線B)の法線情報(法線ベクトル)よりも、真値に近い値となっている。
本実施形態に係る質感取得装置1によれば、このように法線情報(法線ベクトル)の正確な値が算出されることにより、この情報を利用して算出される、被写体表面の粗さ(γ)および被写体屈折率(nj)の値もより正確となる。
以上により、質感取得装置1は、被写体表面の質感を表現できるフォトリアルなCGレンダリングに必要となる3次元モデルの詳細情報をリアルタイムに取得し、各外部装置5に最適な情報として出力することが可能となる。
As a result, as shown in FIG. 16A, the result of the diffuse reflection coefficient K d of this embodiment using only the diffusely reflected light (line A) is the diffuse reflection coefficient The value is closer to the true value than the result of Kd .
Further, as shown in FIG. 16B, the result of the normal line information (normal vector) of this embodiment using only the diffusely reflected light (line A) is the normal line information (normal line vector) obtained by not separating the reflected light (line B). The value is closer to the true value than the line information (normal vector).
According to the texture acquisition apparatus 1 according to the present embodiment, by calculating an accurate value of the normal information (normal vector) in this way, the roughness of the surface of the object calculated using this information (γ) and object refractive index (n j ) values are also more accurate.
As described above, the texture acquisition device 1 acquires in real time the detailed information of the three-dimensional model necessary for photorealistic CG rendering capable of expressing the texture of the surface of the subject, and outputs it to each external device 5 as optimum information. It becomes possible.

1 質感取得装置
5 外部装置
10 制御部
11 入出力部
12 記憶部
20 奥行き計測装置
30 偏光照明装置
40 偏光撮影装置
40a 偏光RGBカメラ
51 最適化条件情報
52 3次元モデル詳細情報
53 2次元画像
110 初期設定情報取得部
120 被写体形状取得部
130 計測制御部
140 質感計算部
141 反射成分分離部
142 拡散反射算出部
143 鏡面反射算出部
150,150a 3次元モデル詳細情報出力部
151 送信内容判定部
152 詳細情報出力部
153 3DCGレンダリング部
200 初期設定情報
1000 質感取得システム
BH 撮影ブース
ST 撮影ステージ
1 texture acquisition device 5 external device 10 control unit 11 input/output unit 12 storage unit 20 depth measurement device 30 polarization lighting device 40 polarization photography device 40a polarization RGB camera 51 optimization condition information 52 three-dimensional model detailed information 53 two-dimensional image 110 initial Setting information acquisition unit 120 Subject shape acquisition unit 130 Measurement control unit 140 Texture calculation unit 141 Reflection component separation unit 142 Diffuse reflection calculation unit 143 Specular reflection calculation unit 150, 150a Three-dimensional model detailed information output unit 151 Transmission content determination unit 152 Detailed information Output unit 153 3DCG rendering unit 200 Initial setting information 1000 Texture acquisition system BH Photography booth ST Photography stage

Claims (5)

被写体を取り囲んで配置される、奥行き計測装置、偏光照明装置および偏光撮影装置を有する撮影ブースと、
前記奥行き計測装置、前記偏光照明装置および前記偏光撮影装置に通信接続され、前記被写体表面の凹凸の状態で示される質感を取得する質感取得装置と、を備える質感取得システムであって、
前記質感取得装置は、
前記偏光照明装置の照明位置および照明強度、並びに、前記奥行き計測装置および前記偏光撮影装置のカメラ位置およびカメラ姿勢を含む初期設定情報が記憶される記憶部と、
前記奥行き計測装置が計測した奥行きの情報を受信することにより、前記被写体の形状情報を取得する被写体形状取得部と、
複数波長の偏向光を前記偏光照明装置が前記被写体に照射する制御を行う計測制御部と、
前記複数波長の偏向光それぞれが照射された前記被写体からの反射光を前記偏光撮影装置が撮影した情報として取得し、前記反射光を拡散反射成分と鏡面反射成分とに分離する反射成分分離部と、
3方向に配置された前記偏光照明装置が前記複数波長の偏向光それぞれを前記被写体に照射することにより前記偏光撮影装置が撮影した反射光について、前記反射成分分離部により分離された前記拡散反射成分と、前記偏光照明装置の照明位置および照明強度とを、ランバートの余弦則に適用し、前記被写体の拡散反射係数および法線情報を算出する拡散反射算出部と、
前記複数波長の偏向光それぞれについて前記反射成分分離部により分離された前記鏡面反射成分、前記偏光照明装置の照明位置、前記偏光撮影装置のカメラ位置、および、算出された前記法線情報を、所定の鏡面反射モデルに適用し、前記所定の鏡面反射モデルにより得られる法線分布関数が最大値に対して半値となる角度を、前記被写体表面の粗さのパラメータとして算出するとともに、
前記偏光照明装置の照明位置、前記偏光撮影装置のカメラ位置、前記法線情報、前記法線分布関数を、前記所定の鏡面反射モデルに適用し、前記複数波長の偏向光のp波およびs波それぞれにおける前記被写体の反射率を算出し、算出した前記反射率を、屈折率が異なる媒質中の反射に関するフレネルの式に適用することにより前記被写体の屈折率を算出する鏡面反射算出部と、
算出された、前記拡散反射係数、前記法線情報、前記被写体表面の粗さ、前記反射率、前記屈折率のうちのいずれかを含む情報を、当該情報を算出するために前記偏光撮影装置が撮影した時刻に合わせて3次元モデル詳細情報として出力する3次元モデル詳細情報出力部と、を備えることを特徴とする質感取得システム。
a photography booth having a depth measuring device, a polarized lighting device, and a polarized photography device arranged around a subject;
a texture acquisition device that is communicatively connected to the depth measurement device, the polarized lighting device, and the polarized imaging device, and acquires a texture that is indicated by the uneven state of the surface of the subject, wherein
The texture acquisition device includes:
a storage unit for storing initial setting information including the illumination position and illumination intensity of the polarized illumination device and camera positions and camera orientations of the depth measurement device and the polarized imaging device;
a subject shape acquisition unit that acquires shape information of the subject by receiving depth information measured by the depth measurement device;
a measurement control unit that controls the polarized illumination device to irradiate the subject with polarized light of multiple wavelengths;
a reflection component separation unit that acquires the reflected light from the subject irradiated with the polarized light of each of the plurality of wavelengths as information photographed by the polarization imaging device, and separates the reflected light into a diffuse reflection component and a specular reflection component; ,
The diffuse reflection component separated by the reflection component separation unit for the reflected light photographed by the polarization imaging device by irradiating the subject with the polarized light of the plurality of wavelengths by the polarized lighting devices arranged in three directions. and a diffuse reflection calculation unit that applies the illumination position and illumination intensity of the polarized illumination device to Lambert's cosine law to calculate the diffuse reflection coefficient and normal information of the subject;
The specular reflection component separated by the reflection component separation unit for each of the polarized lights of the plurality of wavelengths, the illumination position of the polarized illumination device, the camera position of the polarized imaging device, and the calculated normal line information are stored in a predetermined manner. is applied to the specular reflection model, and the angle at which the normal distribution function obtained by the predetermined specular reflection model has a half value of the maximum value is calculated as a parameter of the surface roughness of the subject,
Applying the illumination position of the polarized illumination device, the camera position of the polarized imaging device, the normal information, and the normal distribution function to the predetermined specular reflection model, the p-wave and s-wave of the polarized light of the plurality of wavelengths a specular reflection calculation unit that calculates the reflectance of the subject at each point, and applies the calculated reflectance to Fresnel's formula for reflection in media having different refractive indices to calculate the refractive index of the subject;
the calculated diffuse reflection coefficient, the normal information, the roughness of the surface of the subject, the reflectance, and the refractive index, the polarizing apparatus for calculating the information; and a three-dimensional model detailed information output unit for outputting three-dimensional model detailed information in accordance with photographing time.
撮影ブースにおいて被写体を取り囲んで配置される、奥行き計測装置、偏光照明装置および偏光撮影装置に通信接続され、前記被写体表面の凹凸の状態で示される質感を取得する質感取得装置であって、
前記偏光照明装置の照明位置および照明強度、並びに、前記奥行き計測装置および前記偏光撮影装置のカメラ位置およびカメラ姿勢を含む初期設定情報が記憶される記憶部と、
前記奥行き計測装置が計測した奥行きの情報を受信することにより、前記被写体の形状情報を取得する被写体形状取得部と、
複数波長の偏向光を前記偏光照明装置が前記被写体に照射する制御を行う計測制御部と、
前記複数波長の偏向光それぞれが照射された前記被写体からの反射光を前記偏光撮影装置が撮影した情報として取得し、前記反射光を拡散反射成分と鏡面反射成分とに分離する反射成分分離部と、
3方向に配置された前記偏光照明装置が前記複数波長の偏向光それぞれを前記被写体に照射することにより前記偏光撮影装置が撮影した反射光について、前記反射成分分離部により分離された前記拡散反射成分と、前記偏光照明装置の照明位置および照明強度とを、ランバートの余弦則に適用し、前記被写体の拡散反射係数および法線情報を算出する拡散反射算出部と、
前記複数波長の偏向光それぞれについて前記反射成分分離部により分離された前記鏡面反射成分、前記偏光照明装置の照明位置、前記偏光撮影装置のカメラ位置、および、算出された前記法線情報を、所定の鏡面反射モデルに適用し、前記所定の鏡面反射モデルにより得られる法線分布関数が最大値に対して半値となる角度を、前記被写体表面の粗さのパラメータとして算出するとともに、
前記偏光照明装置の照明位置、前記偏光撮影装置のカメラ位置、前記法線情報、前記法線分布関数を、前記所定の鏡面反射モデルに適用し、前記複数波長の偏向光のp波およびs波それぞれにおける前記被写体の反射率を算出し、算出した前記反射率を、屈折率が異なる媒質中の反射に関するフレネルの式に適用することにより前記被写体の屈折率を算出する鏡面反射算出部と、
算出された、前記拡散反射係数、前記法線情報、前記被写体表面の粗さ、前記反射率、前記屈折率のうちのいずれかを含む情報を、当該情報を算出するために前記偏光撮影装置が撮影した時刻に合わせて所定の3次元モデル詳細情報として出力する3次元モデル詳細情報出力部と、を備えることを特徴とする質感取得装置。
A texture acquisition device that is communicatively connected to a depth measurement device, a polarized lighting device, and a polarized imaging device that are arranged surrounding a subject in a photography booth, and that acquires a texture indicated by the unevenness of the surface of the subject,
a storage unit for storing initial setting information including the illumination position and illumination intensity of the polarized illumination device and camera positions and camera orientations of the depth measurement device and the polarized imaging device;
a subject shape acquisition unit that acquires shape information of the subject by receiving depth information measured by the depth measurement device;
a measurement control unit that controls the polarized illumination device to irradiate the subject with polarized light of multiple wavelengths;
a reflection component separation unit that acquires the reflected light from the subject irradiated with the polarized light of each of the plurality of wavelengths as information photographed by the polarization imaging device, and separates the reflected light into a diffuse reflection component and a specular reflection component; ,
The diffuse reflection component separated by the reflection component separation unit for the reflected light photographed by the polarization imaging device by irradiating the subject with the polarized light of the plurality of wavelengths by the polarized lighting devices arranged in three directions. and a diffuse reflection calculation unit that applies the illumination position and illumination intensity of the polarized illumination device to Lambert's cosine law to calculate the diffuse reflection coefficient and normal information of the subject;
The specular reflection component separated by the reflection component separation unit for each of the polarized lights of the plurality of wavelengths, the illumination position of the polarized illumination device, the camera position of the polarized imaging device, and the calculated normal line information are stored in a predetermined manner. is applied to the specular reflection model, and the angle at which the normal distribution function obtained by the predetermined specular reflection model has a half value of the maximum value is calculated as a parameter of the surface roughness of the subject,
Applying the illumination position of the polarized illumination device, the camera position of the polarized imaging device, the normal information, and the normal distribution function to the predetermined specular reflection model, the p-wave and s-wave of the polarized light of the plurality of wavelengths a specular reflection calculation unit that calculates the reflectance of the subject at each point, and applies the calculated reflectance to Fresnel's formula for reflection in media having different refractive indices to calculate the refractive index of the subject;
the calculated diffuse reflection coefficient, the normal information, the roughness of the surface of the subject, the reflectance, and the refractive index, the polarizing apparatus for calculating the information; and a three-dimensional model detailed information output unit for outputting predetermined three-dimensional model detailed information in accordance with photographing time.
前記質感取得装置は、1つ以上の外部装置と通信接続されており、
前記所定の3次元モデル詳細情報を出力する代わりに、前記3次元モデル詳細情報出力部は、前記外部装置それぞれの3DCGレンダリングの処理能力に関する情報を示す最適化条件情報を取得し、前記外部装置それぞれの処理能力に応じて、前記3次元モデル詳細情報に含める情報を、前記拡散反射係数、前記法線情報、前記被写体表面の粗さ、前記反射率および前記屈折率の中から選択し、前記外部装置それぞれに応じた3次元モデル詳細情報を生成して出力することを特徴とする請求項2に記載の質感取得装置。
The texture acquisition device is connected for communication with one or more external devices,
Instead of outputting the predetermined 3D model detailed information, the 3D model detailed information output unit acquires optimization condition information indicating information about 3DCG rendering processing capability of each of the external devices, information to be included in the three-dimensional model detailed information is selected from the diffuse reflection coefficient, the normal line information, the surface roughness of the object, the reflectance, and the refractive index according to the processing capability of the external 3. The texture acquisition device according to claim 2, wherein the three-dimensional model detailed information corresponding to each device is generated and output.
前記質感取得装置は、3DCGレンダリング機能を備えており、
前記3次元モデル詳細情報出力部は、
前記外部装置へ前記外部装置それぞれに応じた3次元モデル詳細情報を出力しても、前記最適化条件情報として取得した所定のレイテンシー要件を満たさないと判定した場合に、前記3DCGレンダリング機能により前記外部装置に代わって3DCGレンダリングを実行し、前記外部装置に応じた2次元画像に変換して出力することを特徴とする請求項3に記載の質感取得装置。
The texture acquisition device has a 3DCG rendering function,
The three-dimensional model detailed information output unit
When it is determined that the predetermined latency requirement acquired as the optimization condition information is not satisfied even if the three-dimensional model detailed information corresponding to each of the external devices is output to the external device, the external 4. The texture acquisition device according to claim 3, wherein 3DCG rendering is executed instead of the device, converted into a two-dimensional image corresponding to the external device, and output.
コンピュータを、請求項2乃至請求項4のいずれか1項に記載の質感取得装置として機能させるための質感取得プログラム。 A texture acquisition program for causing a computer to function as the texture acquisition device according to any one of claims 2 to 4.
JP2021139107A 2021-08-27 2021-08-27 Texture acquisition system, texture acquisition device and texture acquisition program Pending JP2023032793A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021139107A JP2023032793A (en) 2021-08-27 2021-08-27 Texture acquisition system, texture acquisition device and texture acquisition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021139107A JP2023032793A (en) 2021-08-27 2021-08-27 Texture acquisition system, texture acquisition device and texture acquisition program

Publications (1)

Publication Number Publication Date
JP2023032793A true JP2023032793A (en) 2023-03-09

Family

ID=85416111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021139107A Pending JP2023032793A (en) 2021-08-27 2021-08-27 Texture acquisition system, texture acquisition device and texture acquisition program

Country Status (1)

Country Link
JP (1) JP2023032793A (en)

Similar Documents

Publication Publication Date Title
US20230154105A1 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
US9437035B2 (en) Light source detection from synthesized objects
US7792367B2 (en) System, method and apparatus for image processing and image format
Aittala et al. Practical SVBRDF capture in the frequency domain.
US6639594B2 (en) View-dependent image synthesis
US8648907B2 (en) Image processing apparatus
Matusik et al. Progressively-Refined Reflectance Functions from natural Illumination.
JP5059503B2 (en) Image composition apparatus, image composition method, and image composition program
JP2022060641A (en) Texture acquisition system, texture acquisition apparatus, and texture acquisition program
JP6292968B2 (en) Pseudo HDR image estimation apparatus and method
Tonsho et al. Development of goniophotometric imaging system for recording reflectance spectra of 3D objects
Darling et al. Real-time multispectral rendering with complex illumination
JP2023032793A (en) Texture acquisition system, texture acquisition device and texture acquisition program
US20230124117A1 (en) Appearance capture under multiple lighting conditions
JP2023553259A (en) dark flash normal camera
Xu et al. A system for reconstructing integrated texture maps for large structures
KR101772626B1 (en) Method for separating reflection components from a single image and image processing apparatus using the method thereof
US11216646B1 (en) Techniques for object appearance capture
CN114174783B (en) Systems and methods for creating topical formulations with improved image capture
RU2806729C1 (en) System and method for reconstructing surface properties and determining the position of digital 3d objects
Siepmann et al. Pixel synchronous measurement of object shape and colour
US20240144591A1 (en) System and method for surface properties reconstruction and positioning of digitized 3d objects
Li et al. Color and gloss reproduction from multispectral images
JP2024068744A (en) Subsurface scattering analysis device, subsurface scattering analysis system and subsurface scattering analysis program
Chen et al. Model evaluation for computer graphics renderings of artist paint surfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240701