JP6364777B2 - Image data acquisition system and image data acquisition method - Google Patents

Image data acquisition system and image data acquisition method Download PDF

Info

Publication number
JP6364777B2
JP6364777B2 JP2014003374A JP2014003374A JP6364777B2 JP 6364777 B2 JP6364777 B2 JP 6364777B2 JP 2014003374 A JP2014003374 A JP 2014003374A JP 2014003374 A JP2014003374 A JP 2014003374A JP 6364777 B2 JP6364777 B2 JP 6364777B2
Authority
JP
Japan
Prior art keywords
image
light
scattering
projector
reflection component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014003374A
Other languages
Japanese (ja)
Other versions
JP2015132509A (en
Inventor
森本 哲郎
哲郎 森本
健二 猪瀬
健二 猪瀬
智仁 増田
智仁 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2014003374A priority Critical patent/JP6364777B2/en
Publication of JP2015132509A publication Critical patent/JP2015132509A/en
Application granted granted Critical
Publication of JP6364777B2 publication Critical patent/JP6364777B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、半透明物体表面の三次元形状、法線及び分光による内部散乱特性を取得する画像データ取得システム及び画像データ取得方法に関する。   The present invention relates to an image data acquisition system and an image data acquisition method for acquiring internal scattering characteristics by the three-dimensional shape, normal line, and spectrum of a translucent object surface.

近年、コンピュータシステムにおける演算速度の向上や画像処理のアルゴリズムの開発などにより、コンピュータ資源を用いた画像の作成を行うCG(computer graphics)が実用化されている。
たとえば、3次元CGは、3次元オブジェクトが所定の光源によって照らされたときの光学現象を数学モデルで表現している。また、この3次元CGは、数学モデルに基づいて、3次元オブジェクトの表面に陰影や濃淡を付け、さらに模様を貼り付けて、2次元画面に表示する3次元的な2次元画像を生成する。
In recent years, CG (computer graphics) for creating images using computer resources has been put into practical use by improving the calculation speed in computer systems and developing image processing algorithms.
For example, the three-dimensional CG expresses an optical phenomenon when a three-dimensional object is illuminated by a predetermined light source with a mathematical model. In addition, the 3D CG generates a 3D two-dimensional image to be displayed on a 2D screen by adding shading or shading to the surface of the 3D object and further pasting a pattern based on a mathematical model.

この3次元CGを作成するためには、物質の3次元形状、分光、法線の画像データが必要となる。また、3次元CGで再現しようとする物体が半透明な物体(以下、半透明物体とする)である場合、物体の内部における散乱特性(BSSRDF:Bidirectional Subsurface Scattering Distribution Function、双方向散乱面反射率分布関数)を示す散乱データが必要となる。
現在、様々な計測装置が市販されているが、半透明物体に対応しているものはほとんどない。半透明物体に対するものは、未だ研究段階であり、かつ形状計測に特化したものである。このように、現時点において、半透明物体の3次元形状と法線と分光によって内部散乱特性を、単一システムで一括して計測できる計測装置はない。
In order to create this three-dimensional CG, three-dimensional shape, spectral, and normal image data of the substance are required. In addition, when the object to be reproduced by 3D CG is a translucent object (hereinafter referred to as a translucent object), scattering characteristics (BSSRDF: Bidirectional Subsurface Scattering Distribution Function, bidirectional scattering surface reflectivity) Scattering data showing the distribution function is required.
Currently, various measuring devices are commercially available, but few are compatible with translucent objects. Those for translucent objects are still in the research stage and specialized in shape measurement. Thus, at present, there is no measuring apparatus that can collectively measure the internal scattering characteristics by a three-dimensional shape, normal line, and spectrum of a translucent object.

半透明物体の形状のみを計測する手法としては、プロジェクタから正弦波パターン(パターン光)を、半透明物体に対して投影する位相シフト法により、反射光の直接反射成分(直接反射光)と間接反射成分(間接反射光)とを分離する手法(例えば、非特許文献1参照)がある。
また、位相シフト法に偏光板を組み合わせることにより、半透明物体からの散乱光の影響を軽減し、形状計測の精度を向上させる手法がある(例えば、非特許文献2、非特許文献3及び非特許文献4参照)。
また、物体の形状計測としては、コンピュータ断層撮影技術を用いた手法(例えば、特許文献4参照)や共焦点パターン投影法を用いて計測する手法がある(例えば、特許文献5参照)。
As a method of measuring only the shape of a semi-transparent object, a direct shift component (direct reflection light) and indirect reflection of reflected light are performed by a phase shift method in which a sine wave pattern (pattern light) is projected from a projector onto a semi-transparent object. There is a method for separating the reflection component (indirect reflected light) (see, for example, Non-Patent Document 1).
In addition, there is a method of reducing the influence of scattered light from a translucent object and improving the accuracy of shape measurement by combining a polarizing plate with a phase shift method (for example, Non-Patent Document 2, Non-Patent Document 3, and Non-Patent Document 3). (See Patent Document 4).
In addition, as object shape measurement, there are a method using a computer tomography technique (for example, see Patent Document 4) and a method for measuring using a confocal pattern projection method (for example, see Patent Document 5).

三次元形状計測手法は、パターン光を投影して計測する装置の場合、この投影するパターン光の解像度の形状情報の精度でしか、物体の三次元形状を計測することができない。
また、3次元形状における局所的な面の傾きである法線情報を取得する方法として、照度差ステレオ法が代表的である。照度差ステレオ法は、通常、3個以上の光源が必要である三次元形状計測手法であるが、2光源でも法線情報を取得できる手法がある(例えば、非特許文献5参照)が、物体の三次元形状を計測することができない。
The three-dimensional shape measurement method can measure the three-dimensional shape of an object only with the accuracy of the shape information of the resolution of the pattern light to be projected in the case of an apparatus that projects and measures the pattern light.
A illuminance difference stereo method is representative as a method for acquiring normal information that is a local surface inclination in a three-dimensional shape. The illuminance difference stereo method is usually a three-dimensional shape measurement method that requires three or more light sources, but there is a method that can acquire normal line information with two light sources (see Non-Patent Document 5, for example) The three-dimensional shape cannot be measured.

また、特許文献1には、物体の三次元形状と対象表面の分光情報とを同時に取得する手法が記載されている。すなわち、分光されたパターンを計測する物体の表面に投射し、カメラの前に取り付けた音響光学チューナブルフィルターを制御し、物体の表面から反さされるスペクトルパターンを波長ごとに撮像する。そして、撮像したスペクトルパターンの画像から三角測量法により、物体の三次元形状を取得している。
特許文献1においては、計測する物体の表面に対して白色光を投射し、音響光学チューナブルフィルターの透過波長を制御し、物体面から反射されたスペクトルパターンを、一回あるいは複数回撮像する。そして、得られたスペクトルパターンの画像から、画像演算回路により物体の表面の分光情報を求める。
Japanese Patent Application Laid-Open No. H10-228561 describes a method for simultaneously acquiring the three-dimensional shape of an object and the spectral information of the target surface. That is, the spectral pattern is projected onto the surface of the object to be measured, the acousto-optic tunable filter attached in front of the camera is controlled, and the spectral pattern warped from the surface of the object is imaged for each wavelength. Then, the three-dimensional shape of the object is acquired from the captured spectral pattern image by triangulation.
In Patent Document 1, white light is projected onto the surface of the object to be measured, the transmission wavelength of the acousto-optic tunable filter is controlled, and the spectrum pattern reflected from the object surface is imaged once or a plurality of times. Then, spectral information on the surface of the object is obtained from an image of the obtained spectral pattern by an image arithmetic circuit.

また、特許文献2には、スリット光投影法(光切断法)による三次元形状計測装置と、分光領域の異なる多数のフィルターを切り替えて撮影することによる分光情報計測器とを組み合わせた手法が記載されている。これにより、物体の三次元形状と対象表面の分光情報とを同時に取得することができる。
さらに、特許文献3には、絶対値としての分光反射率を取得する手法が記載されている。 しかしながら、上述した三次元物体の計測を行う手法は、全て拡散反射物体に限定され、半透明物体には適用できない。
Further, Patent Document 2 describes a method in which a three-dimensional shape measuring device using a slit light projection method (light cutting method) and a spectroscopic information measuring device by switching and photographing a large number of filters having different spectral regions are described. Has been. Thereby, the three-dimensional shape of the object and the spectral information of the target surface can be acquired simultaneously.
Furthermore, Patent Document 3 describes a technique for acquiring spectral reflectance as an absolute value. However, the above-described methods for measuring a three-dimensional object are all limited to diffuse reflection objects and cannot be applied to semi-transparent objects.

また、半透明物体のCG画像を再現するため、この再現に用いる半透明物体の内部散乱特性の情報を測定して記録する手法としては以下の2つがある。
一つ目は、一般照明下において、光を半透明物体の表面に照射し、半透明物体からの光の反射光がぼける画像を撮影する。そして、反射光のぼけた度合いからBSSRDFと言われる内部散乱特性を記録する手法である(例えば、特許文献4、非特許文献6参照)。
二つ目は、黒のドットパターンを対象の半透明物体に投影し、明るいところから黒のドットパターンの領域内に散乱してくる光の割合から、BSSRDFを求める内部散乱特性を計測して記録する手法である(例えば、非特許文献7参照)。
In addition, in order to reproduce a CG image of a translucent object, there are the following two methods for measuring and recording information on the internal scattering characteristics of the translucent object used for the reproduction.
The first method is to irradiate the surface of a semi-transparent object with light under general illumination and photograph an image in which reflected light of the light from the semi-transparent object is blurred. This is a technique for recording internal scattering characteristics called BSSRDF from the degree of blur of reflected light (see, for example, Patent Document 4 and Non-Patent Document 6).
Second, the black dot pattern is projected onto the target translucent object, and the internal scattering characteristics for determining BSSRDF are measured and recorded from the percentage of light scattered from the bright area into the black dot pattern area. (For example, refer nonpatent literature 7).

また、CG画像を生成するためにはBSSRDFの近似モデルである、ダイポールモデルのパラメータを算出し、三次元形状、法線、分光の各々のデータ及びダイポールモデルのパラメータを用いたレンダリングを行うことができる(非特許文献8)。   In addition, in order to generate a CG image, a parameter of a dipole model, which is an approximate model of BSSRDF, is calculated, and rendering is performed using each of the three-dimensional shape, normal line, and spectral data and the dipole model parameter. Yes (Non-Patent Document 8).

特開2003−294424号公報JP 2003-294424 A 特開2000−009440号公報JP 2000-009440 A 特開2012−078221号公報JP2012-078221A 特表2012−502262号公報Special table 2012-502262 gazette 特表2012−530267号公報Special table 2012-530267 gazette

S. K. Nayer, G.Krishnan, M. D. Grossberg, R. Rasker, “Fast Separation of Direct and Global Components of a Scene using High Frequency Illumination”, In (SIGGRAPH) (2006).S. K. Nayer, G. Krishnan, M. D. Grossberg, R. Rasker, “Fast Separation of Direct and Global Components of a Scene using High Frequency Illumination”, In (SIGGRAPH) (2006). 壮志傳田, 健大橋, 俊朗江島. 位相シフト法を用いた高速な3 次元計測手法の提案. 電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解, Vol. 99,No. 515, pp. 43-50, 19991217.Soshi Kamata, Ken Ohashi, Toshiro Ejima. Proposal of high-speed 3D measurement method using phase shift method. IEICE technical report. Pattern recognition and media understanding, Vol. 99, No. 515, pp. 43-50, 19991217. M. Gupta, A. Agrawal, A. Veeraraghavan and S. Narasimhan: “Structured light 3d scanning under global illumination”, Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2011).M. Gupta, A. Agrawal, A. Veeraraghavan and S. Narasimhan: “Structured light 3d scanning under global illumination”, Proc. Of IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2011). T. Chen, H. P. A. Lensch, C. Fuchs and H. P. Seidel:“Polarization and phase-shifting for 3d scanning of translucent objects”, Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2007).T. Chen, H. P. A. Lensch, C. Fuchs and H. P. Seidel: “Polarization and phase-shifting for 3d scanning of translucent objects”, Proc. Of IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2007). Q. Zhang, M. Ye, R. Yang, Y. Matsushita, B. Wilburn and H. Yu:“Edge-Preserving Photometric Stereo via Depth Fusion”, Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2012).Q. Zhang, M. Ye, R. Yang, Y. Matsushita, B. Wilburn and H. Yu: “Edge-Preserving Photometric Stereo via Depth Fusion”, Proc. Of IEEE Conference on Computer Vision and Pattern Recognition (CVPR) ( 2012). 向川康博、鈴木和哉、八木康史、一般照明下での表面下散乱の解析、画像の認識・理解シンポジウム(MIRU2008).Yasuhiro Mukakawa, Kazuya Suzuki, Yasushi Yagi, Analysis of subsurface scattering under general lighting, Image recognition and understanding symposium (MIRU2008). A. Ghosh, T. Hawkins, P. Peers, S. Frederiksen, and P. Debevec“Practical Modeling and Acquisition of Layered Facial Reflectance”, In (SIGGRAPH Asia) (2008).A. Ghosh, T. Hawkins, P. Peers, S. Frederiksen, and P. Debevec “Practical Modeling and Acquisition of Layered Facial Reflectance”, In (SIGGRAPH Asia) (2008). H. W. Jensen, S. R. Marschiner, M. Revoy, and P. Hanrahan: “A practical model for subsurface light transport”, In (SIGGRAPH) (2001).H. W. Jensen, S. R. Marschiner, M. Revoy, and P. Hanrahan: “A practical model for subsurface light transport”, In (SIGGRAPH) (2001).

しかしながら、上述した手法によっては、レンダリングを行うダイポールモデルを正確に算出する精度で、空間的に密な散乱特性を取得することができない。
また、三次元形状、法線及び分光に基づいて、半透明物体の内部散乱特性を求めるためには、三次元形状、法線及び分光の各々の計測に特化したパターンを、半透明物体に対して投影する必要がある。
However, according to the above-described method, it is impossible to acquire spatially dense scattering characteristics with the accuracy of accurately calculating a dipole model for rendering.
In addition, in order to determine the internal scattering characteristics of a semi-transparent object based on the three-dimensional shape, normal line, and spectrum, a pattern specialized for each measurement of the three-dimensional shape, normal line, and spectrum is applied to the semi-transparent object. It is necessary to project it.

また、照度差ステレオ法によって、半透明物体の三次元形状における法線推定手法は考慮されておらず、三次元形状と法線の推定とは一括して行うことができない。このため、上述した手法は、半透明物体の形状、法線及び分光とを個別に計測し、これらの計測結果を基に、半透明物体の内部散乱特性を個別に計測することに特化した手法である。したがって、これら半透明物体の形状、法線、分光及び内部散乱特性の全てを同時かつ単一システムで計測することができない。   In addition, the illuminance difference stereo method does not consider the normal estimation method for the three-dimensional shape of the translucent object, and the estimation of the three-dimensional shape and the normal cannot be performed collectively. For this reason, the above-described method specialized in measuring the shape, normal line, and spectrum of a translucent object individually, and individually measuring the internal scattering characteristics of the translucent object based on these measurement results. It is a technique. Therefore, the shape, normal, spectral and internal scattering characteristics of these semi-transparent objects cannot be measured simultaneously and with a single system.

このため、半透明物体のCG画像をレンダリングにより生成する際に用いる、半透明物体の三次元形状、法線及び分光の各々を計測する際、それぞれの装置が必要となり、測定装置に多大の費用がかかる。また、複数の計測装置により、透明物体の形状、法線及び分光の各々を求めるために何度かの測定を行った後、半透明物体の内部散乱特性を求めるために多くの時間がかかる。   For this reason, when measuring each of the three-dimensional shape, normal line, and spectrum of the semi-transparent object used when generating a CG image of the semi-transparent object by rendering, each apparatus is required, and the measuring apparatus is very expensive. It takes. In addition, it takes a lot of time to determine the internal scattering characteristics of a translucent object after several measurements are performed to determine each of the shape, normal line, and spectrum of the transparent object with a plurality of measuring devices.

本発明は、このような状況に鑑みてなされたもので、レンダリングを行い、半透明物体のCG画像を生成する際に用いる半透明物体の形状、法線、分光及び内部散乱特性の全てのデータを、単一システムで単一シーケンスのパターンのみを照射することで一括して求める画像データ取得システム及び画像データ取得方法を提供する。   The present invention has been made in view of such a situation. All data on the shape, normal, spectral and internal scattering characteristics of a translucent object used when rendering and generating a CG image of the translucent object are made. Provide an image data acquisition system and an image data acquisition method that are obtained collectively by irradiating only a single sequence pattern with a single system.

上述した課題を解決するために、本発明の画像データ取得システムは、半透明物体の表面の三次元形状情報と、表面の法線情報と、陰影の除去された1次散乱特性と、多重散乱特性とを取得する画像データ取得システムであり、2種類以上の異なる位相のパターン光を前記半透明物体に対して照射するパターン光照射部と、パターン光が照射された前記半透明物体の表面からの反射光を分光し、所定の波長毎の分光撮像データを取得する撮像部と、波長毎の前記分光撮像データから、所定の演算式により、位相成分前記法線情報及び前記1次散乱特性を求めるための1次散乱反射成分と、前記多重散乱特性を求めるための多重散乱反射成分の各々を分離し、位相画像、1次散乱反射成分画像、多重散乱反射成分画像の各々とを生成する撮像データ解析部と、前記位相画像に基づき、位相シフト法により前記半透明物体の表面の三次元形状情報を求める形状演算部と、2箇所以上の場所の異なるプロジェクタによる前記1次散乱反射成分画像から前記法線情報を求める法線演算部と、前記多重散乱反射成分画像から、所定の関数で表される多重散乱特性を求める散乱演算部とを備えることを特徴とする。 In order to solve the above-described problems, an image data acquisition system according to the present invention includes a three-dimensional shape information on a surface of a translucent object, surface normal information, a primary scattering characteristic with shadows removed, and multiple scattering. A pattern light irradiating unit that irradiates the semi-transparent object with pattern light of two or more different phases, and a surface of the semi-transparent object irradiated with the pattern light. An image capturing unit that spectrally divides the reflected light and obtains spectral imaging data for each predetermined wavelength, and a phase component , the normal information, and the primary scattering from the spectral imaging data for each wavelength according to a predetermined arithmetic expression. a single scattering reflection component for determining characteristics, the separating each of the multiple scattering reflection component for obtaining multiple scattering characteristics, the phase image, the primary diffuse reflection component image, and each of the multiple scattering reflection component image Generate An image data analysis unit, a shape calculation unit that obtains three-dimensional shape information of the surface of the translucent object based on the phase image based on the phase image, and the primary scattered reflection component image by two or more different projectors From the multiple scattering reflection component image, a normal calculation unit for obtaining the normal information from the multiple scattering reflection component image, and a scattering calculation unit for obtaining multiple scattering characteristics represented by a predetermined function.

本発明の画像データ取得システムは、前記散乱演算部が、前記多重散乱反射成分画像から画素毎の多重散乱特性を示す前記所定の関数を求めることを特徴とする。   The image data acquisition system according to the present invention is characterized in that the scattering calculation unit obtains the predetermined function indicating a multiple scattering characteristic for each pixel from the multiple scattered reflection component image.

本発明の画像データ取得システムは、前記法線演算部が、2箇所以上の場所の異なるプロジェクタによる2種以上の前記パターン光の各々から求めた前記1次散乱反射成分画像と、各々のプロジェクタ画素から物体表面への方向を表す光線画像とにより、前記半透明物体の陰影情報を求め、当該陰影情報から前記半透明物体の法線と、画像アルベドの1次散乱特性とを求めることを特徴とする。   In the image data acquisition system according to the present invention, the normal calculation unit obtains the primary scattered reflection component image obtained from each of the two or more kinds of pattern lights by two or more different projectors, and each projector pixel. A shadow image of the translucent object is obtained from a ray image representing a direction from the object surface to the object surface, and a normal line of the translucent object and a primary scattering characteristic of the image albedo are obtained from the shadow information. To do.

本発明の画像データ取得システムは、前記形状演算部が、2種以上の前記パターン光毎の位相が各々異なる前記位相画像の各画素と、前記プロジェクタから投影された前記パターン光の各画素との対応を取り、三角測量法によって前記半透明物体の三次元形状を推定することを特徴とする。   In the image data acquisition system of the present invention, the shape calculation unit includes: each pixel of the phase image in which the phase of each of the two or more types of pattern light is different; and each pixel of the pattern light projected from the projector Taking correspondence, the three-dimensional shape of the translucent object is estimated by triangulation.

本発明の画像データ取得方法は、半透明物体の表面の三次元形状情報と、表面の法線情報と、陰影の除去された1次散乱特性と、多重散乱特性とを取得する画像データ取得方法であり、2種類以上の異なる位相のパターン光を前記半透明物体に対して照射するパターン光照射過程と、パターン光が照射された前記半透明物体の表面からの反射光を分光し、所定の波長毎の分光撮像データを取得する撮像過程と、波長毎の前記分光撮像データから、所定の演算式により、位相成分前記法線情報及び前記1次散乱特性を求めるための1次散乱反射成分と、前記多重散乱特性を求めるための多重散乱反射成分の各々を分離し、位相画像、1次散乱反射成分画像、多重散乱反射成分画像の各々とを生成する撮像データ解析過程と、前記位相画像に基づき、位相シフト法により前記半透明物体の表面の三次元形状情報を求める形状演算過程と、2箇所以上の場所の異なるプロジェクタによる前記1次散乱反射成分画像から前記法線情報を求める法線演算過程と、 前記多重散乱反射成分画像から、所定の関数で表される多重散乱特性を求める散乱演算過程とを含むことを特徴とする。 An image data acquisition method according to the present invention acquires three-dimensional shape information of a surface of a translucent object, surface normal information, primary scattering characteristics from which shading has been removed, and multiple scattering characteristics. A pattern light irradiation process of irradiating the semi-transparent object with two or more types of pattern light of different phases, and the reflected light from the surface of the semi-transparent object irradiated with the pattern light, The primary scattering reflection for obtaining the phase component , the normal information, and the primary scattering characteristic from the spectral imaging data for each wavelength and the spectral imaging data for each wavelength by a predetermined arithmetic expression. a component, each of the multiple scattering reflection component for obtaining said multiple scattering properties were separated, the phase image, the primary diffuse reflection component image, and the imaging data analysis process of generating the respective multiple scattering reflection component image, the Phase image Based on the shape calculation process for obtaining the three-dimensional shape information of the surface of the translucent object by the phase shift method and the normal calculation for obtaining the normal information from the primary scattered reflection component images by two or more different projectors And a scattering calculation process for obtaining a multiple scattering characteristic represented by a predetermined function from the multiple scattered reflection component image.

以上説明したように、本発明によれば、画像データ取得システムは、レンダリングを行い、半透明物体のCG画像を生成する際に用いる半透明物体の形状、法線、分光及び内部散乱特性の全てのデータを、単一システムで単一シーケンスのパターンのみを照射することで一括して求めることができる。   As described above, according to the present invention, the image data acquisition system performs all of the shape, normal, spectral and internal scattering characteristics of the translucent object used when rendering and generating a CG image of the translucent object. These data can be obtained collectively by irradiating only a single sequence pattern with a single system.

本発明の本実施形態による画像データ取得システム1の構成例を示す図である。It is a figure which shows the structural example of the image data acquisition system 1 by this embodiment of this invention. 半透明物体における反射光の説明を行う光学モデルを示す半透明物体の断面図である。It is sectional drawing of the semi-transparent object which shows the optical model which demonstrates the reflected light in a semi-transparent object. 図1の画像データ取得システム1における計測処理部5の構成例を示すブロック図である。It is a block diagram which shows the structural example of the measurement process part 5 in the image data acquisition system 1 of FIG. 光照射制御部101がパターン光照射部7のプロジェクタ3またはプロジェクタ4に対して出射させるパターン光の例である。This is an example of pattern light that the light irradiation control unit 101 causes the projector 3 or the projector 4 of the pattern light irradiation unit 7 to emit. 解析の対象となる半透明物体6の撮像画像、位相画像11、1次散乱反射画像19、多重散乱反射画像20を示す図である。It is a figure which shows the picked-up image of the translucent object 6 used as the analysis object, the phase image 11, the primary scattering reflected image 19, and the multiple scattered reflected image 20. FIG. 本実施形態における法線演算部105の法線(法線情報)を生成する処理を説明する図である。It is a figure explaining the process which produces | generates the normal line (normal line information) of the normal line calculating part 105 in this embodiment. BSSRDFの関数のグラフの一例を示す図である。It is a figure which shows an example of the graph of the function of BSSRDF. 画像データ取得システム1による半透明物体6の分光撮像データを取得する動作例を示すフローチャートである。4 is a flowchart illustrating an operation example of acquiring spectral imaging data of a translucent object 6 by the image data acquisition system 1. 画像データ取得システム1における半透明物体の画像解析処理の動作例を示すフローチャートである。4 is a flowchart illustrating an operation example of image analysis processing of a translucent object in the image data acquisition system 1.

以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本発明の本実施形態による画像データ取得システム1の構成例を示す図である。本実施形態による画像データ取得システム1は、撮像部2と、計測処理部5と、パターン光照射部7とを備えている。パターン光照射部7は、パターンを投影する2台以上のプロジェクタ、例えば本実施形態においてはプロジェクタ3及びプロジェクタ4の2台を備えている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration example of an image data acquisition system 1 according to this embodiment of the present invention. The image data acquisition system 1 according to the present embodiment includes an imaging unit 2, a measurement processing unit 5, and a pattern light irradiation unit 7. The pattern light irradiation unit 7 includes two or more projectors that project a pattern, for example, two projectors 3 and 4 in this embodiment.

プロジェクタ3及びプロジェクタ4の各々は、それぞれが異なる位相(位相シフト法におけるパターン光の位相)のパターンの光(例えば、後述する正弦波パターン光)を、対象物の半透明物体6に対して照射する。なお、図1に示す光照射部7は、プロジェクタ3及びプロジェクタ4の2台を組合わせた構成としているが、2個以上の光源を組合わせた1つのプロジェクタとして構成しても良い。   Each of the projector 3 and the projector 4 irradiates light (for example, a sine wave pattern light described later) having a different phase (the phase of the pattern light in the phase shift method) onto the translucent object 6 as the object. To do. 1 has a configuration in which two projectors 3 and 4 are combined, but may be configured as one projector in which two or more light sources are combined.

すなわち、プロジェクタ3は、正弦波パターンLT1を半透明物体6に対して照射する。プロジェクタ4は、正弦波パターンLT1と異なる時間帯に正弦波パターンLT2を半透明物体6に対して照射する。撮像部2は、プロジェクタ3及びプロジェクタ4の各々から照射される正弦波パターン光LT1、正弦波パターン光LT2それぞれが半透明物体で反射された反射光RLT1、反射光RLT2を撮像する。
図1に戻り、計測処理部5は、後述するように、撮像部2が撮像した半透明物体からの反射光の波長毎の撮像データにより、半透明物体6の三次元形状、法線及び分光による散乱特性を計測する。
That is, the projector 3 irradiates the semitransparent object 6 with the sine wave pattern LT1. The projector 4 irradiates the semitransparent object 6 with the sine wave pattern LT2 in a time zone different from the sine wave pattern LT1. The imaging unit 2 captures reflected light RLT1 and reflected light RLT2 in which the sine wave pattern light LT1 and sine wave pattern light LT2 irradiated from each of the projector 3 and the projector 4 are reflected by a translucent object.
Returning to FIG. 1, as will be described later, the measurement processing unit 5 uses the imaging data for each wavelength of the reflected light from the semitransparent object imaged by the imaging unit 2 to determine the three-dimensional shape, normal line, and spectrum of the semitransparent object 6. Measure the scattering characteristics by.

図2は、半透明物体における反射光の説明を行う光学モデルを示す半透明物体の断面図である。図2の断面図に示すように、図1の半透明物体6は、パターン光照射部7から照射された正弦波パターン光(正弦波パターン光LT1及び正弦波パターン光LT2)を反射して反射光として出射する。正弦波パターン光は、半透明物体6において、鏡面反射成分8と、1次散乱反射成分9と、多重散乱反射成分10との各々の複数の成分に分離される。   FIG. 2 is a cross-sectional view of a translucent object showing an optical model for explaining reflected light in the translucent object. As shown in the sectional view of FIG. 2, the translucent object 6 of FIG. 1 reflects and reflects the sine wave pattern light (sine wave pattern light LT1 and sine wave pattern light LT2) emitted from the pattern light irradiation unit 7. Emits as light. The sine wave pattern light is separated into a plurality of components of a specular reflection component 8, a primary scattering reflection component 9, and a multiple scattering reflection component 10 in the translucent object 6.

ここで、鏡面反射成分8は、半透明物体6の表面60で鏡面反射して、表面60から直接に反射される正弦波パターン光の成分光である。
また、1次散乱反射成分9は、半透明物体6の表面60近傍の内部反射点61で1回程度反射して半透明物体6から放射される正弦波パターン光の成分光である。
Here, the specular reflection component 8 is component light of sine wave pattern light that is specularly reflected by the surface 60 of the translucent object 6 and reflected directly from the surface 60.
The primary scattered reflection component 9 is a component light of sine wave pattern light that is reflected from the internal reflection point 61 in the vicinity of the surface 60 of the translucent object 6 about once and emitted from the translucent object 6.

多重散乱反射成分10は、半透明物体6内部の複数の内部反射点61間で相互に反射、すなわち複数の内部反射点61により多重散乱した後に半透明物体6から放射される正弦波パターン光の成分光である。
この表面下で乱反射(表面下散乱)により、半透明物体6の反射光(反射光RLT1及び反射光RLT2)を撮像した撮像画像はぼけた画像となる。
The multiple scattering reflection component 10 is reflected mutually between the plurality of internal reflection points 61 inside the semitransparent object 6, that is, the sine wave pattern light emitted from the semitransparent object 6 after being multiple scattered by the plurality of internal reflection points 61. Component light.
The captured image obtained by capturing the reflected light (reflected light RLT1 and reflected light RLT2) of the translucent object 6 by the irregular reflection (subsurface scattering) below the surface becomes a blurred image.

すなわち、この表面下散乱により、半透明物体6の内部の内部反射点61において、図2に示すように、鏡面反射成分8あるいは1次散乱反射成分9とは異なり、多重散乱反射成分10は、正弦波パターン光の入射点と、反射光が出射される出射点とが一致しない。この表面下散乱のため、正弦波パターン光が入射しない場所からも反射光が観測されるため、 撮像画像はぼけた画像となる。本実施形態による画像データ取得システム1は、半透明物体6の表面に対し、正弦波パターン光を照射し、撮像部2において取得される反射光の波長毎の撮像データ(後述する分光撮像データ)により、半透明物体6の三次元形状、法線及び分光による散乱特性を計測する。   That is, due to this subsurface scattering, at the internal reflection point 61 inside the translucent object 6, as shown in FIG. 2, unlike the specular reflection component 8 or the primary scattering reflection component 9, the multiple scattering reflection component 10 is The incident point of the sine wave pattern light does not coincide with the emission point from which the reflected light is emitted. Because of this subsurface scattering, the reflected light is observed even from a place where the sine wave pattern light is not incident, so the captured image becomes a blurred image. The image data acquisition system 1 according to the present embodiment irradiates the surface of the translucent object 6 with a sine wave pattern light, and captures image data for each wavelength of reflected light acquired by the imaging unit 2 (spectral imaging data described later). Thus, the three-dimensional shape of the translucent object 6, the normal line, and the scattering characteristics due to spectroscopy are measured.

図3は、図1の画像データ取得システム1における計測処理部5の構成例を示すブロック図である。図3において、計測処理部5は、制御部100と、操作部107と、表示部108と、外部インターフェィス109と、記憶部110とを備えている。
制御部100は、例えば、CPU(Central Processing Unit、中央処理装置)である。制御部100は、計測処理部5内の各部の動作を司る機能部であり、予め自身内部の内部記憶部に書き込まれているプログラム(例えば、所定の半透明物体計測用のアプリケーションプログラム)を実行することにより、各機能部の制御処理を行う。
FIG. 3 is a block diagram illustrating a configuration example of the measurement processing unit 5 in the image data acquisition system 1 of FIG. In FIG. 3, the measurement processing unit 5 includes a control unit 100, an operation unit 107, a display unit 108, an external interface 109, and a storage unit 110.
The control unit 100 is, for example, a CPU (Central Processing Unit). The control unit 100 is a functional unit that controls the operation of each unit in the measurement processing unit 5, and executes a program (for example, a predetermined translucent object measurement application program) that is previously written in the internal storage unit within the control unit 100. By doing so, control processing of each functional unit is performed.

操作部107は、例えば、不図示のキーボード、マウス、タッチパネルなどから構成されており、画像データ取得システム1に対する操作及び処理の命令やデータを含む情報の入力を受け付け、制御部100に対して出力する。
表示部108は、例えば、液晶ディスプレイなどであって、制御部100の制御により、上記操作部107によるオペレータの情報の入力を促す画像、あるいは後述する各演算処理による演算結果及び計測データを示す画像を表示する。
The operation unit 107 includes, for example, a keyboard, a mouse, and a touch panel (not shown). The operation unit 107 accepts input of information including operation and processing commands and data for the image data acquisition system 1 and outputs the information to the control unit 100. To do.
The display unit 108 is, for example, a liquid crystal display or the like, and is an image that prompts an operator to input information by the operation unit 107 under the control of the control unit 100, or an image that shows calculation results and measurement data by each calculation process described later. Is displayed.

外部インターフェイス109は、撮像部2及びパターン光照射部7の各々との間でデータの送受信を行う接続インターフェイスである。すなわち、制御部100は、撮像部2からの分光撮像データの受信、あるいはパターン光照射部7に対する正弦波パターン光の出射を制御する制御情報の送信などのデータの送受信を、外部インターフェイス109を介して行う。   The external interface 109 is a connection interface that transmits and receives data to and from the imaging unit 2 and the pattern light irradiation unit 7. That is, the control unit 100 transmits / receives data such as reception of spectral imaging data from the imaging unit 2 or transmission of control information for controlling emission of sine wave pattern light to the pattern light irradiation unit 7 via the external interface 109. Do it.

記憶部110は、撮像部2が撮像した反射光の波長毎の撮像データなどの情報が制御部100により書き込まれて記憶される記憶領域である。記憶部110は、一般的な記憶装置であるHDD(Hard Disk Drive)、SSD(Solid State Drive)などの大容量記憶デバイスにより構成されている。
計測処理部5は、上述した制御部100、操作部107、表示部108、外部インターフェイス109及び記憶部110を備える汎用のPC(Personal Computer)であっても良い。
The storage unit 110 is a storage area in which information such as imaging data for each wavelength of reflected light captured by the imaging unit 2 is written and stored by the control unit 100. The storage unit 110 is configured by a mass storage device such as a hard disk drive (HDD) or a solid state drive (SSD), which is a general storage device.
The measurement processing unit 5 may be a general-purpose PC (Personal Computer) including the control unit 100, the operation unit 107, the display unit 108, the external interface 109, and the storage unit 110 described above.

制御部100は、光照射制御部101、撮像制御部102、撮像データ解析部103、形状演算部104、法線演算部105、散乱演算部106の各々を備えている。
光照射制御部101は、図1のパターン光照射部7におけるプロジェクタ3及びプロジェクタ4のいずれからパターン光を照射するかの制御を行う。
The control unit 100 includes a light irradiation control unit 101, an imaging control unit 102, an imaging data analysis unit 103, a shape calculation unit 104, a normal calculation unit 105, and a scattering calculation unit 106.
The light irradiation control unit 101 controls which one of the projector 3 and the projector 4 in the pattern light irradiation unit 7 in FIG.

図4は、光照射制御部101がパターン光照射部7のプロジェクタ3またはプロジェクタ4に対して出射させるパターン光の例である。図4は、正弦波パターン光が照射された面を示し、光強度が正弦波状に変化しているので明の部分と暗の部分とに強度変化が見られる。パターン光の位相がずれているとは、例えば、光強度において最も高い部分の位置が異なっている、すなわち正弦波状に変化する強度の位置が異なっていることを言う。   FIG. 4 is an example of pattern light that the light irradiation control unit 101 emits to the projector 3 or the projector 4 of the pattern light irradiation unit 7. FIG. 4 shows the surface irradiated with the sine wave pattern light. Since the light intensity changes in a sine wave shape, a change in intensity is observed between the bright part and the dark part. The phase of the pattern light being out of phase means, for example, that the position of the highest portion in the light intensity is different, that is, the position of the intensity changing in a sine wave shape is different.

図3に戻り、光照射制御部101は、パターン光照射部7に対して制御信号を出力し、パターン光照射部7におけるプロジェクタ3またはプロジェクタ4から、数十種類の正弦波パターン光を半透明物体6に対して照射させる。具体的には、光照射制御部101は、複数のプロジェクタ、本実施形態においてプロジェクタ3及びプロジェクタ3の各々に対し、正弦波パターン光LT1、正弦波パターン光LT2のそれぞれを互い違いに時系列に、半透明物体6に対して照射させる。すなわち、光照射制御部101は、正弦波パターン光LT1、正弦波パターン光LT2の各々を、半透明物体6に対して同一タイミングでは照射させず、いずれか一方のみを照射させる。   Returning to FIG. 3, the light irradiation control unit 101 outputs a control signal to the pattern light irradiation unit 7, and from the projector 3 or the projector 4 in the pattern light irradiation unit 7, several tens of types of sine wave pattern light are translucent. The object 6 is irradiated. Specifically, the light irradiation control unit 101 alternates each of the sine wave pattern light LT1 and the sine wave pattern light LT2 in time series with respect to a plurality of projectors, each of the projector 3 and the projector 3 in the present embodiment. The semi-transparent object 6 is irradiated. That is, the light irradiation control unit 101 does not irradiate each of the sine wave pattern light LT1 and the sine wave pattern light LT2 to the semi-transparent object 6 at the same timing, and irradiates only one of them.

また、プロジェクタ3及びプロジェクタ4の各々は、分光分布の特性(分光分布特性)が平坦な白色光に対応した波長の正弦波パターン光LT1、正弦波パターン光LT2をそれぞれ出射する。プロジェクタ3及びプロジェクタ4の各々は、例えば、分光光度計用の校正用標準板である標準白色板等を用いて、分光分布特性の分光分布特性における分光分布が平坦となる波長で正弦波パターン光LT1、正弦波パターン光LT2をそれぞれ出射するように校正されている。   Each of the projector 3 and the projector 4 emits sine wave pattern light LT1 and sine wave pattern light LT2 having wavelengths corresponding to white light having a flat spectral distribution characteristic (spectral distribution characteristic). Each of the projector 3 and the projector 4 uses, for example, a standard white plate that is a calibration standard plate for a spectrophotometer, and uses a sine wave pattern light at a wavelength at which the spectral distribution in the spectral distribution characteristic of the spectral distribution characteristic becomes flat. Calibration is performed so that LT1 and sine wave pattern light LT2 are emitted.

撮像部2は、パターン光照射部7におけるプロジェクタ3またはプロジェクタ4の各々から放射された正弦波パターン光LT1、正弦波パターン光LT2が、半透明物体6で反射したそれぞれの反射光RLT1、反射光RLT2を集光して受光する。ここで、撮像部2は、内部に入射光の分光機能(例えば、図示しない分光器)を有しており、入射される反射光RLT1及び反射光RLT2の各々を時系列に分光し、分光するごとに半透明物体6の色を表す撮像データ(以下、分光撮像データ)を順次受光する。   The imaging unit 2 includes the reflected light RLT1 and the reflected light of the sine wave pattern light LT1 and the sine wave pattern light LT2 emitted from each of the projector 3 and the projector 4 in the pattern light irradiation unit 7 and reflected by the translucent object 6. RLT2 is condensed and received. Here, the imaging unit 2 has a spectral function of incident light (for example, a spectroscope (not shown)) inside, and spectrally separates and separates each of the incident reflected light RLT1 and reflected light RLT2 in time series. Imaging data representing the color of the translucent object 6 (hereinafter referred to as spectral imaging data) is sequentially received every time.

すなわち、撮像部2は、受光される白色光である正弦波パターン光LT1及び正弦波パターン光LT2の各々の反射光RLT1及び反射光RLT2それぞれを、異なる3つ以上の波長λ1、λ2、λ3、…、λn(nは3以上の整数)の波長成分の光に分光する(後分光方式)。   That is, the imaging unit 2 converts each of the reflected light RLT1 and the reflected light RLT2 of the sine wave pattern light LT1 and sine wave pattern light LT2 that are received white light into three or more different wavelengths λ1, λ2, λ3, ..., Λn (n is an integer equal to or greater than 3) is divided into light (post-spectral method).

そして、撮像部2は、反射光RLT1及び反射光RLT2毎に分光処理を行い、分光した波長成分である波長λ1、λ2、λ3、…、λnの各々の撮像データ、すなわち分光した波長毎の分光撮像データを撮像する。
撮像制御部102は、撮像部2が撮像した分光撮像データを外部インターフェイス109を介して入力する。
Then, the imaging unit 2 performs spectral processing for each of the reflected light RLT1 and the reflected light RLT2, and the imaging data of each of the wavelengths λ1, λ2, λ3,. Capture image data.
The imaging control unit 102 inputs spectral imaging data captured by the imaging unit 2 via the external interface 109.

そして、撮像制御部102は、反射光RLT1及び反射光RLT2の各々の単位で、分光した波長成分である波長λ1、λ2、λ3、…、λn毎に、記憶部110に対して書き込んで記憶させる。本実施形態において、「色」とは3つ以上の波長、すなわち波長λ1、λ2、λ3、…、λnの各々の分光反射率を示している。このため、以下、本実施形態においては分光反射率を「色」として示す。   Then, the imaging control unit 102 writes and stores the light into the storage unit 110 for each of the wavelength components λ1, λ2, λ3,..., Λn, which are spectral components, in the units of the reflected light RLT1 and the reflected light RLT2. . In the present embodiment, “color” indicates the spectral reflectance of each of three or more wavelengths, that is, wavelengths λ1, λ2, λ3,. For this reason, hereinafter, in the present embodiment, the spectral reflectance is indicated as “color”.

また、本実施形態においては、撮像部2の内部に分光器が設けられており、入射する正弦波パターン光を分光する構成として説明する。しかしながら、他の実施形態における構成としては、撮像部2ではなく、パターン光照射部7の内部に分光器を設ける構成としても良い。すなわち、パターン光照射部7内部の分光器が、プロジェクタ3またはプロジェクタ4の各々から放射された正弦波パターン光LT1、正弦波パターン光LT2をそれぞれ分光し、波長λ1、λ2、λ3、…、λn毎の正弦波パターン光を、半透明物体6に対して照射する構成(前分光方式の構成)としても良い。   Further, in the present embodiment, a description will be given assuming that a spectroscope is provided inside the imaging unit 2 and the incident sine wave pattern light is dispersed. However, as a configuration in another embodiment, a spectroscope may be provided inside the pattern light irradiation unit 7 instead of the imaging unit 2. That is, the spectroscope inside the pattern light irradiation unit 7 spectrally separates the sine wave pattern light LT1 and the sine wave pattern light LT2 emitted from each of the projector 3 and the projector 4, and wavelength λ1, λ2, λ3,. It is good also as a structure (structure of a pre-spectral system) which irradiates the semi-transparent object 6 with every sine wave pattern light.

この場合、撮像部2は、パターン光照射部7がいずれの波長の正弦波パターン光を照射しているかの情報を、パターン光照射部7から分光する波長毎に供給される。また、撮像部2は、上記情報により白黒の画像として波長λ1、λ2、λ3、…、λn毎の分光された撮像画像である分光撮像データを撮像する。そして、撮像制御部102は、撮像部2から供給される、パターン光照射部7から受信するいずれの波長の正弦波パターン光を照射しているかの情報を入力する。撮像制御部102は、上記情報に基づき、撮像した分光撮像データを、反射光RLT1及び反射光RLT2の各々の単位で、分光した波長成分である波長λ1、λ2、λ3、…、λn毎に、記憶部110に対して書き込んで記憶させる。   In this case, the imaging unit 2 is supplied with information on which wavelength of the sine wave pattern light the pattern light irradiation unit 7 is radiating from the pattern light irradiation unit 7 for each wavelength to be dispersed. In addition, the imaging unit 2 captures spectral imaging data, which is a spectrally captured image for each of the wavelengths λ1, λ2, λ3,. Then, the imaging control unit 102 inputs information on which wavelength of the sine wave pattern light received from the pattern light irradiation unit 7 is supplied from the imaging unit 2. Based on the above information, the imaging control unit 102 divides the captured spectral imaging data for each of the wavelength components λ1, λ2, λ3,. Write to the storage unit 110 and store it.

撮像データ解析部103は、撮像制御部102が記憶させた分光画像データを、波長毎に記憶部110から読み出し、後述する各種画像解析を行う。
撮像データ解析部103は、位相シフト法によって正弦波パターンの照射された半透明物体6の波長毎の分光撮像データから、位相画像(後述する位相画像11)、1次散乱反射画像(後述する1次散乱反射画像19)及び多重散乱反射画像(後述する多重散乱反射画像20)の各々を分離する処理を行う。
The imaging data analysis unit 103 reads the spectral image data stored by the imaging control unit 102 from the storage unit 110 for each wavelength, and performs various image analysis described below.
The imaging data analysis unit 103 obtains a phase image (a phase image 11 described later), a primary scattered reflection image (a 1 described later) from the spectral imaging data for each wavelength of the translucent object 6 irradiated with the sine wave pattern by the phase shift method. A process of separating each of the next scattered reflection image 19) and the multiple scattered reflection image (multiple scattered reflection image 20 described later) is performed.

すでに説明したように、撮像部2は、半透明物体6を撮像する際、パターン光照射部7が半透明物体6へ照射し、半透明物体6で反射された反射光を集光し、かつ分光して分光撮像データとして撮像している。この撮像部2に取得された分光撮像データの各々は、一般的な画像データと同様に、マトリクス状に配置される画素の集合により構成されている。しかしながら、分光撮像データが波長毎に撮像されているため、分光撮像データにおける各画素は、それぞれの分光撮像データが対応する波長(色)における光の強度のデータを有している。   As already described, when the imaging unit 2 images the semi-transparent object 6, the pattern light irradiation unit 7 irradiates the semi-transparent object 6, collects the reflected light reflected by the semi-transparent object 6, and Spectroscopic imaging is performed as spectral imaging data. Each of the spectral imaging data acquired by the imaging unit 2 is composed of a set of pixels arranged in a matrix, like general image data. However, since the spectral imaging data is captured for each wavelength, each pixel in the spectral imaging data has light intensity data at the wavelength (color) corresponding to each spectral imaging data.

そして、全ての波長の分光撮像データを、各画素の強度を波長に対応する色の強度とし、画素の位置を一致させて重ね合わせて合成することにより、全体として一つのカラー画像を形成することになる。
なお、撮像部2が分光撮像データを撮像し、撮像制御部102がこの分光撮像データを受信した時点においては、半透明物体6の三次元形状、法線及び分光による散乱特性は未知の状態である。
Then, the spectral imaging data of all wavelengths is synthesized by superimposing the pixel positions by matching the intensity of each pixel with the intensity of the color corresponding to the wavelength, and overlapping the pixel positions. become.
Note that when the imaging unit 2 captures spectral imaging data and the imaging control unit 102 receives the spectral imaging data, the three-dimensional shape, normal, and spectral scattering characteristics of the semi-transparent object 6 are unknown. is there.

以下の説明において、プロジェクタ3及びプロジェクタ4の各々は、光照射制御部101の制御により、それぞれ3つの異なる位相の初期位相パターン画像として、以下の(1)式に示す輝度値の正弦波パターン光LT1、正弦波パターン光LT2を半透明物体6に対して照射する。そして、撮像データ解析部103は、得られた反射光(反射光RTL1及び反射光RTL2)の画素のデータを用いて、以下の(2)式の演算を行うことにより、位相画像、1次散乱反射画像及び多重散乱反射画像を生成する位相値Φ(x,y)、直接反射成分L、間接反射成分Lの各々を求める。 In the following description, each of the projector 3 and the projector 4 is controlled by the light irradiation control unit 101, and as an initial phase pattern image having three different phases, the sine wave pattern light having the luminance value shown in the following equation (1). The translucent object 6 is irradiated with LT1 and sine wave pattern light LT2. Then, the imaging data analysis unit 103 uses the pixel data of the obtained reflected light (reflected light RTL1 and reflected light RTL2) to perform the calculation of the following formula (2), thereby obtaining a phase image and primary scattering. Each of the phase value Φ (x, y), the direct reflection component L d , and the indirect reflection component L g for generating the reflection image and the multiple scattering reflection image is obtained.

上記(1)式において、R(x,y)は、初期位相δにおけるプロジェクタ3あるいはプロジェクタ4の放射面(x軸及びy軸より形成される2次元平面)における各座標(x軸座標x及びy軸座標y)における入力輝度値(光照射制御部101が制御する正弦波パターン光における各座標の輝度値)である(ここで、iは位相の番号)。また、xは正弦波の1周期に対応するピクセル(画素)数である。Rmaxは、正弦波パターン光における最大入力輝度値を示している。 In the above equation (1), R i (x p , y p ) represents each coordinate (x on the radiation plane (two-dimensional plane formed from the x axis and the y axis) of the projector 3 or the projector 4 in the initial phase δ i . axis coordinates x p and y-axis input luminance value at the coordinates y p) (a luminance value) of each coordinate in a sinusoidal pattern light irradiation control unit 101 controls (where, i is the phase number). X u is the number of pixels corresponding to one cycle of the sine wave. R max represents the maximum input luminance value in the sine wave pattern light.

これにより、半透明物体6から反射される反射光を撮像した際、撮像部2が撮像した分光撮像データの各画素の輝度値I(x,y)は、以下の(2)式で表される(ここで、iは位相の番号)。 Thereby, when the reflected light reflected from the translucent object 6 is imaged, the luminance value I i (x, y) of each pixel of the spectral imaging data captured by the imaging unit 2 is expressed by the following equation (2). Where i is the phase number.

上記(2)式において、Φ(x,y)は、撮像部2における撮像素子の受光平面(x軸及びy軸から構成される2次元座標)において、コーディングされた位相値である。L(x,y)は、正弦波パターン光の直接反射成分である。また、Lは、正弦波パターン光の間接反射成分である。iが3以上であれば、すなわち3つの位相の異なる座標があれば、位相値Φ(x,y)、直接反射成分L、間接反射成分Lの各々を推定することができる。 In the above equation (2), Φ (x, y) is a coded phase value on the light receiving plane (two-dimensional coordinates composed of the x axis and the y axis) of the image sensor in the imaging unit 2. L d (x, y) is a direct reflection component of sinusoidal pattern light. L g is an indirect reflection component of sinusoidal pattern light. If i is 3 or more, that is, if there are three coordinates having different phases, each of the phase value Φ (x, y), the direct reflection component L d , and the indirect reflection component L g can be estimated.

上述した計算は、正弦波パターン光LT1及び正弦波パターン光LT2の各々の種類の単位で、波長毎の分光撮像データを用いて、波長毎に(2)式により、直接反射成分L及び間接反射成分Lを求める。
すなわち、正弦波パターン光LT1及び正弦波パターン光LT2の双方において、それぞれ上記(2)式により、正弦波パターンの種類毎に位相値Φ(x,y)、直接反射成分L、間接反射成分Lの各々を推定する。
The calculations described above, in units of types of each of the sinusoidal pattern light LT1 and sinusoidal pattern light LT2, using a spectroscopic imaging data for each wavelength, by each wavelength (2), direct reflection component L d and indirect The reflection component Lg is obtained.
That is, in both the sine wave pattern light LT1 and the sine wave pattern light LT2, the phase value Φ (x, y), the direct reflection component L d , and the indirect reflection component for each type of sine wave pattern according to the above equation (2). Estimate each of L g .

撮像部2の受光部には、偏光フィルタが設けられており、撮像部2には鏡面反射成分8が入射されず、入射されるのは1次散乱反射成分9及び多重散乱反射成分10である。
ここで、本実施形態においては、半透明物体6の表面下の浅い部分(表面近傍)で1回程度反射する直接反射成分Lを1次反射成分9とし、表面下において何度も反射して表面下散乱となる間接反射成分Lを多重散乱反射成分10としている。
The light receiving unit of the imaging unit 2 is provided with a polarizing filter, and the specular reflection component 8 is not incident on the imaging unit 2, and the primary scattering reflection component 9 and the multiple scattering reflection component 10 are incident on the imaging unit 2. .
In the present embodiment, a direct reflection component L d to reflect about once surface shallow part of of a translucent objects 6 (near the surface) and the primary reflection component 9, reflected several times under the surface Thus, the indirect reflection component L g that causes subsurface scattering is used as the multiple scattering reflection component 10.

本実施形態の画像データ取得システム1においては、位相シフト法によって、正弦波パターン光LT1及び正弦波パターン光LT2を照射して、半透明物体6の表面に投影する。そして、画像データ取得システム1は、その反射光を撮像することにより、位相画像11、1次散乱反射成分9からなる1次散乱反射画像19及び多重散乱反射成分10からなる多重散乱反射画像20を求めることができる。   In the image data acquisition system 1 of the present embodiment, the sine wave pattern light LT1 and the sine wave pattern light LT2 are irradiated and projected onto the surface of the translucent object 6 by the phase shift method. Then, the image data acquisition system 1 captures the reflected light to obtain a phase image 11, a primary scattered reflected image 19 composed of the primary scattered reflected component 9, and a multiple scattered reflected image 20 composed of the multiple scattered reflected component 10. Can be sought.

図5は、解析の対象となる半透明物体6の撮像画像、位相画像11、1次散乱反射画像19、多重散乱反射画像20を示す図である。図5(a)は、撮像画像21であり、例えば、正弦波パターン光LT1のみを照射光として撮像した分光撮像データを、全位相かつ全波長にわたって合成して生成した画像である。図5(b)は、位相画像11であり、半透明物体の表面に対し、正弦波パターン光(正弦波パターン光LT1及び正弦波パターン光LT2)を投影し、位相シフト法により得られる位相値Φ(x,y)に基づいて得られる反射光(反射光RTL1あるいは反射光RTL2)の画像である。   FIG. 5 is a diagram showing a captured image, a phase image 11, a primary scattered reflected image 19, and a multiple scattered reflected image 20 of the translucent object 6 to be analyzed. FIG. 5A is a captured image 21, for example, an image generated by combining spectral imaging data obtained by imaging only the sine wave pattern light LT <b> 1 as irradiation light over all phases and all wavelengths. FIG. 5B is a phase image 11, which is obtained by projecting sine wave pattern light (sine wave pattern light LT 1 and sine wave pattern light LT 2) onto the surface of a translucent object and obtaining a phase value obtained by a phase shift method. This is an image of reflected light (reflected light RTL1 or reflected light RTL2) obtained based on Φ (x, y).

図5(c)は、1次散乱反射画像19であり、位相シフト法により得られる直接反射成分Lに基づいて得られる画像である。図5(d)は、多重散乱反射画像20であり、位相シフト法により得られる間接反射成分Lに基づいて得られる画像である。 FIG. 5 (c), a single scattering reflection image 19 is an image obtained based on direct reflection component L d obtained by the phase shift method. 5 (d) is a multiple scattering reflection image 20 is an image obtained based on the indirect reflected components L g obtained by the phase shift method.

図3に戻り、形状演算部104は、撮像データ解析部103が算出した位相値Φ(x,y)の位相画像11を、同一のプロジェクタ(プロジェクタ3あるいはプロジェクタ4)における異なる位相毎に生成する。ここで、形状演算部104は、半透明物体6に対して正弦波パターン光(弦波パターン光LT1及び正弦波パターン光LT2)を投影した際、反射光の画素と正弦波パターン光の画素との対応を判定する。このとき、正弦波パターン光においては正弦波の一周期の繰り返しにおける曖昧性がある(対応させる精度が低い)。   Returning to FIG. 3, the shape calculation unit 104 generates the phase image 11 of the phase value Φ (x, y) calculated by the imaging data analysis unit 103 for each different phase in the same projector (projector 3 or projector 4). . Here, when the sine wave pattern light (the chord wave pattern light LT1 and the sine wave pattern light LT2) is projected onto the translucent object 6, the shape calculation unit 104 includes a pixel of reflected light and a pixel of sine wave pattern light. The correspondence of is determined. At this time, in the sine wave pattern light, there is ambiguity in the repetition of one cycle of the sine wave (the accuracy of correspondence is low).

このため、形状演算部104は、反射光RTL1及び反射光RTL2毎に、2種類の位相が異なる正弦波パターン光による位相画像11を用い、異なる位相の位相画像11を接続する。
そして、形状演算部104は、反射光RTL1及び反射光RTL2毎に、反射光の画素と正弦波パターン光の画素との対応を判定し、対応する画素を示す対応情報を出力する。
また、形状演算部104は、各画素の対応情報を用い三角測量法により、半透明物体6の三次元形状(三次元形状の情報)を求める。すなわち、形状演算部104は、2種類の位相が異なる正弦波パターン光において、各位相を接続して、プロジェクタから投影された各画素と、撮像部2で撮像される画素の対応を取る。そして、形状演算部104は、プロジェクタから投影された各画素と、反射光RTL1及び反射光RTL2の各々の各画素との対応情報から三角測量法を用いて、半透明物体6の三次元形状を得る。
For this reason, the shape calculation unit 104 uses the phase image 11 of two types of sine wave pattern light having different phases for each of the reflected light RTL1 and the reflected light RTL2, and connects the phase images 11 having different phases.
Then, the shape calculation unit 104 determines the correspondence between the reflected light pixel and the sine wave pattern light pixel for each of the reflected light RTL1 and the reflected light RTL2, and outputs correspondence information indicating the corresponding pixels.
In addition, the shape calculation unit 104 obtains the three-dimensional shape (three-dimensional shape information) of the translucent object 6 by triangulation using the correspondence information of each pixel. That is, in the sine wave pattern light having two different phases, the shape calculation unit 104 connects each phase and takes correspondence between each pixel projected from the projector and a pixel imaged by the imaging unit 2. Then, the shape calculation unit 104 calculates the three-dimensional shape of the translucent object 6 from the correspondence information between each pixel projected from the projector and each pixel of the reflected light RTL1 and the reflected light RTL2, using a triangulation method. obtain.

図6は、本実施形態における法線演算部105の法線を生成する処理を説明する図である。図6(a)には、プロジェクタ3が撮像した分光撮像データから求めた1次散乱反射画像19_1と、光線画像13_1とが示されている。図6(b)には、プロジェクタ4が撮像した分光撮像データから求めた1次散乱反射画像19_2と、光線画像13_2とが示されている。図6(c)は、三台設けられた場合のプロジェクタ5(不図示)の1次散乱反射画像19_1とプロジェクタ4の1次散乱反射画像19_3と光線画像13_3である。   FIG. 6 is a diagram illustrating a process of generating a normal line of the normal line calculation unit 105 in the present embodiment. FIG. 6A shows a first-order scattered reflection image 19_1 and a light ray image 13_1 obtained from the spectral imaging data captured by the projector 3. FIG. 6B shows a primary scattered reflection image 19_2 and a light ray image 13_2 obtained from the spectral imaging data captured by the projector 4. FIG. 6C shows a primary scattered / reflected image 19_1 of the projector 5 (not shown), a primary scattered / reflected image 19_3, and a light image 13_3 of the projector 4 when three projectors are provided.

図6(d)は、1次散乱反射画像19_1及び1次散乱反射画像19_2及び1次散乱反射画像19_3の各々の陰影情報から計算した半透明物体6の法線を示す法線画像40である。ここで、光線画像13_1及び光線画像13_2及び光線画像13_3の各々は、予めプロジェクタの幾何学キャリブレーションから求められた画素単位の光線ベクトルであり、例えばRGB値に方向ベクトルが格納されている。ここで、光線画像は、撮像画像の各画素に対して、どの方向からプロジェクタの各画像が照射されているかを示す画像である。すなわち、この光線画像のデータ構成は、画像における各画素の光線ベクトルの方向を示すXYZ値が、画像における各画素のRGB値の代わりに、画像のデータして各画素に対応付けられた構成となっている。   FIG. 6D is a normal image 40 showing the normal line of the translucent object 6 calculated from the shadow information of the primary scattered reflection image 19_1, the primary scattered reflection image 19_2, and the primary scattered reflection image 19_3. . Here, each of the light image 13_1, the light image 13_2, and the light image 13_3 is a light vector in units of pixels obtained in advance from the geometric calibration of the projector, and for example, a direction vector is stored in an RGB value. Here, the light ray image is an image indicating from which direction each image of the projector is irradiated to each pixel of the captured image. In other words, the data structure of this light image is such that the XYZ values indicating the direction of the light vector of each pixel in the image are associated with each pixel as image data instead of the RGB value of each pixel in the image. It has become.

図3に戻り、法線演算部105は、光線画像13_1及び光線画像13_2の各々を参照し、異なる陰影を有する1次散乱反射画像19_1及び1次散乱反射画像19_2の各々の画素と、光線画像13_1及び光線画像13_2の各々の画素との位置関係を特定する。   Returning to FIG. 3, the normal calculation unit 105 refers to each of the light ray image 13_1 and the light ray image 13_2, and each pixel of the primary scattered reflection image 19_1 and the primary scattered reflection image 19_2 having different shadows and the light ray image. The positional relationship with each pixel of 13_1 and light image 13_2 is specified.

そして、法線演算部105は、1次散乱反射画像19_1及び1次散乱反射画像19_2の各々の画素の陰影情報から、照度差ステレオ法により半透明物体の法線を求めることができる。照度差ステレオ法においては、配置場所が2箇所以上のプロジェクタを用い、異なる陰影を有する2枚以上の撮像データを用いる。そのため、本実施形態においては、配置場所の異なるプロジェクタ3とプロジェクタ4とを用い、異なる陰影を有する1次散乱反射画像19_1及び1次散乱反射画像19_2の各々を用いて法線を求める。   Then, the normal line calculation unit 105 can obtain the normal line of the translucent object by the illuminance difference stereo method from the shadow information of each pixel of the primary scattered reflection image 19_1 and the primary scattered reflection image 19_2. In the illuminance difference stereo method, projectors having two or more locations are used, and two or more pieces of imaging data having different shadows are used. Therefore, in the present embodiment, the projector 3 and the projector 4 having different arrangement locations are used, and the normal is obtained using each of the primary scattered reflection image 19_1 and the primary scattered reflection image 19_2 having different shadows.

照度差ステレオ法は、拡散反射物体あるいは鏡面反射物体を仮定した方法であるため、通常の反射光の撮像データからでは半透明物体の法線を求めることは不可能である。
そのため、本実施形態においては、反射光を撮像した分光撮像データから、(2)式により求めた1次散乱反射画像19を用いることで、法線の推定を可能としている。
Since the illuminance difference stereo method is a method assuming a diffuse reflection object or a specular reflection object, it is impossible to obtain a normal line of a semi-transparent object from normal reflected light imaging data.
Therefore, in the present embodiment, the normal can be estimated by using the first-order scattered reflection image 19 obtained by the equation (2) from the spectral imaging data obtained by imaging the reflected light.

すなわち、本実施形態において用いる1次散乱反射画像19は、すでに述べたように、物体の浅い部分で反射する反射光である。このため、入射光の入射位置と反射光の出射位置とのずれが無視できる程度に小さく、照度差ステレオ法で用いられる拡散反射物体からの反射光における拡散反射成分と同様とみなすことができる。   That is, the primary scattered reflection image 19 used in the present embodiment is reflected light that is reflected at a shallow portion of the object, as already described. Therefore, the deviation between the incident position of the incident light and the emission position of the reflected light is so small as to be negligible, and can be regarded as the same as the diffuse reflection component in the reflected light from the diffuse reflection object used in the illuminance difference stereo method.

また、多重散乱反射画像20は、半透明物体からの反射成分における間接反射成分の画像と見なすことができる。しかし、この間接反射の画像は、物体表面の各点に照射された光が多重散乱し、畳み込まれた状態の画像である。
したがって、この畳み込まれた状態の画像から、半透明物体の各点における散乱特性を推定するため、散乱を点像分布関数のような任意の関数(多重散乱関数)で表すことができると仮定する。そして、この仮定により、物体の各点における多重散乱関数を最適化手法により推定することで求めることができる。
Further, the multiple scattering reflection image 20 can be regarded as an image of an indirect reflection component in a reflection component from a translucent object. However, this indirect reflection image is an image in a state where the light irradiated to each point on the object surface is scattered and convolved.
Therefore, in order to estimate the scattering characteristics at each point of the translucent object from this convolved image, it is assumed that scattering can be expressed by an arbitrary function (multiple scattering function) such as a point spread function. To do. Based on this assumption, the multiple scattering function at each point of the object can be obtained by estimating with an optimization method.

法線演算部15は、照度差ステレオ法において、1次散乱反射画像19_1または1次散乱反射画像19_2と、これらに対応する光線画像13_1または光線画像13_2とから求めた陰影情報により、物体表面の陰影を除去した画像アルベドの1次散乱反射画像を計算する。ここで、画像アルベドとは、各画素における入射光の総量に対する反射光の総量の割合を示すデータである。
散乱演算部16は、撮像データ解析部103が算出した多重散乱反射画像20を用い、以下の示すように、多重散乱反射画像20の画素毎の散乱特性を示す関数を求める。
多重散乱反射画像20は、物体表面上におけるある任意の一点に対して光を照射した際、その点から散乱する光の強度を物体表面で空間的に畳み込んだ画像である。任意の一点に照射した正弦波パターン光の表面下における散乱特性を表すため、一般的にはBSSRDFといわれる関数で表すことができる。すなわち、散乱演算部16は、多重散乱反射画像20を再現することが可能な、画素毎の散乱関数を、数値計算により求める。
In the illuminance difference stereo method, the normal line calculation unit 15 uses the shadow information obtained from the primary scattered reflection image 19_1 or the primary scattered reflection image 19_2 and the corresponding ray image 13_1 or ray image 13_2 to detect the surface of the object. A primary scattered reflection image of the image albedo from which the shadow is removed is calculated. Here, the image albedo is data indicating the ratio of the total amount of reflected light to the total amount of incident light in each pixel.
The scattering calculation unit 16 uses the multiple scattered reflection image 20 calculated by the imaging data analysis unit 103 to obtain a function indicating the scattering characteristic for each pixel of the multiple scattered reflection image 20 as described below.
The multiple scattered reflection image 20 is an image in which the intensity of light scattered from an arbitrary point on the object surface is spatially convoluted on the object surface. Since the scattering characteristic under the surface of the sine wave pattern light irradiated to an arbitrary point is expressed, it can be generally expressed by a function called BSSRDF. That is, the scattering calculation unit 16 obtains a scattering function for each pixel that can reproduce the multiple scattered reflection image 20 by numerical calculation.

図7は、BSSRDFの関数のグラフの一例を示す図である。図7において、横軸は光の入射した画素からの散乱の伝搬距離(mm)を示し、縦軸は散乱強度R(d)を示している。
図7におけるBSSRDFの関数の曲線は、散乱による伝搬距離が大きくなるほど、散乱強度が低下していくことが判る。このBSSRDFの関数を推定することにより、半透明物体に光が入射した際のぼけ(物体中の光の滲み状態)を表現することができる。
FIG. 7 is a diagram illustrating an example of a BSSRDF function graph. In FIG. 7, the horizontal axis indicates the scattering propagation distance (mm) from the pixel on which light is incident, and the vertical axis indicates the scattering intensity R (d).
The curve of the BSSRDF function in FIG. 7 shows that the scattering intensity decreases as the propagation distance due to scattering increases. By estimating the BSSRDF function, it is possible to express blur (light bleeding state in the object) when light is incident on the translucent object.

図3に戻り、散乱演算部16は、以下に示す(3)式により、BSSRDFの関数を近似して、半透明物体に光が入射した際のぼけ(物体中の光の滲み状態)を表現する。以下の(3)式は、BSSRDFの関数を近似したダイポール近似モデル式である。   Returning to FIG. 3, the scattering calculation unit 16 approximates the BSSRDF function by the following equation (3), and expresses blur (light bleeding state in the object) when the light enters the translucent object. To do. The following equation (3) is a dipole approximation model equation that approximates the BSSRDF function.

上記(3)式において、σは、物体固有のパラメータであり、散乱係数である。σは、物体固有のパラメータであり、吸収係数である。また、ηは、物体固有のパラメータであり、屈折率である。dは、光が入射した点(上述した任意の一点)からの距離である。gは、位相関数による散乱方向と光の伝搬方向の内積であるが、等方散乱の場合は「0」となる。
一般的な物体の場合、屈折率ηが既知であれば、この散乱係数及び吸収係数を推定することにより、多重散乱を計測できることになる。例えば、多重散乱における散乱強度の推定には、上記(3)式のダイポール近似モデル式を用いた最尤推定法などで推定することができる。
In the above equation (3), σ s is a parameter specific to the object and a scattering coefficient. σ a is an object-specific parameter and is an absorption coefficient. Η is a parameter specific to the object and is a refractive index. d is a distance from a point (an arbitrary point described above) where light is incident. g is an inner product of the scattering direction by the phase function and the light propagation direction, and is “0” in the case of isotropic scattering.
In the case of a general object, if the refractive index η is known, multiple scattering can be measured by estimating the scattering coefficient and the absorption coefficient. For example, the scattering intensity in multiple scattering can be estimated by the maximum likelihood estimation method using the dipole approximation model equation (3).

次に、図面を参照して、画像データ取得システム1における分光データの取得動作を説明する。図8は、画像データ取得システム1による半透明物体6の分光撮像データを取得する動作例を示すフローチャートである。以下の説明においては、パターン光照射部7におけるプロジェクタ3から正弦波パターン光LT1を、プロジェクタ4から正弦波パターン光LT2を、半透明物体6に投影する。   Next, the spectral data acquisition operation in the image data acquisition system 1 will be described with reference to the drawings. FIG. 8 is a flowchart showing an operation example of acquiring spectral imaging data of the translucent object 6 by the image data acquisition system 1. In the following description, the sine wave pattern light LT1 from the projector 3 and the sine wave pattern light LT2 from the projector 4 are projected onto the translucent object 6 in the pattern light irradiation unit 7.

ステップS1:
光照射制御部101は、プロジェクタ3及びプロジェクタ4の各々に対し、それぞれ正弦波パターン光LT1、正弦波パターン光LT2の波長λを設定し、処理をステップS2へ進める。
ここで、光照射制御部101は、予め設定した「色」の分光撮像データを撮像するため、波長λ1、λ2、λ3、…、λnの各々を順番に設定する。例えば、各波長の大小関係は、λ1<λ2<λ3<…<λnである。光照射制御部101は、初回のフローにおいては波長λ1を、2回目のフローチャートにおいては波長λ2を、…と、波長の小さい方から順次大きい方に変更する。
Step S1:
The light irradiation control unit 101 sets the wavelengths λ of the sine wave pattern light LT1 and the sine wave pattern light LT2 for each of the projector 3 and the projector 4, and advances the process to step S2.
Here, the light irradiation control unit 101 sequentially sets each of the wavelengths λ1, λ2, λ3,..., Λn in order to capture the spectral imaging data of “color” set in advance. For example, the magnitude relationship between the wavelengths is λ1 <λ2 <λ3 <. The light irradiation control unit 101 changes the wavelength λ1 in the first flow, the wavelength λ2 in the second flow chart,...

ステップS2:
次に、光照射制御部101は、プロジェクタ3あるいはプロジェクタ4のいずれを用いるかの設定を行い、処理をステップS3へ進める。
本実施形態においては、例えば、画像データ取得システム1が動作した時点に、プロジェクタ3を最初に設定(初期設定)する。そして、以降のフローにおいては、プロジェクタ3であればプロジェクタ4に設定を変更し、一方、プロジェクタ4であればプロジェクタ4に設定を変更する。
Step S2:
Next, the light irradiation control unit 101 sets whether to use the projector 3 or the projector 4, and advances the process to step S3.
In the present embodiment, for example, when the image data acquisition system 1 is operated, the projector 3 is first set (initial setting). In the subsequent flow, the setting is changed to the projector 4 for the projector 3, while the setting is changed to the projector 4 for the projector 4.

ステップS3:
光照射制御部101は、設定したプロジェクタに対して、3つの異なる位相により正弦波パターンを順次照射させる。例えば、プロジェクタとしてプロジェクタ3が選択されていれば、光照射制御部101は、プロジェクタ3に対して異なる3つの位相によって正弦波パターンLT1を半透明物体6に投影させる。一方、プロジェクタとしてプロジェクタ4が選択されていれば、光照射制御部101は、プロジェクタ4に対して異なる3つの位相によって正弦波パターンLT2を半透明物体6に投影させる。
Step S3:
The light irradiation control unit 101 sequentially irradiates the set projector with a sine wave pattern in three different phases. For example, if the projector 3 is selected as the projector, the light irradiation control unit 101 causes the projector 3 to project the sine wave pattern LT1 onto the translucent object 6 with three different phases. On the other hand, if the projector 4 is selected as the projector, the light irradiation control unit 101 causes the projector 4 to project the sine wave pattern LT2 on the semitransparent object 6 with three different phases.

そして、プロジェクタ3が選択されている場合、プロジェクタ3は、所定の周期において順次位相(3つの異なる位相)を変更し、正弦波パターンLT1を半透明物体6に投影する。
一方、プロジェクタ4が選択されている場合、プロジェクタ4は、所定の周期において順次位相(3つの異なる位相)を変更し、正弦波パターンLT2を半透明物体6に投影する。
When the projector 3 is selected, the projector 3 sequentially changes the phase (three different phases) in a predetermined cycle, and projects the sine wave pattern LT1 onto the translucent object 6.
On the other hand, when the projector 4 is selected, the projector 4 sequentially changes the phase (three different phases) in a predetermined cycle, and projects the sine wave pattern LT2 onto the translucent object 6.

いずれの場合においても、光照射制御部101は、設定したプロジェクタに対して、3つの異なる位相により正弦波パターンを順次照射させる。
また、光照射制御部101は、各プロジェクタに正弦波パターンを照射させる際、照射させるプロジェクタの識別番号と、撮像した際の位相を示す位相情報と、分光する波長λを示す波長情報を付加し、この識別番号と位相情報と波長情報とを撮像部2に対して出力する。
In any case, the light irradiation control unit 101 sequentially irradiates the set projector with a sine wave pattern in three different phases.
Further, when the light irradiation control unit 101 irradiates each projector with a sine wave pattern, the light irradiation control unit 101 adds an identification number of the projector to be irradiated, phase information indicating a phase at the time of imaging, and wavelength information indicating a wavelength λ to be dispersed. The identification number, phase information, and wavelength information are output to the imaging unit 2.

撮像制御部102は、光照射制御部101から出力されるプロジェクタの照射制御信号及び位相を変更する位相制御信号により、半透明物体6からの反射光を、撮像部2に対して撮像させる。
ここで、プロジェクタ3が半透明物体6に正弦波パターンLT1を投影している場合、撮像制御部102は、半透明物体6からの反射光RTL1を撮像した分光撮像データを撮像部2から取得する。そして、撮像制御部102は、取得した分光撮像データに対し、プロジェクタ3の識別情報と、撮像した際の位相を示す位相情報と、波長情報とを付加し、記憶部110に書き込んで記憶させる。
The imaging control unit 102 causes the imaging unit 2 to capture the reflected light from the translucent object 6 based on the projector irradiation control signal output from the light irradiation control unit 101 and the phase control signal for changing the phase.
Here, when the projector 3 projects the sine wave pattern LT1 onto the semitransparent object 6, the imaging control unit 102 acquires from the imaging unit 2 spectral imaging data obtained by imaging the reflected light RTL1 from the semitransparent object 6. . Then, the imaging control unit 102 adds the identification information of the projector 3, phase information indicating the phase at the time of imaging, and wavelength information to the acquired spectral imaging data, and writes and stores them in the storage unit 110.

一方、プロジェクタ3が半透明物体6に正弦波パターンLT2を投影している場合、撮像制御部102は、半透明物体6からの反射光RTL2を撮像した分光撮像データを撮像部2から取得する。そして、撮像制御部102は、取得した分光撮像データに対し、プロジェクタ4の識別情報と、撮像した際の位相を示す位相情報と、波長情報とを付加し、記憶部110に書き込んで記憶させる。
光照射制御部101は、プロジェクタに3つの異なる位相の正弦波パターンを照射させた後、処理をステップS4へ進める。
On the other hand, when the projector 3 projects the sine wave pattern LT2 on the semitransparent object 6, the imaging control unit 102 acquires the spectral imaging data obtained by imaging the reflected light RTL2 from the semitransparent object 6 from the imaging unit 2. Then, the imaging control unit 102 adds the identification information of the projector 4, phase information indicating the phase at the time of imaging, and wavelength information to the acquired spectral imaging data, and writes and stores them in the storage unit 110.
The light irradiation control unit 101 causes the projector to irradiate sine wave patterns having three different phases, and then proceeds to step S4.

ステップS4:
光照射制御部101は、半透明物体6に対して正弦波パターン光を照射させるプロジェクタの変更を行うか否かの判定を行う。
このとき、光照射制御部101は、現在選択されているプロジェクタがプロジェクタ3である場合、プロジェクタの変更を行うために処理をステップS2へ進める。
一方、光照射制御部101は、現在選択されているプロジェクタがプロジェクタ4である場合、プロジェクタの変更を行わないので処理をステップS5へ進める。
Step S4:
The light irradiation control unit 101 determines whether or not to change the projector that irradiates the semi-transparent object 6 with the sine wave pattern light.
At this time, if the currently selected projector is the projector 3, the light irradiation control unit 101 advances the process to step S2 in order to change the projector.
On the other hand, if the currently selected projector is the projector 4, the light irradiation control unit 101 does not change the projector, and thus advances the process to step S5.

ステップS5:
光照射制御部101は、半透明物体6に対して照射する正弦波パターン光の波長を変更するか否かの判定を行う。すなわち、光照射制御部101は、現在選択されている波長λが、波長λnであるか否かの判定を行い、波長λが波長λnである場合、全ての波長の変更が終了したとする。
Step S5:
The light irradiation control unit 101 determines whether or not to change the wavelength of the sine wave pattern light applied to the translucent object 6. That is, the light irradiation control unit 101 determines whether or not the currently selected wavelength λ is the wavelength λn. If the wavelength λ is the wavelength λn, it is assumed that all the wavelength changes have been completed.

このとき、光照射制御部101は、現在選択されている波長λが、波長λnでない場合、次に大きな波長λに変更するため、処理をステップS1へ進める。
一方、光照射制御部101は、現在選択されている波長λが、波長λnである場合、予め設定されている全ての波長λにおける撮像処理が終了したと判定して、処理をステップS1へ進める。
At this time, if the currently selected wavelength λ is not the wavelength λn, the light irradiation control unit 101 advances the process to step S1 in order to change to the next largest wavelength λ.
On the other hand, if the currently selected wavelength λ is the wavelength λn, the light irradiation control unit 101 determines that the imaging processing for all the preset wavelengths λ has been completed, and advances the processing to step S1. .

次に、図面を参照して、画像データ取得システム1における半透明物体の画像解析処理の動作を説明する。図9は、画像データ取得システム1における半透明物体の画像解析処理の動作例を示すフローチャートである。   Next, the operation of the image analysis processing of the translucent object in the image data acquisition system 1 will be described with reference to the drawings. FIG. 9 is a flowchart illustrating an operation example of the image analysis processing of the translucent object in the image data acquisition system 1.

ステップS11:
撮像データ解析部103は、記憶部110から読み出す分光データの波長λ(正弦波パターン光LT1あるいは正弦波パターン光LT2の波長)を設定し、処理をステップS12へ進める。
ここで、撮像データ解析部103は、予め設定した「色」の分光撮像データを読み出すため、波長λ1、λ2、λ3、…、λnの各々を順番に設定する。例えば、各波長の大小関係は、λ1<λ2<λ3<…<λnである。光照射制御部101は、初回のフローにおいては波長λ1を、2回目のフローチャートにおいては波長λ2を、…と、波長の小さい方から順次大きい方に変更する。
Step S11:
The imaging data analysis unit 103 sets the wavelength λ (the wavelength of the sine wave pattern light LT1 or the sine wave pattern light LT2) of the spectral data read from the storage unit 110, and advances the process to step S12.
Here, the imaging data analysis unit 103 sequentially sets each of the wavelengths λ1, λ2, λ3,..., Λn in order to read the spectral imaging data of “color” set in advance. For example, the magnitude relationship between the wavelengths is λ1 <λ2 <λ3 <. The light irradiation control unit 101 changes the wavelength λ1 in the first flow, the wavelength λ2 in the second flow chart,...

ステップS12:
次に、撮像データ解析部103は、プロジェクタ3あるいはプロジェクタ4のいずれの分光撮像データを、記憶部110から読み出すかの設定を行い、処理をステップS13へ進める。
本実施形態においては、例えば、画像データ取得システム1が動作した時点に、プロジェクタ3を最初に設定(初期設定)する。そして、以降のフローにおいては、プロジェクタ3であればプロジェクタ4に設定を変更し、一方、プロジェクタ4であればプロジェクタ4に設定を変更する。
Step S12:
Next, the imaging data analysis unit 103 sets which spectral imaging data of the projector 3 or the projector 4 is read from the storage unit 110, and advances the process to step S13.
In the present embodiment, for example, when the image data acquisition system 1 is operated, the projector 3 is first set (initial setting). In the subsequent flow, the setting is changed to the projector 4 for the projector 3, while the setting is changed to the projector 4 for the projector 4.

ステップS13:
撮像データ解析部103は、ステップS11で設定した波長λの波長情報と、ステップS12で設定したプロジェクタ(プロジェクタ3、プロジェクタ4)の識別番号とに基づき、3つの位相が異なる分光撮像データをそれぞれの位相情報とともに、記憶部110から読み出す。
そして、撮像データ解析部103は、プロジェクタ3及びプロジェクタ4毎に読み出した分光撮像データを直接反射成分と間接反射成分とに、(2)式を用いて分離する。この際、撮像データ解析部103は、位相値Φ(x,y)も、直接反射成分(1次散乱反射成分9)と間接反射成分(多重散乱反射成分10)とともに算出し、処理をステップS14へ進める。
ここで、撮像データ解析部103は、位相値Φから位相画像を、直接反射成分(1次散乱反射成分9)から1次散乱反射画像19を、そして間接反射成分(多重散乱反射成分10)から多重散乱反射画像20を求める。
Step S13:
Based on the wavelength information of the wavelength λ set in step S11 and the identification numbers of the projectors (projector 3 and projector 4) set in step S12, the imaging data analysis unit 103 converts the spectral imaging data having three phases different from each other. The data is read from the storage unit 110 together with the phase information.
Then, the imaging data analysis unit 103 separates the spectral imaging data read out for each of the projector 3 and the projector 4 into a direct reflection component and an indirect reflection component using Expression (2). At this time, the imaging data analysis unit 103 also calculates the phase value Φ (x, y) together with the direct reflection component (primary scattering reflection component 9) and the indirect reflection component (multiple scattering reflection component 10), and the process is performed in step S14. Proceed to
Here, the imaging data analysis unit 103 obtains the phase image from the phase value Φ, the primary scattered reflection image 19 from the direct reflection component (primary scattered reflection component 9), and the indirect reflection component (multiple scattered reflection component 10). A multiple scattering reflection image 20 is obtained.

ステップS14:
形状演算部104は、撮像データ解析部103が算出した位相値Φ(x,y)の位相画像11を、同一のプロジェクタ(プロジェクタ3あるいはプロジェクタ4)における異なる位相毎に生成する。ここで、形状演算部104は、半透明物体6に対して正弦波パターン光(弦波パターン光LT1及び正弦波パターン光LT2)を投影した際、反射光の画素と正弦波パターン光の画素との対応を判定する。
Step S14:
The shape calculation unit 104 generates the phase image 11 of the phase value Φ (x, y) calculated by the imaging data analysis unit 103 for each different phase in the same projector (projector 3 or projector 4). Here, when the sine wave pattern light (the chord wave pattern light LT1 and the sine wave pattern light LT2) is projected onto the translucent object 6, the shape calculation unit 104 includes a pixel of reflected light and a pixel of sine wave pattern light. The correspondence of is determined.

次に、形状演算部104は、2種類の位相が重なる正弦波パターン光による位相画像11を用い、プロジェクタ単位で異なる位相の位相画像11を接続し、反射光の画素と正弦波パターン光の画素との対応を判定し、対応する画素を示す対応情報を出力する。
そして、形状演算部104は、各画素の対応情報を用い三角測量法により、半透明物体6の三次元形状を求める。
Next, the shape calculation unit 104 uses the phase image 11 of the sine wave pattern light in which two types of phases overlap, and connects the phase image 11 having a different phase for each projector unit, and the reflected light pixel and the sine wave pattern light pixel And the correspondence information indicating the corresponding pixel is output.
Then, the shape calculation unit 104 obtains the three-dimensional shape of the translucent object 6 by triangulation using the correspondence information of each pixel.

ステップS15:
法線演算部105は、予めカメラとプロジェクタの幾何学キャリブレーションを行い、物体上の光線方向を計算し、RGB値に格納することで、反射光RTL1、反射光RTL2のそれぞれの分光画像データに対応する光線画像13_1、光線画像13_2を生成する。
法線演算部105は、光線画像13_1及び光線画像13_2の各々を参照し、異なる陰影を有する1次散乱反射画像19_1及び1次散乱反射画像19_2の各々の画素と、光線画像13_1及び光線画像13_2の各々の画素との位置関係を特定する。
そして、法線演算部105は、1次散乱反射画像19_1及び1次散乱反射画像19_2の各々の画素の陰影情報から、照度差ステレオ法により半透明物体の法線を求める。
Step S15:
The normal line calculation unit 105 performs geometric calibration of the camera and the projector in advance, calculates the direction of the light beam on the object, and stores it in the RGB value, thereby obtaining the spectral image data of the reflected light RTL1 and the reflected light RTL2. Corresponding light image 13_1 and light image 13_2 are generated.
The normal line calculation unit 105 refers to each of the light ray image 13_1 and the light ray image 13_2, and each pixel of the primary scattered reflection image 19_1 and the primary scattered reflection image 19_2 having different shadows, and the light ray image 13_1 and the light ray image 13_2. The positional relationship with each pixel is specified.
Then, the normal line calculation unit 105 obtains the normal line of the translucent object by the illuminance difference stereo method from the shadow information of each pixel of the primary scattered reflection image 19_1 and the primary scattered reflection image 19_2.

ステップS16:
撮像データ解析部103は、読み出す分光撮像データのプロジェクタの変更を行うか否かの判定を行う。
このとき、撮像データ解析部103は、現在選択されているプロジェクタがプロジェクタ3である場合、プロジェクタの変更を行うために処理をステップS12へ進める。
一方、撮像データ解析部103は、現在選択されているプロジェクタがプロジェクタ4である場合、プロジェクタの変更を行わないので処理をステップS17へ進める。
Step S16:
The imaging data analysis unit 103 determines whether to change the projector of the spectral imaging data to be read.
At this time, if the currently selected projector is the projector 3, the imaging data analysis unit 103 advances the process to step S12 in order to change the projector.
On the other hand, when the currently selected projector is the projector 4, the imaging data analysis unit 103 advances the process to step S17 because the projector is not changed.

ステップS17:
撮像データ解析部103は、読み出す分光撮像データの波長の変更を行うか否かの判定を行う。すなわち、撮像データ解析部103は、現在選択されている波長λが、波長λnであるか否かの判定を行い、波長λが波長λnである場合、全ての波長の変更が終了したとする。
このとき、撮像データ解析部103は、現在選択されている波長λが、波長λnでない場合、次に大きな波長λに変更するため、処理をステップS11へ進める。
一方、撮像データ解析部103は、現在選択されている波長λが、波長λnである場合、予め設定されている全ての波長λにおける撮像処理が終了したと判定して、処理をステップS18へ進める。
Step S17:
The imaging data analysis unit 103 determines whether to change the wavelength of the spectral imaging data to be read. That is, the imaging data analysis unit 103 determines whether or not the currently selected wavelength λ is the wavelength λn. If the wavelength λ is the wavelength λn, it is assumed that all the wavelength changes have been completed.
At this time, if the currently selected wavelength λ is not the wavelength λn, the imaging data analysis unit 103 advances the process to step S11 in order to change to the next largest wavelength λ.
On the other hand, if the currently selected wavelength λ is the wavelength λn, the imaging data analysis unit 103 determines that imaging processing has been completed for all the wavelengths λ set in advance, and the process proceeds to step S18. .

ステップS18:
形状演算部104は、波長λ1、λ2、λ3、…、λnの全波長の3次元形状のデータを用い、例えば、最小二乗法により、改善された3次元形状を生成する。
そして、形状演算部104は、処理をステップS19へ進める。
Step S18:
The shape calculation unit 104 uses the three-dimensional shape data of all wavelengths of wavelengths λ1, λ2, λ3,..., Λn, and generates an improved three-dimensional shape by, for example, the least square method.
Then, the shape calculation unit 104 advances the process to step S19.

ステップS19:
法線演算部105は、波長λ1、λ2、λ3、…、λnの全波長の法線のデータを用い、例えば、最小二乗法により、改善された法線のデータを生成する。
そして、法線演算部105は、処理をステップS20へ進める。
Step S19:
The normal line calculation unit 105 uses the normal data of all wavelengths of wavelengths λ1, λ2, λ3,..., Λn, and generates improved normal data by, for example, the least square method.
Then, the normal line calculation unit 105 advances the process to step S20.

ステップS20:
次に、法線演算部15は、例えば、プロジェクタ3及びプロジェクタ4の1次散乱反射画像19_1または1次散乱反射画像19_2とこれらに対応する光線画像13_1または光線画像13_2とから求めた陰影情報により、陰影のない(陰影が除去された)画像アルベドの1次散乱反射情報(画像アルベド1次散乱反射画像)を生成する。
Step S20:
Next, the normal line calculation unit 15 uses, for example, the shadow information obtained from the primary scattered reflection image 19_1 or the primary scattered reflection image 19_2 of the projector 3 and the projector 4 and the corresponding ray image 13_1 or ray image 13_2. First-order scattered reflection information (image albedo first-order scattered reflection image) of the image albedo without the shadow (with the shadow removed) is generated.

ステップS21:
散乱演算部106は、例えば、プロジェクタ3及びプロジェクタ4の波長毎の多重散乱反射画像20の画素値の平均から、すでに説明した(3)式を用いて、波長毎のダイポール近似モデル式を生成する。ここで、波長毎のダイポール近似モデル式を生成することが、多重散乱特性の推定となる。
散乱演算部106は、生成したダイポール近似モデル式により、それぞれの波長の多重散乱反射画像20に対応する多重散乱分光画像を生成する。
Step S21:
For example, the scattering calculation unit 106 generates a dipole approximation model formula for each wavelength from the average of the pixel values of the multiple scattered reflection image 20 for each wavelength of the projector 3 and the projector 4 using the formula (3) already described. . Here, generating the dipole approximation model formula for each wavelength is the estimation of the multiple scattering characteristics.
The scattering calculation unit 106 generates a multiple scattering spectroscopic image corresponding to the multiple scattering reflection image 20 of each wavelength by the generated dipole approximate model formula.

以上説明したように、本実施形態によれば、解析対象が半透明物体であり、照射したパターン光の反射光に拡散反射(多重散乱反射)が含まれていても(混在していても)、この反射光を1次散乱反射成分9と多重散乱反射成分10とに分離する。この反射成分の分離を行うことにより、本実施形態によれば、半透明物体の多重散乱特性(BSSRDF)の推定を可能としている。   As described above, according to the present embodiment, the analysis target is a translucent object, and the reflected light of the irradiated pattern light includes diffuse reflection (multiple scattered reflection) (even if mixed). The reflected light is separated into a primary scattering reflection component 9 and a multiple scattering reflection component 10. By separating the reflection components, according to the present embodiment, it is possible to estimate the multiple scattering characteristic (BSSRDF) of the translucent object.

また、本実施形態によれば、正弦波パターン光が半透明物体から反射した反射光のみから、半透明物体の三次元形状、法線及び多重散乱特性(BSSRDF)の推定が行えるため、従来のように、複数の測定器を用いずとも容易に、半透明物体の解析を行うことができる。
また 、本実施形態によれば、レンダリングを行い、半透明物体のCG画像を生成する際に用いる半透明物体の形状、法線、分光による多重散乱特性の全てのデータを、単一システムで単一シーケンスのパターンのみを照射することで一括して求めることができる。
すなわち、本実施形態によれば、半透明物体であっても、それらの形状、法線情報、散乱特性を分光情報で簡素に計測できる。また、拡散反射物体と半透明物体が混在する場合においても、各反射成分の領域を判定すること両者の特性を計測することができる。さらにこれらを利用してCGで写実的な再現をすることができる。
In addition, according to the present embodiment, since the three-dimensional shape, normal, and multiple scattering characteristics (BSSRDF) of a semi-transparent object can be estimated only from the reflected light of the sine wave pattern light reflected from the semi-transparent object, As described above, it is possible to easily analyze a translucent object without using a plurality of measuring devices.
In addition, according to the present embodiment, rendering is performed, and all the data of the multiple scattering characteristics by the shape, normal line, and spectrum of the translucent object used when generating the CG image of the translucent object can be obtained with a single system. It can be obtained collectively by irradiating only one sequence pattern.
That is, according to the present embodiment, even for a translucent object, its shape, normal information, and scattering characteristics can be simply measured with spectral information. Even when a diffuse reflection object and a translucent object coexist, it is possible to measure the characteristics of both by determining the area of each reflection component. Furthermore, it is possible to reproduce realistically with CG using these.

なお、本発明における計測処理部5の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより半透明物体における光の散乱の解析処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   It should be noted that the program for realizing the function of the measurement processing unit 5 in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to be translucent. You may perform the analysis process of the scattering of the light in an object. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

1 画像データ取得システム
2 撮像部
3,4 プロジェクタ
5 計測処理部
6 半透明物体
7 パターン光照射部
100 制御部
101 光照射制御部
102 撮像制御部
103 撮像データ解析部
104 形状演算部
105 法線演算部
106 散乱演算部
107 操作部
108 表示部
109 外部インターフェイス
110 記憶部
DESCRIPTION OF SYMBOLS 1 Image data acquisition system 2 Imaging part 3, 4 Projector 5 Measurement processing part 6 Translucent object 7 Pattern light irradiation part 100 Control part 101 Light irradiation control part 102 Imaging control part 103 Imaging data analysis part 104 Shape calculation part 105 Normal calculation Unit 106 scattering calculation unit 107 operation unit 108 display unit 109 external interface 110 storage unit

Claims (5)

半透明物体の表面の三次元形状情報と、表面の法線情報と、陰影の除去された1次散乱特性と、多重散乱特性とを取得する画像データ取得システムであり、
2種類以上の異なる位相のパターン光を前記半透明物体に対して照射するパターン光照射部と、
パターン光が照射された前記半透明物体の表面からの反射光を分光し、所定の波長毎の分光撮像データを取得する撮像部と、
波長毎の前記分光撮像データから、所定の演算式により、位相成分前記法線情報及び前記1次散乱特性を求めるための1次散乱反射成分と、前記多重散乱特性を求めるための多重散乱反射成分の各々を分離し、位相画像、1次散乱反射成分画像、多重散乱反射成分画像の各々とを生成する撮像データ解析部と、
前記位相画像に基づき、位相シフト法により前記半透明物体の表面の三次元形状情報を求める形状演算部と、
2箇所以上の場所の異なるプロジェクタによる前記1次散乱反射成分画像から前記法線情報を求める法線演算部と、
前記多重散乱反射成分画像から、所定の関数で表される多重散乱特性を求める散乱演算部と
を備えることを特徴とする画像データ取得システム。
An image data acquisition system that acquires three-dimensional shape information of a surface of a translucent object, surface normal information, primary scattering characteristics with shadows removed, and multiple scattering characteristics;
A pattern light irradiating unit that irradiates the translucent object with pattern light of two or more different phases;
An imaging unit that spectrally reflects reflected light from the surface of the translucent object irradiated with pattern light and acquires spectral imaging data for each predetermined wavelength;
A phase component , a primary scattering reflection component for determining the normal information and the primary scattering characteristic, and a multiple scattering for determining the multiple scattering characteristic from the spectral imaging data for each wavelength by a predetermined arithmetic expression. An imaging data analysis unit that separates each of the reflection components and generates a phase image, a primary scattered reflection component image, and a multiple scattered reflection component image;
Based on the phase image, a shape calculation unit for obtaining three-dimensional shape information of the surface of the translucent object by a phase shift method,
A normal calculation unit for obtaining the normal information from the primary scattered reflection component images by two or more different projectors;
A scattering calculation unit that obtains a multiple scattering characteristic represented by a predetermined function from the multiple scattered reflection component image.
前記散乱演算部が、
前記多重散乱反射成分画像から画素毎の多重散乱特性を示す前記所定の関数を求める
ことを特徴とする請求項1に記載の画像データ取得システム。
The scattering calculation unit is
The image data acquisition system according to claim 1, wherein the predetermined function indicating a multiple scattering characteristic for each pixel is obtained from the multiple scattered reflection component image.
前記法線演算部が、
2種以上の前記パターン光の各々から求めた前記1次散乱反射成分画像と、2箇所以上のプロジェクタ画素から物体表面への方向を表す光線画像とにより、前記半透明物体の陰影情報を求め、当該陰影情報から前記半透明物体の法線と、画像アルベドの1次散乱特性とを求める
ことを特徴とする請求項1または請求項2に記載の画像データ取得システム。
The normal calculation unit is
Finding the shade information of the translucent object from the primary scattered reflection component image obtained from each of the two or more pattern lights and a light ray image representing the direction from two or more projector pixels to the object surface, The image data acquisition system according to claim 1 or 2, wherein a normal line of the translucent object and a first-order scattering characteristic of the image albedo are obtained from the shadow information.
前記形状演算部が、
2種以上の前記パターン光毎の位相が各々異なる前記位相画像の各画素と、前記プロジェクタから投影された前記パターン光の各画素との対応を取り、三角測量法によって前記半透明物体の三次元形状を推定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の画像データ取得システム。
The shape calculation unit is
Two or more kinds of pixels of the phase image having different phases for each pattern light and the pixels of the pattern light projected from the projector are matched, and the three-dimensional of the translucent object is obtained by triangulation The image data acquisition system according to any one of claims 1 to 3, wherein the shape is estimated.
半透明物体の表面の三次元形状情報と、表面の法線情報と、陰影の除去された1次散乱特性と、多重散乱特性とを取得する画像データ取得方法であり、
2種類以上の異なる位相のパターン光を前記半透明物体に対して照射するパターン光照射過程と、
パターン光が照射された前記半透明物体の表面からの反射光を分光し、所定の波長毎の分光撮像データを取得する撮像過程と、
波長毎の前記分光撮像データから、所定の演算式により、位相成分前記法線情報及び前記1次散乱特性を求めるための1次散乱反射成分と、前記多重散乱特性を求めるための多重散乱反射成分の各々を分離し、位相画像、1次散乱反射成分画像、多重散乱反射成分画像の各々とを生成する撮像データ解析過程と、
前記位相画像に基づき、位相シフト法により前記半透明物体の表面の三次元形状情報を求める形状演算過程と、
2箇所以上の場所の異なるプロジェクタによる前記1次散乱反射成分画像から前記法線情報を求める法線演算過程と、 前記多重散乱反射成分画像から、所定の関数で表される多重散乱特性を求める散乱演算過程と
を含むことを特徴とする画像データ取得方法。
An image data acquisition method for acquiring three-dimensional shape information on a surface of a translucent object, surface normal information, primary scattering characteristics with shadows removed, and multiple scattering characteristics,
A pattern light irradiation process of irradiating the semi-transparent object with two or more kinds of different phase pattern lights;
An imaging process for spectroscopically reflecting reflected light from the surface of the translucent object irradiated with pattern light and obtaining spectral imaging data for each predetermined wavelength;
A phase component , a primary scattering reflection component for determining the normal information and the primary scattering characteristic, and a multiple scattering for determining the multiple scattering characteristic from the spectral imaging data for each wavelength by a predetermined arithmetic expression. An imaging data analysis process for separating each of the reflection components and generating each of a phase image, a primary scattered reflection component image, and a multiple scattered reflection component image;
Based on the phase image, a shape calculation process for obtaining three-dimensional shape information of the surface of the translucent object by a phase shift method,
Normal calculation process for obtaining the normal information from the primary scattered reflection component image by two or more different projectors, and scattering for obtaining a multiple scattering characteristic represented by a predetermined function from the multiple scattered reflection component image An image data acquisition method comprising: an arithmetic process.
JP2014003374A 2014-01-10 2014-01-10 Image data acquisition system and image data acquisition method Active JP6364777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014003374A JP6364777B2 (en) 2014-01-10 2014-01-10 Image data acquisition system and image data acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014003374A JP6364777B2 (en) 2014-01-10 2014-01-10 Image data acquisition system and image data acquisition method

Publications (2)

Publication Number Publication Date
JP2015132509A JP2015132509A (en) 2015-07-23
JP6364777B2 true JP6364777B2 (en) 2018-08-01

Family

ID=53899820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014003374A Active JP6364777B2 (en) 2014-01-10 2014-01-10 Image data acquisition system and image data acquisition method

Country Status (1)

Country Link
JP (1) JP6364777B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129562A (en) * 2016-01-20 2017-07-27 キヤノン株式会社 Measurement system, information processing apparatus, information processing method, and program
JP6682350B2 (en) * 2016-05-18 2020-04-15 キヤノン株式会社 Information processing device, control device, information processing method, control method, and program
JP2018044828A (en) * 2016-09-13 2018-03-22 株式会社東芝 Object recognition method, program, and optical system
US10467798B2 (en) 2016-12-19 2019-11-05 Canon Medical Systems Corporation Rendering a global illumination image from a volumetric medical imaging data set
JP6831709B2 (en) 2017-01-25 2021-02-17 オリンパス株式会社 How to control the fringe projection device and the fringe projection device
JP2018146449A (en) * 2017-03-07 2018-09-20 オムロン株式会社 Device and method for measuring three-dimensional shape
JP6658625B2 (en) * 2017-03-08 2020-03-04 オムロン株式会社 Three-dimensional shape measuring device and three-dimensional shape measuring method
JP6673266B2 (en) 2017-03-08 2020-03-25 オムロン株式会社 Mutual reflection detecting device, mutual reflection detecting method, and program
US20210072019A1 (en) * 2018-02-27 2021-03-11 Nikon Corporation Image analysis device, analyis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method, and program
JP7051260B2 (en) * 2018-08-24 2022-04-11 ヤマハ発動機株式会社 3D measuring device, 3D measuring method
SG11202113354UA (en) * 2019-06-07 2021-12-30 Basf Coatings Gmbh System and method for object recognition using 3d mapping and modeling of light
JP2023025303A (en) * 2020-01-23 2023-02-22 コニカミノルタ株式会社 Optical property evaluation device
JP7309640B2 (en) * 2020-03-18 2023-07-18 株式会社東芝 optical inspection equipment
JP7488451B2 (en) 2020-04-01 2024-05-22 株式会社デンソーウェーブ 3D measuring device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3454088B2 (en) * 1997-06-25 2003-10-06 松下電工株式会社 Three-dimensional shape measuring method and device
JP2000009440A (en) * 1998-06-18 2000-01-14 Kao Corp Method and device for measuring 3-dimensional object
JP3723057B2 (en) * 2000-08-02 2005-12-07 シーケーディ株式会社 3D measuring device
JP3811806B2 (en) * 2002-03-29 2006-08-23 鹿児島県 Three-dimensional shape measuring apparatus and measuring method thereof
US9182221B2 (en) * 2011-06-13 2015-11-10 Canon Kabushiki Kaisha Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2015132509A (en) 2015-07-23

Similar Documents

Publication Publication Date Title
JP6364777B2 (en) Image data acquisition system and image data acquisition method
US10535151B2 (en) Depth map with structured and flood light
CN109642787B (en) System and method for 3D surface measurement
US20170059305A1 (en) Active illumination for enhanced depth map generation
JP6407607B2 (en) Method and apparatus for digitally generating appearance data
JP2018514237A (en) Texture mapping apparatus and method for dental 3D scanner
US20090080036A1 (en) Scanner system and method for scanning
US10178381B2 (en) Depth-spatial frequency-response assessment
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP5058838B2 (en) Information processing apparatus and method
Pintus et al. State‐of‐the‐art in Multi‐Light Image Collections for surface visualization and analysis
Tanaka et al. Recovering inner slices of layered translucent objects by multi-frequency illumination
JP2020004085A (en) Image processor, image processing method and program
Tariq et al. Efficient estimation of spatially varying subsurface scattering parameters
JP6237032B2 (en) Color and three-dimensional shape measuring method and apparatus
JP2020536221A (en) Equipment and methods for determining surface topology and associated colors
Deeb et al. Interreflections in computer vision: a survey and an introduction to spectral infinite-bounce model
JP6587959B2 (en) Skin image generation device, method of operating skin image generation device, and skin image generation processing program
JP4756148B2 (en) Gloss / color reproduction system, gloss / color reproduction program
Li et al. Projective Parallel Single-pixel Imaging to Overcome Global Illumination in 3D Structure Light Scanning
JP2009236696A (en) Three-dimensional image measurement method, measurement system, and measurement program for subject
JP2008128771A (en) Apparatus and method for simultaneously acquiring spectroscopic information and shape information
JP6432968B2 (en) Object shape estimation apparatus and program
JP7306673B2 (en) Evaluation system and evaluation method
KR20200045264A (en) Inspection area determination method and visual inspection apparatus using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6364777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250