JP6237032B2 - Color and three-dimensional shape measuring method and apparatus - Google Patents

Color and three-dimensional shape measuring method and apparatus Download PDF

Info

Publication number
JP6237032B2
JP6237032B2 JP2013194146A JP2013194146A JP6237032B2 JP 6237032 B2 JP6237032 B2 JP 6237032B2 JP 2013194146 A JP2013194146 A JP 2013194146A JP 2013194146 A JP2013194146 A JP 2013194146A JP 6237032 B2 JP6237032 B2 JP 6237032B2
Authority
JP
Japan
Prior art keywords
light source
orientation
sensor response
calculating
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013194146A
Other languages
Japanese (ja)
Other versions
JP2015059849A (en
Inventor
長谷川 隆行
隆行 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2013194146A priority Critical patent/JP6237032B2/en
Publication of JP2015059849A publication Critical patent/JP2015059849A/en
Application granted granted Critical
Publication of JP6237032B2 publication Critical patent/JP6237032B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の照明光源によって物体を順次照明して撮影した画像群から、対象物体の色と三次元形状を計測する方法、装置、ならびにプログラムに関するものである。   The present invention relates to a method, apparatus, and program for measuring the color and three-dimensional shape of a target object from a group of images taken by sequentially illuminating the object with a plurality of illumination light sources.

物体の色や三次元形状の計測は、コンピュータグラフィックス(CG)やデジタルアーカイブ、あるいは、品質検査などの分野で、重要な役割を占める。例えば、映画などの映像製作では、実写シーンやCGにより作成したシーンの中に、所望の実物体を違和感無く登場させるために、対象物体の色や三次元形状の情報を計測してデジタル化し、シーンに応じてCG上で仮想的にライティングを施し、画像合成する技術が用いられる。美術品や文化財のデジタルアーカイブでは、資料の研究や現状記録、あるいは、公開の一手段として、対象資料の色や三次元形状の情報を高精度にデジタル化することが求められる。また、製品の製造ラインにおける品質検査においては、製品の良品・不良品判定に色や三次元形状の情報が用いられることがある。計測の方法には接触式と非接触式とがあるが、対象物体を傷つけることなく、かつ、接触式よりも短時間で計測が行えることから、非接触式の計測技術は広い範囲で活用されている。   Measurement of the color and three-dimensional shape of an object plays an important role in fields such as computer graphics (CG), digital archiving, and quality inspection. For example, in video production such as movies, in order to make a desired real object appear in a live-action scene or a scene created by CG, the information on the color and three-dimensional shape of the target object is measured and digitized, A technique is used in which lighting is virtually performed on the CG in accordance with the scene and an image is synthesized. In digital archives of art and cultural properties, it is required to digitize the color and three-dimensional shape of the target material with high accuracy as a means of researching the material, recording the current status, or disclosing it. Further, in quality inspection on a product production line, information on color and three-dimensional shape may be used to determine whether a product is non-defective or defective. There are two types of measurement methods, contact and non-contact, but non-contact measurement technology can be used in a wide range because measurement can be performed in a shorter time than contact method without damaging the target object. ing.

物体の三次元形状を非接触で計測する方法は、光や電波を対象物体に照射して計測の補助とする能動的な方法と、そのような補助を必要としない受動的な方法とに大別される。この中で、対象物の三次元形状と同時に色の情報を計測できるものとしては、能動的な方法ではパターン投影法や照度差ステレオ法、受動的な方法ではステレオ法がある。   There are two methods for measuring the three-dimensional shape of an object in a non-contact manner: an active method that irradiates a target object with light or radio waves to assist measurement, and a passive method that does not require such assistance. Separated. Among them, there are a pattern projection method and an illuminance difference stereo method as an active method and a stereo method as a passive method that can measure color information simultaneously with the three-dimensional shape of an object.

パターン投影法は、デジタルプロジェクタなどの投影機から複数のパターン光(縞パターンや正弦波パターンなど)を対象物体に投影し、デジタルカメラなどの撮像装置で撮影することによって、また、ステレオ法は、デジタルカメラなどの撮像装置により2つ以上の異なる位置から対象物体を撮影することによって、三角測量の原理に基づいて対象物体の三次元形状を復元する技術である。これらの技術では、撮像装置として例えばRGBの3チャンネル画像が得られるデジタルカメラなどを用いれば、対象物体の概ねの色情報を得ることができる。   The pattern projection method projects a plurality of pattern lights (such as a fringe pattern and a sine wave pattern) from a projector such as a digital projector onto a target object, and shoots with an imaging device such as a digital camera. This technique restores the three-dimensional shape of a target object based on the principle of triangulation by photographing the target object from two or more different positions with an imaging device such as a digital camera. In these techniques, if, for example, a digital camera or the like capable of obtaining an RGB three-channel image is used as the imaging device, approximate color information of the target object can be obtained.

しかし、これらの方法では、対象物体そのものの色情報、特に、明暗を正しく得ることができない。一般に、物体表面における光の反射光は拡散反射成分と鏡面反射成分を持ち、物体の色情報は拡散反射光に現れる。拡散反射光は、物体そのものの色情報である拡散アルベド、物体表面の面の向き、及び、照明方向の成す角の3つの要素の相互作用によって構成されるが、パターン投影法やステレオ法では、色情報を取得するための撮影の際に照明光の方向を規定していないため、これらの要素を切り分けられないことが、その理由である。   However, with these methods, the color information of the target object itself, in particular, brightness and darkness cannot be obtained correctly. In general, the reflected light of an object surface has a diffuse reflection component and a specular reflection component, and the color information of the object appears in the diffuse reflection light. Diffuse reflected light is composed of the interaction of three elements: diffuse albedo, which is color information of the object itself, the orientation of the surface of the object, and the angle formed by the illumination direction. In pattern projection and stereo methods, The reason is that since the direction of the illumination light is not defined at the time of photographing for obtaining color information, these elements cannot be separated.

照度差ステレオ法は、対象物体に複数の異なる方向から光を照射し、デジタルカメラなどの撮像装置によって照明毎に対象物体の撮影を行い、画像の画素単位で対象物体の色情報(撮像装置のチャンネル毎の拡散アルベド)と面の向き(法線ベクトル)を求める。この方法では、対象物体の面の向きや照明の方向に依存しない、対象物体そのものの色情報である拡散アルベドが得られる点に特徴がある。また、画素単位で得られた面の向きをつなぎ合わせることで、対象物体の三次元形状を復元することができる。   The illuminance-difference stereo method irradiates a target object with light from a plurality of different directions, captures the target object for each illumination by an imaging device such as a digital camera, and performs color information (of the imaging device) on the target object in units of image pixels. Determine the diffusion albedo for each channel and the orientation of the surface (normal vector). This method is characterized in that a diffusion albedo, which is color information of the target object itself, can be obtained without depending on the direction of the surface of the target object and the direction of illumination. Further, the three-dimensional shape of the target object can be restored by connecting the orientations of the surfaces obtained in units of pixels.

照度差ステレオを行うためには、対象物体表面上の各位置に対する照明光の方向や強度が既知であることが前提条件となる。例えば、特許文献1では、照度差ステレオによって反射率画像を生成することを特徴としているが、装置の構築にあたっては、光源位置の事前校正とシステムへの入力が必要となる。照明の位置や強度の事前校正を要するこのようなシステムにおいては、対象物体の大きさが常に一定の範囲内にある場合には、校正作業を一度だけ行い、その結果を全ての撮影に適用できるという利点がある。その反面、システムが許容する大きさを上回る対象物体に対してはシステムを使用することができなかったり、あるいは、システムを使用するために光源を配置しなおし、その都度校正を行わなければならなかったりといった欠点が存在する。   In order to perform illuminance difference stereo, it is a precondition that the direction and intensity of illumination light with respect to each position on the target object surface are known. For example, Patent Document 1 is characterized in that a reflectance image is generated by illuminance difference stereo. However, in constructing the apparatus, prior calibration of the light source position and input to the system are required. In such a system that requires pre-calibration of the position and intensity of illumination, if the size of the target object is always within a certain range, the calibration operation can be performed only once and the result can be applied to all imaging. There is an advantage. On the other hand, the system cannot be used for target objects that exceed the size allowed by the system, or the light source must be relocated and recalibrated to use the system. There are disadvantages such as.

それに対して、光源の位置が未知の場合であっても照度差ステレオを実施するための技術が提案されている。   On the other hand, a technique for performing illuminance difference stereo is proposed even when the position of the light source is unknown.

例えば、非特許文献1〜5では、撮影時に使用する照明光が平行光である場合(光源が対象物体に対して無限遠に位置するとみなして問題ない場合や、レンズなどの光学系を用いて非平行光を平行化して照明する場合)に、照明の方向が未知であっても照度差ステレオを実現する方法を述べている。方向が未知の平行光を用いて照度差ステレオを行う場合、generalized bas-relief不定性(GBR不定性)と呼ばれる問題が生じる。これは、画像の画素毎に得られる全ての法線ベクトルに、同一の回転を与えたものも解として成立してしまうという一意性不成立の問題である。これに対して、非特許文献1では、被写体上に生じる光沢の情報を用いてGBR不定性を解決している。非特許文献2では、撮像系の光軸を中心とし、光軸に対して垂直な円の円周上に複数の光源を配置したリング照明を用いることで、GBR不定性を解決している。非特許文献3では、被写体の色情報を使用してGBR不定性を解決している。非特許文献4では、レーザレンジセンサによって取得した対象物体の三次元形状を用いることで、GBR不定性を解決している。非特許文献5では、照明方向の異なる複数の画像の中で、拡散反射光が最大となる画素情報を用いることでGBR不定性を解決している。   For example, in Non-Patent Documents 1 to 5, when the illumination light used at the time of photographing is parallel light (when there is no problem assuming that the light source is located at infinity with respect to the target object, or using an optical system such as a lens) Describes a method for realizing illuminance difference stereo even when the direction of illumination is unknown. When illuminance difference stereo is performed using parallel light whose direction is unknown, a problem called generalized bas-relief indefiniteness (GBR indefiniteness) occurs. This is a problem of non-uniqueness in which all normal vectors obtained for each pixel of the image are given the same rotation, and the solution is established. On the other hand, Non-Patent Document 1 solves the GBR ambiguity by using information on gloss generated on the subject. Non-Patent Document 2 solves the GBR ambiguity by using ring illumination in which a plurality of light sources are arranged on the circumference of a circle that is centered on the optical axis of the imaging system and is perpendicular to the optical axis. In Non-Patent Document 3, GBR ambiguity is solved using subject color information. In Non-Patent Document 4, GBR ambiguity is solved by using a three-dimensional shape of a target object acquired by a laser range sensor. In Non-Patent Document 5, GBR ambiguity is solved by using pixel information that maximizes diffuse reflected light among a plurality of images having different illumination directions.

これらの技術では、照明が平行光であることに起因するGBR不定性を解決することを課題としている。しかし、屋内などの限られた空間での撮影においては、対象物体に対する入射光を平行光とみなせる程に対象物体と光源との距離を取ることは困難であることが多い。また、対象物体からそれほど遠くない位置にある光源から照射される非平行光を平行化して照明光として用いることも考えられるが、専用の光学系装置などが必要となってしまう。   In these technologies, it is an object to solve the GBR ambiguity caused by the illumination being parallel light. However, in photographing in a limited space such as indoors, it is often difficult to take a distance between the target object and the light source so that incident light on the target object can be regarded as parallel light. Although it is conceivable to use non-parallel light emitted from a light source located not far from the target object as illumination light, a dedicated optical system device or the like is required.

こうした課題に対して、より現実的な状況として照明光源と対象物体との距離が近く、かつ、照明光源の位置が未知であるという状況下での撮影で照度差ステレオを実現する手法も提案されている。   In order to deal with these problems, a method for realizing illuminance difference stereo in shooting under the condition that the distance between the illumination light source and the target object is close and the position of the illumination light source is unknown has been proposed as a more realistic situation. ing.

例えば、非特許文献6では、1つの点光源の位置をカメラに対して固定し、カメラの位置や向きを変えながら被写体を撮影することで、多視点ステレオの技術と照度差ステレオの技術を用いて被写体の拡散アルベドと形状を復元している。しかしこの手法では、撮影作業者がカメラを動かしながら多数の撮影を行わなければならない。更に、色や起伏の変化が乏しい物体に対しては、各画像の位置合わせが困難となる点も問題として挙げられる。   For example, in Non-Patent Document 6, the position of one point light source is fixed with respect to the camera, and the subject is photographed while changing the position and orientation of the camera, thereby using multi-viewpoint stereo technology and illuminance difference stereo technology. To restore the diffuse albedo and shape of the subject. However, in this method, the photographer must perform a large number of photographing while moving the camera. Another problem is that it is difficult to align each image for an object with little change in color and undulation.

また、非特許文献7では、対象物体との距離が比較的近い近接光源を用いることで光源位置が未知の場合の照度差ステレオを実現している。しかし、ここで述べられているのは、近接光源を用いることにより前述のGBR不定性を解決する方法であり、前提条件として、3方向以上の平行光を用いて撮影した画像が必要となる。   Further, in Non-Patent Document 7, illuminance difference stereo in the case where the light source position is unknown is realized by using a proximity light source that is relatively close to the target object. However, what is described here is a method for solving the above-mentioned GBR ambiguity by using a proximity light source, and as a precondition, an image photographed using parallel light in three or more directions is required.

特開2006−285763号公報JP 2006-285663 A

O. Drbohlav and R. Sara, Specularities Reduce ambiguity of Uncalibrated Photometric Stereo, Proc. 7th European Conference on Computer Vision, pp. 46-60 (2002)O. Drbohlav and R. Sara, Specularities Reduce ambiguity of Uncalibrated Photometric Stereo, Proc. 7th European Conference on Computer Vision, pp. 46-60 (2002) Z. Zhou and P. Tan, Ring-light Photometric Stereo, Proc. 11th European Conference on Computer Vision, pp. 265-279 (2010)Z. Zhou and P. Tan, Ring-light Photometric Stereo, Proc. 11th European Conference on Computer Vision, pp. 265-279 (2010) B. Shi, Y. Matsushita, Y. Wei, C. Xu, and P. Tan, Self-calibrating Photometric Stereo, Proc. IEEE Conference on Computer Vision and Pattern Recognition, pp. 1118-1125 (2010)B. Shi, Y. Matsushita, Y. Wei, C. Xu, and P. Tan, Self-calibrating Photometric Stereo, Proc.IEEE Conference on Computer Vision and Pattern Recognition, pp. 1118-1125 (2010) 上川、宮崎、馬場、古川、青山、日浦、及び浅田、「光源方位未知条件下での照度差ステレオ法を用いた三次元形状の高精細化」、画像の認識・理解シンポジウム(2012)Kamikawa, Miyazaki, Baba, Furukawa, Aoyama, Hiura, and Asada, “High-definition 3D shape using photometric stereo method under unknown light source orientation”, Image Recognition and Understanding Symposium (2012) P. Favaro and T. Papadhimitri, A Closed-Form Solution to Uncalibrated Photometric Stereo via Diffuse Maxima, Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 821-828 (2012)P. Favaro and T. Papadhimitri, A Closed-Form Solution to Uncalibrated Photometric Stereo via Diffuse Maxima, Proc.IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 821-828 (2012) T. Higo, Y. Matsushita, N. Joshi and K. Ikeuchi, A Hand-held Photometric Stereo Camera for 3-D Modeling, Proc. IEEE Conference on Computer Vision (2009)T. Higo, Y. Matsushita, N. Joshi and K. Ikeuchi, A Hand-held Photometric Stereo Camera for 3-D Modeling, Proc.IEEE Conference on Computer Vision (2009) 岡部及び佐藤、「近接点光源は未較正照度差ステレオにおける形状復元の不定性を解決するか?」、画像の認識・理解シンポジウム、2007年Okabe and Sato, “Do near-point light sources solve the indeterminacy of shape restoration in uncalibrated illuminance stereo?”, Image Recognition and Understanding Symposium, 2007 D. Nehab, S. Rusinkiewicz, J. Davis, R. Ramamoorthi, Efficiently Combining Positions and Normals for Precise 3D Geometry, Proc. SIGGRAPH (2005)D. Nehab, S. Rusinkiewicz, J. Davis, R. Ramamoorthi, Efficiently Combining Positions and Normals for Precise 3D Geometry, Proc. SIGGRAPH (2005)

本発明は、上記課題を鑑みてなされたものであり、複数の照明光源によって物体を順次照明して撮影した画像群を用いる照度差ステレオ法において、撮影時の照明光源の位置が撮影対象物にある程度近い近接光源条件の下で、光源位置の事前校正を行うことなく、高精度で対象物体の色情報と三次元形状を求める方法や装置、ならびにプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and in the illuminance difference stereo method using an image group obtained by sequentially illuminating an object with a plurality of illumination light sources, the position of the illumination light source at the time of shooting is the object to be imaged. It is an object of the present invention to provide a method, an apparatus, and a program for obtaining color information and a three-dimensional shape of a target object with high accuracy without performing preliminary calibration of the light source position under close proximity light source conditions.

上記課題を解決するために提供する本発明の第1の態様は、物体の色と三次元形状を計測する計測装置であって、計測対象となる物体の粗い三次元形状を計測する粗形状計測手段と、計測対象となる物体の画像を3チャンネル以上のチャンネル数で撮像する撮像手段と、物体を撮像する際に使用する4個以上の照明光源からなる照明手段と、照明手段における4個以上の照明光源を排他的に点灯し、撮像手段にて物体を順次撮像して、照明光源毎の撮像画像を得る画像入力手段と、複数の撮像画像と粗い三次元形状とから、4個以上の照明光源のそれぞれについて撮像時の位置を推定する光源位置推定手段と、光源位置推定手段によって得られたそれぞれの照明光源の位置に基づき、物体の色情報と三次元形状情報を算出する物体復元手段とを備えた、計測装置である。 A first aspect of the present invention provided to solve the above-described problem is a measuring apparatus that measures the color and three-dimensional shape of an object, and measures the rough shape of a rough three-dimensional shape of an object to be measured. Means, an image pickup means for picking up an image of an object to be measured with three or more channels, an illumination means comprising four or more illumination light sources used for picking up an object, and four or more of the illumination means The illumination light source is exclusively turned on, and an image input unit that sequentially captures an object by the imaging unit and obtains a captured image for each illumination light source, and a plurality of captured images and a rough three-dimensional shape, includes four or more Light source position estimation means for estimating the position at the time of imaging for each of the illumination light sources, and object restoration means for calculating the color information and three-dimensional shape information of the object based on the positions of the respective illumination light sources obtained by the light source position estimation means When Equipped with a measuring device.

この第1の態様において、4個以上の照明光源の少なくとも1つは、他の1つ以上の照明光源との相対位置関係が固定されてもよい。   In the first aspect, at least one of the four or more illumination light sources may be fixed in a relative positional relationship with the other one or more illumination light sources.

また、第1の態様における光源位置推定手段が、撮像画像の中で計測対象となる物体が含まれる領域から複数のサンプル画素を選択するサンプル画素抽出手段と、照明光源の位置と向きを三次元物体の回転と移動で表し、回転パラメータと移動パラメータから4個以上の照明光源のそれぞれについて位置と向きを計算する光源姿勢計算手段と、光源姿勢計算手段で計算された光源の位置と向き、及び計測対象物体の粗い三次元形状情報を用いて、サンプル画素に対応する計測対象物体表面上の各点における各光源の方向と各光源から照射される光の放射輝度とを計算する入射光計算手段と、入射光計算手段で計算された各光源の方向と各光源から照射される光の放射輝度、及びサンプル画素におけるセンサ応答を用いて、全てのサンプル画素について、計測対象物体の法線ベクトル及び拡散アルベドを計算する表面計算手段と、表面計算手段で計算された法線ベクトルと拡散アルベド、及び入射光計算手段で計算された各光源の方向と各光源から照射される光の放射輝度とを用いて、全てのサンプル画素及び全ての光源について、センサ応答のモデル値を計算するセンサ応答モデル値計算手段と、センサ応答モデル値計算手段で計算されたセンサ応答のモデル値と撮像画像のセンサ応答との誤差を計算する誤差計算手段と、誤差計算手段で計算された誤差が最小となる照明光源の位置と向きを表す回転パラメータと移動パラメータを、非線形最適化によって決定する光源姿勢計算手段とを含んでいてもよい。   In addition, the light source position estimation unit in the first aspect includes a sample pixel extraction unit that selects a plurality of sample pixels from a region including an object to be measured in the captured image, and a three-dimensional position and orientation of the illumination light source. A light source attitude calculation means for calculating the position and orientation of each of four or more illumination light sources from the rotation parameter and the movement parameter, and the position and orientation of the light source calculated by the light source attitude calculation means. Incident light calculation means for calculating the direction of each light source and the radiance of light emitted from each light source at each point on the surface of the measurement target object corresponding to the sample pixel, using rough three-dimensional shape information of the measurement target object All sample pixels using the direction of each light source calculated by the incident light calculation means, the radiance of the light emitted from each light source, and the sensor response at the sample pixel. About the surface calculation means for calculating the normal vector and the diffusion albedo of the measurement object, the normal vector and the diffusion albedo calculated by the surface calculation means, and the direction of each light source and each light source calculated by the incident light calculation means Sensor response model value calculating means for calculating a sensor response model value for all sample pixels and all light sources using the radiance of light emitted from the sensor, and a sensor calculated by the sensor response model value calculating means An error calculation unit that calculates an error between the response model value and the sensor response of the captured image, and a rotation parameter and a movement parameter that represent the position and orientation of the illumination light source that minimize the error calculated by the error calculation unit are nonlinearly optimized. And a light source attitude calculating means determined by conversion.

なお、上記各手段を含む光源位置推定手段は、4個以上の照明光源を排他的に点灯して物体を照明し、撮像機器によって物体を順次撮像して得た照明光源毎の撮像画像から照明光源の位置と向きを推定する光源姿勢推定装置として構成することができる。   The light source position estimation means including each of the above means illuminates an object by illuminating four or more illumination light sources exclusively, and illuminates an image captured for each illumination light source obtained by sequentially imaging the object with an imaging device. It can be configured as a light source attitude estimation device that estimates the position and orientation of a light source.

本発明の第2の態様は、物体の色と三次元形状を計測する計測方法であって、計測対象となる物体の粗い三次元形状を計測する粗形状計測ステップと、4個以上の照明光源を排他的に点灯し、3チャンネル以上のチャンネル数を有する撮像機器によって物体を順次撮像し、照明光源毎の撮像画像を得る画像入力ステップと、複数の撮像画像と粗い三次元形状とから、4個以上の照明光源のそれぞれについて撮像時の位置を推定する光源位置推定ステップと、光源位置推定ステップによって得られたそれぞれの照明光源の位置に基づき、物体の色情報と三次元形状情報を算出する物体復元ステップとを備えた、計測方法である。 According to a second aspect of the present invention, there is provided a measuring method for measuring the color and three-dimensional shape of an object, the rough shape measuring step for measuring a rough three-dimensional shape of an object to be measured, and four or more illumination light sources. The image input step of sequentially capturing an object with an imaging device having three or more channels and obtaining a captured image for each illumination light source, a plurality of captured images, and a rough three-dimensional shape , 4 Based on the light source position estimation step for estimating the position at the time of imaging for each of the plurality of illumination light sources and the position of each illumination light source obtained by the light source position estimation step, the color information and three-dimensional shape information of the object are calculated. A measurement method comprising an object restoration step.

この第2の態様における光源位置推定ステップが、撮像画像の中で計測対象となる物体が含まれる領域から複数のサンプル画素を選択するサンプル画素抽出ステップと、照明光源の位置と向きを三次元物体の回転と移動で表し、回転パラメータと移動パラメータから4個以上の照明光源のそれぞれについて位置と向きを計算する光源姿勢計算ステップと、光源姿勢計算ステップで得られた光源の位置と向き、及び計測対象物体の粗い三次元形状情報を用いて、サンプル画素に対応する計測対象物体表面上の各点における各光源の方向と各光源から照射される光の放射輝度とを計算する入射光計算ステップと、入射光計算ステップで得られた各光源の方向と各光源から照射される光の放射輝度、及び、サンプル画素におけるセンサ応答を用いて、全てのサンプル画素について、計測対象物体の法線ベクトル及び拡散アルベドを計算する表面計算ステップと、表面計算ステップで得られた法線ベクトルと拡散アルベド、及び入射光計算ステップで得られた各光源の方向と各光源から照射される光の放射輝度を用いて、全てのサンプル画素及び全ての光源について、センサ応答のモデル値を計算するセンサ応答モデル値計算ステップと、センサ応答モデル値計算ステップで得られたセンサ応答のモデル値と撮像画像のセンサ応答との誤差を計算する誤差計算ステップと、誤差計算ステップで得られた誤差が最小となる照明光源の位置と向きを表す回転パラメータと移動パラメータを、非線形最適化によって決定する光源姿勢計算ステップとを含んでいてもよい。   The light source position estimation step in the second aspect includes a sample pixel extraction step for selecting a plurality of sample pixels from a region including an object to be measured in the captured image, and a position and orientation of the illumination light source as a three-dimensional object. Rotation and movement of the light source orientation calculation step for calculating the position and orientation of each of the four or more illumination light sources from the rotation parameter and the movement parameter, the position and orientation of the light source obtained in the light source orientation calculation step, and measurement Incident light calculation step for calculating the direction of each light source at each point on the surface of the measurement target object corresponding to the sample pixel and the radiance of the light emitted from each light source using the rough three-dimensional shape information of the target object; Using the direction of each light source obtained in the incident light calculation step, the radiance of the light emitted from each light source, and the sensor response at the sample pixel For all sample pixels, the surface calculation step for calculating the normal vector and the diffusion albedo of the measurement target object, the normal vector and the diffusion albedo obtained in the surface calculation step, and the respective light sources obtained in the incident light calculation step Sensor response model value calculation step for calculating sensor response model values for all sample pixels and all light sources using the direction and radiance of light emitted from each light source, and sensor response model value calculation step An error calculation step for calculating an error between the obtained sensor response model value and the sensor response of the captured image, and a rotation parameter and a movement parameter indicating the position and orientation of the illumination light source that minimize the error obtained in the error calculation step. And a light source attitude calculation step determined by nonlinear optimization.

なお、上記各ステップを含む光源位置推定ステップは、4個以上の照明光源を排他的に点灯して物体を照明し、撮像機器によって物体を順次撮像して得た照明光源毎の撮像画像から照明光源の位置と向きを推定する光源姿勢推定方法として構成することができる。   In addition, the light source position estimation step including the above steps illuminates an object by illuminating an object by exclusively turning on four or more illumination light sources, and illuminating an image captured for each illumination light source obtained by sequentially imaging the object with an imaging device. It can be configured as a light source posture estimation method for estimating the position and orientation of the light source.

典型的には、上述した第2の態様における計測方法や光源姿勢推定方法は、物体の色と三次元形状を計測する計測装置のコンピュータに実行させる計測プログラムとして実現され、記録媒体などに記録され得る。   Typically, the measurement method and the light source attitude estimation method in the second aspect described above are realized as a measurement program that is executed by a computer of a measurement device that measures the color and three-dimensional shape of an object, and is recorded on a recording medium or the like. obtain.

以上説明したように、本発明によれば、4個以上の照明光源を排他的に点灯し、3チャンネル以上のチャンネル数を有する撮像機器によって物体を順次撮像して得た照明光源毎の撮像画像から、撮影時の照明光源の位置と向きを推定し、その情報を用いて、対象物体の色情報と三次元形状情報を導出することができる。これによって、上述のように光源位置の事前校正を行うことなく、物体の色情報と三次元形状情報を導出する装置及び方法を提供することができた。   As described above, according to the present invention, four or more illumination light sources are exclusively turned on, and a captured image for each illumination light source obtained by sequentially imaging an object with an imaging device having three or more channels. From this, it is possible to estimate the position and orientation of the illumination light source at the time of photographing, and use the information to derive color information and three-dimensional shape information of the target object. As a result, an apparatus and a method for deriving the color information and three-dimensional shape information of an object without performing prior calibration of the light source position as described above can be provided.

本発明に係る撮影システムの第1の装置構成例を表す説明図Explanatory drawing showing the 1st apparatus structural example of the imaging | photography system which concerns on this invention. 本発明に係る撮影システムの第2の装置構成例を表す説明図Explanatory drawing showing the 2nd apparatus structural example of the imaging | photography system which concerns on this invention. 第2の装置構成例における光源セットの説明図Explanatory drawing of the light source set in the 2nd apparatus structural example 本発明に係る光源位置推定の非線形最適化処理の説明図Explanatory drawing of the nonlinear optimization process of the light source position estimation which concerns on this invention 上記非線形最適化における評価関数処理の説明図Explanatory drawing of evaluation function processing in the above nonlinear optimization 上記非線形最適化における前処理の説明図Explanatory drawing of preprocessing in the above nonlinear optimization 対象物体の粗い三次元形状を取得するための平面規定方法例を表す説明図Explanatory drawing showing an example of a plane defining method for acquiring a rough three-dimensional shape of a target object

以下に、図面を参照しつつ、本発明の好適な実施の形態について例示的に詳しく説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.

<照度差ステレオの原理>
まず、照度差ステレオの原理について述べる。照度差ステレオでは、物体に対して3つ以上の方向から光を照射してそれぞれについて撮影を行い、得られたセンサ応答から画素単位で対象物体の拡散アルベドと法線ベクトルを導出する。
<Principle of photometric stereo>
First, the principle of illuminance difference stereo will be described. In illuminance difference stereo, the object is irradiated with light from three or more directions, each of which is imaged, and the diffusion albedo and normal vector of the target object are derived in pixel units from the obtained sensor response.

物体表面における光の反射がランバートモデルに従う場合、対象物体を平行光で照明するか、あるいは、点光源とみなせるような微小な光源を用いて照明し、デジタルカメラ等の撮像装置によって撮影すると、対象物体表面上のある微小領域に対応する画素におけるセンサ応答Iは、式(1)により定式化される(簡略化のため、画素位置及び光の波長に関連する表記は省略する)。

Figure 0006237032
When the reflection of light on the surface of an object follows the Lambert model, the target object is illuminated with parallel light, or illuminated with a minute light source that can be regarded as a point light source, and captured by an imaging device such as a digital camera. The sensor response I in the pixel corresponding to a certain minute area on the object surface is formulated by the equation (1) (for the sake of simplicity, the notation related to the pixel position and the wavelength of light is omitted).
Figure 0006237032

式(1)において、ρは対象物体表面の拡散アルベド、nは対象物体表面の面の向きを示す3行1列の法線ベクトル(単位長)、lは対象物体表面から光源方向へ向かう3行1列の光源ベクトル(単位長)、Rは対象物体表面における入射光の放射輝度、αは対象物体表面での反射光の放射輝度とセンサ応答との比に基づく正規化係数であり、Tはベクトルや行列の転置を表す。   In equation (1), ρ is a diffusion albedo on the surface of the target object, n is a normal vector (unit length) of 3 rows and 1 column indicating the orientation of the surface of the target object surface, and l is 3 from the target object surface toward the light source direction. A light source vector (unit length) in row 1 column, R is the radiance of incident light on the surface of the target object, α is a normalization coefficient based on the ratio of the radiance of reflected light on the surface of the target object and the sensor response, T Represents transposition of vectors and matrices.

異なるN個の方向から対象物体に光を照射し、それぞれについて撮影を行った場合、i番目の照明方向(i=1,2,...,N)に対するI、l、RをそれぞれI、l、Rと表記すると、式(2)が成り立つ。

Figure 0006237032
When the target object is irradiated with light from N different directions and the respective objects are photographed, I, l, and R with respect to the i-th illumination direction (i = 1, 2,..., N) are respectively represented by I i. , L i , R i , equation (2) holds.
Figure 0006237032

従って、式(3)及び式(4)と定義すると、

Figure 0006237032
Figure 0006237032
光源ベクトルl及び入射光の放射輝度Rが全ての光源について既知であり、かつ、N≧3のとき、式(5)により拡散アルベドρと法線ベクトルnの転置の積を求めることができる。
Figure 0006237032
Therefore, when defined as Equation (3) and Equation (4),
Figure 0006237032
Figure 0006237032
When the light source vector l i and the radiance R i of the incident light are known for all the light sources and N ≧ 3, the product of the transposition of the diffusion albedo ρ and the normal vector n can be obtained by Equation (5). it can.
Figure 0006237032

ここで、法線ベクトルnは単位長であるため、式(5)により得られるρnは一意に拡散アルベドρと法線ベクトルnとに分離することができる。すなわち、ベクトルρnの長さが拡散アルベドρであり、ベクトルρnを単位長に正規化したものが法線ベクトルnの転置である。 Here, since the normal vector n has a unit length, ρn T obtained by Expression (5) can be uniquely separated into the diffusion albedo ρ and the normal vector n. That is, the length of the vector ρn T is the diffusion albedo ρ, and the normalization of the normal vector n is obtained by normalizing the vector ρn T to the unit length.

法線ベクトルは、対象物体表面上の微小領域における面の向きを表すものであるため、この面を隣接する画素でつなぎ合わせていくことにより、対象物体全体の形状を復元することができる。また、上記説明では、簡単のため、光の波長に関する表記は省略したが、撮像装置として例えばRGBの3チャンネル画像が得られるデジタルカメラなどを用いれば、各画素においてRGBそれぞれのチャンネルについての拡散アルベドを得ることができる。そのため、照度差ステレオは、レーザレンジファインダなどの形状計測装置と異なり、形状情報だけでなく、対象物体の色情報も計測できる点に特徴がある。   Since the normal vector represents the orientation of a surface in a minute area on the surface of the target object, the shape of the entire target object can be restored by connecting the surfaces with adjacent pixels. In the above description, for the sake of simplicity, the notation regarding the wavelength of light is omitted. However, if a digital camera or the like that can obtain an RGB three-channel image is used as the imaging device, a diffusion albedo for each of the RGB channels in each pixel is used. Can be obtained. Therefore, the illuminance difference stereo is characterized in that not only shape information such as a laser range finder but also color information of a target object can be measured as well as shape information.

実際の撮像装置を用いた照度差ステレオでは、光源ベクトルlや入射光放射輝度Rに含まれる誤差や、画像のノイズなどの影響により、導出される法線ベクトルに誤差が含まれることがある。この場合、画素単位で得られた面をつなぎ合わせることにより形状を復元すると、誤差の蓄積によって形状の復元精度が低下する可能性がある。そのため、対象物体の粗い三次元形状は別の方法によって取得し、これと照度差ステレオによって得られる法線ベクトルとを組み合わせて処理することにより高精細な三次元形状を復元する方法も提案されている(例えば、非特許文献8など)。   In illuminance-difference stereo using an actual imaging device, an error may be included in a derived normal vector due to an error included in the light source vector l or incident light radiance R, an image noise, or the like. In this case, if the shape is restored by connecting the surfaces obtained in units of pixels, there is a possibility that the accuracy of shape restoration is reduced due to accumulation of errors. For this reason, a method has been proposed in which a rough three-dimensional shape of the target object is acquired by another method, and this is combined with a normal vector obtained by illuminance difference stereo to process the high-definition three-dimensional shape. (For example, Non-Patent Document 8).

<自己校正照度差ステレオ>
次に、撮影時の光源位置が未知の場合、すなわち、対象物体表面上の各点における光源ベクトルl及び入射光の放射輝度Rが未知の場合の照度差ステレオについて、本発明に係る自己校正照度差ステレオの装置構成及び処理方法を説明する。
<Self-calibrated illuminance difference stereo>
Next, when the light source position at the time of photographing is unknown, that is, the illuminance difference stereo when the light source vector l i and the radiance R i of the incident light are unknown at each point on the target object surface, the self according to the present invention. The apparatus configuration and processing method of calibration illuminance difference stereo will be described.

[装置構成例1]
まず、本発明に係る撮影システムの第1の装置構成例について、図1を参照しながら説明する。図1は、本発明に係る撮影システムの第1の装置構成例を表す説明図である。
図1において、第1の装置は、デジタルカメラ11と、LEDランプ12〜15と、コンピュータ16と、キーボード17と、モニタ18とを備えている。デジタルカメラ11は、R、G、Bの3チャンネルのデジタル画像を撮影するためのデジタルカメラであり、対象物体を撮影するための適切なレンズが装着されている。LEDランプ12〜15は、デジタルカメラ11によって対象物体を撮影する際の照明光源として使用する。コンピュータ16は、外部記憶装置としてのハードディスク、一時記憶装置としてのメモリ、演算装置としてのCPUなどを備えており、デジタルカメラ11を制御して撮影画像を取り込み、LEDランプ12〜15の点灯/消灯を制御する。また、コンピュータ16は、撮影画像を用いて対象物体の三次元形状や色情報を計算する処理を行う。ただし、撮影画像を取り込むコンピュータと、データ処理用のコンピュータは、それぞれ別のコンピュータであっても構わない。キーボード17は、ユーザがコンピュータ16を操作するための入力インタフェースである。モニタ18は、コンピュータ16の処理結果を表示するための出力インタフェースである。
[Device configuration example 1]
First, a first apparatus configuration example of the photographing system according to the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating a first apparatus configuration example of a photographing system according to the present invention.
In FIG. 1, the first device includes a digital camera 11, LED lamps 12 to 15, a computer 16, a keyboard 17, and a monitor 18. The digital camera 11 is a digital camera for photographing digital images of three channels of R, G, and B, and is equipped with an appropriate lens for photographing a target object. The LED lamps 12 to 15 are used as illumination light sources when the target object is photographed by the digital camera 11. The computer 16 includes a hard disk as an external storage device, a memory as a temporary storage device, a CPU as a calculation device, etc., controls the digital camera 11 to capture a photographed image, and turns on / off the LED lamps 12 to 15. To control. In addition, the computer 16 performs a process of calculating the three-dimensional shape and color information of the target object using the captured image. However, the computer that captures the captured image and the computer for data processing may be different computers. The keyboard 17 is an input interface for the user to operate the computer 16. The monitor 18 is an output interface for displaying the processing result of the computer 16.

ユーザは、まず、対象物体がデジタルカメラ11の撮影画像に適切に含まれるよう、デジタルカメラ11の位置や向きを調整し、ピントを合わせる。次に、LEDランプ12を、対象物体を照明できる適当な位置及び向きに設置する。そして、LEDランプ12のみを点灯し、適切な露光量でデジタルカメラ11により撮影を行う。撮影が完了した後、LEDランプ12を消灯する。以下、残る全てのLEDランプ13〜15について、同様に撮影を行う。撮影中は、対象物体にLEDランプ12〜15からの照明光以外の光が当たらないことが好ましいが、それができない場合には、全てのLEDランプ12〜15を消灯した状態で対象物体を撮影し、LEDランプ12〜15の各々を点灯して撮影した各画像との差分を取ることで、LEDランプ12〜15以外の光が存在しない状態での撮影画像と等価な画像を得ることができる。   First, the user adjusts the position and orientation of the digital camera 11 so that the target object is appropriately included in the captured image of the digital camera 11, and focuses. Next, the LED lamp 12 is installed at an appropriate position and orientation that can illuminate the target object. Then, only the LED lamp 12 is turned on, and the digital camera 11 performs photographing with an appropriate exposure amount. After the photographing is completed, the LED lamp 12 is turned off. Thereafter, all the remaining LED lamps 13 to 15 are similarly photographed. During shooting, it is preferable that light other than the illumination light from the LED lamps 12 to 15 does not strike the target object. However, if this is not possible, the target object is shot with all the LED lamps 12 to 15 turned off. Then, by taking the difference from each image captured by lighting each of the LED lamps 12-15, an image equivalent to a captured image in a state where no light other than the LED lamps 12-15 exists can be obtained. .

なお、図1では、4個のLEDランプ12〜15を使用する形態を示しており、自己校正照度差ステレオの原理上は、照明光源の数は4個でよい。ただし、対象物体の形状によっては、対象物体の一部に対して、特定の方向からの照明が遮蔽される場合があるため、5個以上の照明光源を用いることも好ましい。   In addition, in FIG. 1, the form which uses four LED lamps 12-15 is shown, and the number of illumination light sources may be four on the principle of self-calibration illuminance difference stereo. However, depending on the shape of the target object, illumination from a specific direction may be shielded against a part of the target object, so that it is also preferable to use five or more illumination light sources.

本発明に係る撮影システムは、図1の構成に限定されるものではなく、例えば、デジタルカメラ11はコンピュータ16によって制御しなくても、ユーザが直接操作する形態とすることもできる。同様に、LEDランプ12〜15は、コンピュータ16から制御せずに、ユーザが直接点灯や消灯を行う形態とすることも可能である。また、照明光源は、LEDランプに限定されるものではないが、対象物体の大きさに対して十分に小さいことが好ましい。また、図1では、LEDランプ12〜15をそれぞれ個別のランプとして図示したが、1つのLEDランプを用いて、位置を変えながら対象物体を順次撮影することもできる。   The photographing system according to the present invention is not limited to the configuration shown in FIG. 1. For example, the digital camera 11 can be directly operated by the user without being controlled by the computer 16. Similarly, the LED lamps 12 to 15 may be configured to be turned on or off directly by the user without being controlled from the computer 16. The illumination light source is not limited to the LED lamp, but is preferably sufficiently small with respect to the size of the target object. In FIG. 1, the LED lamps 12 to 15 are illustrated as individual lamps, but it is also possible to sequentially photograph the target object while changing the position using one LED lamp.

[装置構成例2]
次に、本発明に係る撮影システムの第2の装置構成例について、図2及び図3を参照しながら説明する。図2は、本発明に係る撮影システムの第2の装置構成例を表す説明図である。図3は、図2の第2の装置構成に用いられる光源セットの構造例を説明する図である。
[Device configuration example 2]
Next, a second apparatus configuration example of the photographing system according to the present invention will be described with reference to FIGS. FIG. 2 is an explanatory diagram illustrating a second apparatus configuration example of the imaging system according to the present invention. FIG. 3 is a diagram for explaining an example of the structure of a light source set used in the second apparatus configuration of FIG.

図2において、第2の装置は、デジタルカメラ21と、光源セット22及び23と、コンピュータ26と、キーボード27と、モニタ28とを備えている。デジタルカメラ21は、R、G、Bの3チャンネルのデジタル画像を撮影するためのデジタルカメラであり、対象物体を撮影するための適切なレンズが装着されている。光源セット22及び23は、図3に示すように、光源セット22及び23は、照明光源として使用する複数のLEDランプ31〜34がフレーム上に固定された構造である。LEDランプ31〜34間の位置関係は既知である。コンピュータ26は、外部記憶装置としてのハードディスク、一時記憶装置としてのメモリ、演算装置としてのCPUなどを備えており、デジタルカメラ21を制御して撮影画像を取り込み、光源セット22及び23上のLEDランプ31〜34の点灯/消灯を制御する。また、コンピュータ26は、撮影画像を用いて対象物体の三次元形状や色情報を計算する処理を行う。ただし、撮影画像を取り込むコンピュータと、データ処理用のコンピュータは、それぞれ別のコンピュータであっても構わない。キーボード27は、ユーザがコンピュータ26を操作するための入力インタフェースである。モニタ28は、コンピュータ26の処理結果を表示するための出力インタフェースである。   In FIG. 2, the second apparatus includes a digital camera 21, light source sets 22 and 23, a computer 26, a keyboard 27, and a monitor 28. The digital camera 21 is a digital camera for photographing digital images of three channels of R, G, and B, and is equipped with an appropriate lens for photographing a target object. As shown in FIG. 3, the light source sets 22 and 23 have a structure in which a plurality of LED lamps 31 to 34 used as illumination light sources are fixed on a frame. The positional relationship between the LED lamps 31 to 34 is known. The computer 26 includes a hard disk as an external storage device, a memory as a temporary storage device, a CPU as an arithmetic device, and the like, controls the digital camera 21 to capture a photographed image, and LED lamps on the light source sets 22 and 23. The lighting / extinguishing of 31-34 is controlled. Further, the computer 26 performs a process of calculating the three-dimensional shape and color information of the target object using the captured image. However, the computer that captures the captured image and the computer for data processing may be different computers. The keyboard 27 is an input interface for the user to operate the computer 26. The monitor 28 is an output interface for displaying the processing result of the computer 26.

ユーザは、まず、対象物体がデジタルカメラ21の撮影画像に適切に含まれるよう、デジタルカメラ21の位置や向きを調整し、ピントを合わせる。次に、光源セット22を、光源セット22上の各LEDランプ31〜34が対象物体を照明できる適当な位置及び向きに設置する。そして、光源セット22上のLEDランプ31のみを点灯し、適切な露光量でデジタルカメラ21により撮影を行う。撮影が完了した後、光源セット22上のLEDランプ31を消灯する。以下、光源セット22上の残る全てのLEDランプ32〜34について、同様に撮影を行う。また、光源セット23についても、光源セット22と同様に、適切な位置と向きに設置し、ランプの点灯、撮影、消灯を順次繰り返す。撮影中は、対象物体にLEDランプ31〜34からの照明光以外の光が当たらないことが好ましいが、それができない場合には、全てのLEDランプ31〜34を消灯した状態で対象物体を撮影し、LEDランプ31〜34の各々を点灯して撮影した各画像との差分を取ることで、LEDランプ31〜34以外の光が存在しない状態での撮影画像と等価な画像を得ることができる。   First, the user adjusts the position and orientation of the digital camera 21 so that the target object is appropriately included in the captured image of the digital camera 21, and focuses. Next, the light source set 22 is installed at an appropriate position and orientation in which the LED lamps 31 to 34 on the light source set 22 can illuminate the target object. Then, only the LED lamp 31 on the light source set 22 is turned on, and photographing is performed by the digital camera 21 with an appropriate exposure amount. After the photographing is completed, the LED lamp 31 on the light source set 22 is turned off. Thereafter, all the remaining LED lamps 32 to 34 on the light source set 22 are imaged in the same manner. Similarly to the light source set 22, the light source set 23 is installed at an appropriate position and orientation, and the lamp is turned on, photographed, and turned off sequentially. During shooting, it is preferable that light other than illumination light from the LED lamps 31 to 34 is not applied to the target object. However, if this is not possible, the target object is shot with all the LED lamps 31 to 34 turned off. Then, by taking the difference from each image captured by turning on each of the LED lamps 31 to 34, an image equivalent to a captured image in a state where there is no light other than the LED lamps 31 to 34 can be obtained. .

なお、図2では、4個のLEDランプ31〜34をフレーム上に配した2つの光源セット22及び23を使用する形態を示しているが、自己校正照度差ステレオの原理上は、照明光源の総計は4個でよい。ただし、対象物体の形状によっては、対象物体の一部に対して、特定の方向からの照明が遮蔽される場合があるため、5個以上の照明光源を用いることも好ましい。例えば、4個のLEDランプを配した光源セットを1つだけ使用する形態や、3個のLEDランプを配した光源セットを2つ使用する形態、あるいは、複数の光源セットがそれぞれ異なる数のLEDランプを有する形態であっても構わない。   FIG. 2 shows a form in which two light source sets 22 and 23 in which four LED lamps 31 to 34 are arranged on a frame are used. However, on the principle of self-calibration illuminance difference stereo, The total number may be four. However, depending on the shape of the target object, illumination from a specific direction may be shielded against a part of the target object, so that it is also preferable to use five or more illumination light sources. For example, a form in which only one light source set with four LED lamps is used, a form in which two light source sets with three LED lamps are used, or a plurality of light source sets each having a different number of LEDs A form having a lamp may be used.

本発明に係る撮影システムは、図2の構成に限定されるものではなく、例えば、デジタルカメラ21はコンピュータ26によって制御しなくても、ユーザが直接操作する形態とすることもできる。同様に、LEDランプ31〜34は、コンピュータ26から制御せず、ユーザが直接点灯や消灯を行う形態とすることも可能である。また、照明光源は、LEDランプに限定されるものではないが、対象物体の大きさに対して十分に小さいことが好ましい。また、図2では、光源セット22及び23をそれぞれ個別の照明装置として図示したが、1つの光源セットを用いて、位置を変えながら対象物体を順次撮影することもできる。   The photographing system according to the present invention is not limited to the configuration shown in FIG. 2. For example, the digital camera 21 may be directly operated by the user without being controlled by the computer 26. Similarly, the LED lamps 31 to 34 are not controlled from the computer 26, and the user can directly turn on or off the LED lamps 31 to 34. The illumination light source is not limited to the LED lamp, but is preferably sufficiently small with respect to the size of the target object. In FIG. 2, the light source sets 22 and 23 are illustrated as individual illumination devices, but it is also possible to sequentially photograph the target object while changing the position using one light source set.

[処理方法]
次に、本発明に係る撮影システムによって得られた画像群から、対象物体の色情報と三次元形状を求める処理方法について、図4、図5、ならびに図6を参照しながら説明する。なお、図1に示す本発明第1の装置構成例は、図2の本発明第1の装置構成例において光源セット上に配されたLEDランプの数が1つの場合と等価であるとみなすことができるため、以下では、図2の本発明第1の装置構成例に基づいて処理方法を説明する。また、一般性を考慮して、使用する光源セットの数をMとし、j番目の光源セット(j=1,2,...,M)に設置されているLEDランプの数をDとする。以降では、j番目の光源セットを光源セットjと表記し、光源セットjにおけるk番目の光源(k=1,2,...,D)を光源jと表記する。
[Processing method]
Next, a processing method for obtaining the color information and three-dimensional shape of the target object from the image group obtained by the photographing system according to the present invention will be described with reference to FIGS. 4, 5, and 6. FIG. The first apparatus configuration example of the present invention shown in FIG. 1 is regarded as equivalent to the case where the number of LED lamps arranged on the light source set is one in the first apparatus configuration example of the present invention of FIG. In the following, the processing method will be described based on the first apparatus configuration example of the present invention in FIG. In consideration of generality, the number of light source sets to be used is M, and the number of LED lamps installed in the jth light source set (j = 1, 2,..., M) is D j . To do. Hereinafter, the j-th light source set is denoted as light source set j, and the k-th light source (k = 1, 2,..., D j ) in light source set j is denoted as light source j k .

まず、本発明に係るデータ処理方法の概略を述べる。前述の通り、照度差ステレオによる法線ベクトルと拡散アルベドの導出には、対象物体各点における光源ベクトルと入射光放射輝度を用いるため、光源姿勢(位置と向き)の推定を行う必要がある。三次元空間における物体の任意の姿勢は、その物体の基準姿勢に対する回転と移動によって表すことができるため、光源位置の推定は、各光源セットに対する回転パラメータと移動パラメータの推定とみなすことができる。本発明に係る処理では、撮影画像群を用いて非線形最適化によってこれらのパラメータを求める。図4は、非線形最適化処理の説明図である。非線形最適化モジュールは、全ての光源セットに対する回転パラメータと移動パラメータを評価関数に与える。評価関数は、与えられたパラメータに基づき、評価値Eを算出する。非線形最適化モジュールは、評価値Eが収束するまで、パラメータの更新及び評価関数の呼び出しを繰り返し実施する。収束時の回転パラメータと移動パラメータが、各光源セットの姿勢を特定するパラメータとなり、全ての光源の姿勢が決定される。   First, the outline of the data processing method according to the present invention will be described. As described above, in order to derive the normal vector and the diffusion albedo by the illuminance difference stereo, the light source orientation (position and orientation) needs to be estimated because the light source vector and the incident light radiance at each point of the target object are used. Since an arbitrary posture of the object in the three-dimensional space can be represented by rotation and movement with respect to the reference posture of the object, the estimation of the light source position can be regarded as estimation of the rotation parameter and the movement parameter for each light source set. In the processing according to the present invention, these parameters are obtained by nonlinear optimization using a group of captured images. FIG. 4 is an explanatory diagram of nonlinear optimization processing. The nonlinear optimization module provides the evaluation function with rotation and movement parameters for all light source sets. The evaluation function calculates an evaluation value E based on the given parameters. The nonlinear optimization module repeatedly performs parameter update and call of the evaluation function until the evaluation value E converges. The rotation parameter and the movement parameter at the time of convergence are parameters for specifying the posture of each light source set, and the postures of all the light sources are determined.

なお、光源セット及び光源セットに設置されている光源の姿勢と、回転パラメータ及び移動パラメータとの関係は、下記の式(6)の通り定式化する。

Figure 0006237032
ここで、qj,kは、光源セットjの基準姿勢における光源jの三次元座標を表す3行1列のベクトル、Rは三次元空間における光源セットjの回転を表す3行3列の回転行列、tは三次元空間における光源セットjの移動を表す3行1列の移動ベクトル、pj,kは光源セットjを回転、移動した後の光源jの三次元座標を表す3行1列のベクトルである。 The relationship between the light source set and the posture of the light source installed in the light source set, the rotation parameter, and the movement parameter is formulated as the following equation (6).
Figure 0006237032
Here, q j, k is a 3-row 1-column vector representing the three-dimensional coordinates of the light source j k in the reference posture of the light source set j, and R j is a 3-row 3-column representing the rotation of the light source set j in the three-dimensional space. T j is a 3-by-1 movement vector representing the movement of the light source set j in the three-dimensional space, and p j, k represents the three-dimensional coordinates of the light source j k after rotating and moving the light source set j. It is a vector of 3 rows and 1 column.

光源セットjにおける各光源の位置関係は既知であるので、光源セットjの基準姿勢における光源jの三次元座標は、任意のユークリッド空間で規定することができ、例えば光源が平面上に配置されている場合には、光源jの座標を(0,0,0)、光源jの座標を(Xj,2,Yj,2,0)、光源jの座標を(Xj,3,Yj,3,0)のように表すことができる。 Since the positional relationship of each light source in the light source set j is known, the three-dimensional coordinates of the light source j k in the reference posture of the light source set j can be defined in an arbitrary Euclidean space. For example, the light sources are arranged on a plane. The coordinates of the light source j 1 are (0, 0, 0), the coordinates of the light source j 2 are (X j, 2 , Y j, 2 , 0), and the coordinates of the light source j 3 are (X j, 3 , Y j, 3 , 0).

三次元空間における回転行列Rは、3つのパラメータ、例えば、X軸を回転軸とした回転角θX;j、Y軸を回転軸とした回転角θY;j、Z軸を回転軸とした回転角θZ;jによって規定することができる。移動ベクトルtの3つの成分をtX;j、tY;j、tZ;jと表せば、光源セットjの任意の姿勢は、θX;j、θY;j、θZ;j、tX;j、tY;j、tZ;jの6個のパラメータによって記述できることとなる。また、上記式(6)では、光源jの位置を定式化したが、回転行列Rによって光源jの向きも把握することができる。 The rotation matrix R j in the three-dimensional space has three parameters, for example, a rotation angle θ X; j with the X axis as the rotation axis, a rotation angle θ Y with the Y axis as the rotation axis, j , and the Z axis as the rotation axis. The rotation angle θ Z; If the three components of the movement vector t j are expressed as t X; j , t Y; j , t Z; j , the arbitrary posture of the light source set j is θ X; j , θ Y; j , θ Z; j , TX ; j , tY ; j , tZ ; j . In the above formula (6), the position of the light source j k is formulated, but the direction of the light source j k can also be grasped by the rotation matrix R j .

非線形最適化モジュールがパラメータの最適化を開始するにあたっては、評価関数に与えるパラメータの初期値が必要となる。パラメータの初期値は、実際に撮影を行ったときの光源セットの姿勢と大幅にずれていなければ問題なく、例えば、ユーザが感覚的に値を決定したり、あるいは、撮影時に磁気センサなどを用いて概ねの位置を把握し、入力したりすればよい。また、非線形最適化モジュールのアルゴリズムは特定のものに限定する必要は無く、例えば、Nelder-Meadの滑降シンプレックス法などを用いればよい。   When the nonlinear optimization module starts optimizing parameters, initial values of parameters given to the evaluation function are required. There is no problem if the initial value of the parameter does not deviate significantly from the posture of the light source set at the time of actual shooting. For example, the user can determine the value sensuously or use a magnetic sensor or the like at the time of shooting. You can grasp the approximate position and enter it. Further, the algorithm of the nonlinear optimization module need not be limited to a specific one, and for example, a Nelder-Mead downhill simplex method may be used.

次に、非線形最適化処理で用いる評価関数の詳細について述べる。図5は、図4における評価関数で行う処理を説明したものであり、S01〜S05の5つのステップから成る。評価関数への入力は、全ての光源セットに対するθX;j、θY;j、θZ;j、tX;j、tY;j、tZ;j(j=1,2,...,M)である。図6は、非線形最適化処理に先立って、一度だけ実施する前処理の説明図であり、P01〜P04の4つのステップから成る。 Next, details of the evaluation function used in the nonlinear optimization process will be described. FIG. 5 illustrates the processing performed by the evaluation function in FIG. 4 and includes five steps S01 to S05. The inputs to the evaluation function are θ X; j , θ Y; j , θ Z; j , t X; j , t Y; j , j = Z; j (j = 1, 2,...) For all light source sets. , M). FIG. 6 is an explanatory diagram of pre-processing that is performed only once prior to nonlinear optimization processing, and includes four steps P01 to P04.

まず、図6に示す前処理について説明する。
[ステップP01]
撮影画像において対象物体に対応する画像領域からG個の画素を抽出する。以降では、これらの画素をサンプル画素と表記する。抽出方法は特に限定するものではなく、例えば、モニタに表示された画像をユーザが見ながら、マウスを用いて適当な画素を選択する方法や、画素をランダムに選択するプログラムを使用する方法などを用いればよい。
First, the preprocessing shown in FIG. 6 will be described.
[Step P01]
In the captured image, G pixels are extracted from the image area corresponding to the target object. Hereinafter, these pixels are referred to as sample pixels. The extraction method is not particularly limited. For example, a method of selecting an appropriate pixel using a mouse while a user views an image displayed on a monitor or a method of using a program for randomly selecting a pixel. Use it.

[ステップP02]
ステップP01で選択された全てのサンプル画素について、各光源下で撮影された画像のセンサ応答を抽出する。これは、上記式(3)のSをG個の画素について取得することに相当する。抽出したセンサ応答は、評価関数で使用するために保持しておく。
[Step P02]
For all the sample pixels selected in step P01, sensor responses of images taken under each light source are extracted. This is equivalent to acquiring S in the above equation (3) for G pixels. The extracted sensor response is retained for use in the evaluation function.

[ステップP03]
対象物体の粗い三次元形状を計算する。高精細な三次元形状は照度差ステレオ法に基づいて最終的に得られるが、後述するステップS02において対象物体の大まかな三次元形状の情報が必要となるため、適当な方法で三次元形状を計算しておく。粗い三次元形状を取得するための手段としては、例えば、前述のパターン投影法などが適用可能である。あるいは、対象物体が平面に近いものであれば、図7に示すように、対象物体と同時に位置関係が既知のマーカーを撮影する方法も採ることができる。図7の例では、マーカー41〜44は同一平面上の十字交差線分であり、各マーカーの交点の三次元座標はZ成分を0とすることで規定することができる。これらのマーカー41〜44を、撮影対象面とほぼ同一の平面上に設置する。撮影画像において各マーカーの交点に対応する画素位置を抽出することにより、4つのマーカー41〜44が示す平面から撮影画像に対する射影変換を得ることができるため、逆の変換により、撮影画像における任意の画素に対応する対象物体上の点の概ねの三次元座標を特定することができる。
[ステップP04]
[Step P03]
Calculate the rough three-dimensional shape of the target object. Although a high-definition three-dimensional shape is finally obtained based on the illuminance difference stereo method, since information on the rough three-dimensional shape of the target object is required in step S02 described later, the three-dimensional shape is obtained by an appropriate method. Calculate it. As a means for acquiring a rough three-dimensional shape, for example, the above-described pattern projection method can be applied. Alternatively, if the target object is close to a plane, as shown in FIG. 7, it is also possible to take a method of photographing a marker whose positional relationship is known at the same time as the target object. In the example of FIG. 7, the markers 41 to 44 are cross-intersection lines on the same plane, and the three-dimensional coordinates of the intersection of each marker can be defined by setting the Z component to zero. These markers 41 to 44 are installed on the same plane as the imaging target surface. By extracting the pixel position corresponding to the intersection of each marker in the photographed image, it is possible to obtain a projective transformation for the photographed image from the plane indicated by the four markers 41 to 44. The approximate three-dimensional coordinates of the point on the target object corresponding to the pixel can be specified.
[Step P04]

ステップP01で選択された全てのサンプル画素について、ステップP03の結果に基づき、対応する対象物体上の点の概ねの三次元座標を抽出する。抽出した三次元座標は、評価関数で使用するために保持しておく。   For all the sample pixels selected in step P01, the approximate three-dimensional coordinates of the points on the corresponding target object are extracted based on the result of step P03. The extracted three-dimensional coordinates are retained for use in the evaluation function.

続いて、図5に示す評価関数について説明する。
[ステップS01]
光源セットjに対して、回転パラメータθX;j、θY;j、θZ;jと移動パラメータtX;j、tY;j、tZ;jを用いて上記式(6)により姿勢変換を行い、光源セットjに設置された全ての光源の位置を計算する。光源から照射される光が指向性を持つ場合には、回転パラメータから光源の向きも計算する。これを全てのjについて行う。
Next, the evaluation function shown in FIG. 5 will be described.
[Step S01]
With respect to the light source set j, the posture by the above equation (6) using the rotation parameter θ X; j , θ Y; j , θ Z; j and the movement parameter t X; j , t Y; j , t Z; j. Conversion is performed, and the positions of all the light sources installed in the light source set j are calculated. When the light emitted from the light source has directivity, the direction of the light source is also calculated from the rotation parameter. This is done for all j.

[ステップS02]
ステップP01で選択した全てのサンプル画素について、各光源に対する光源ベクトル及び入射光放射輝度を計算する。
[Step S02]
For all sample pixels selected in step P01, the light source vector and the incident light radiance for each light source are calculated.

全てのサンプル画素の中でg番目の画素(g=1,2,...,G)に対応する対象物体表面上の点の概ねの三次元座標を3行1列のベクトルrとし、そこから光源jに向かうベクトルvg,j,kを、式(7)と定義すると、光源ベクトルlg,j,kは、式(8)で表される。ただし、二重線はベクトルのノルムを表す。

Figure 0006237032
Figure 0006237032
G th pixel among all samples pixels (g = 1,2, ..., G ) and a vector r g of 3 rows and one column a generally three-dimensional coordinates of points on the object surface corresponding to, If the vector v g, j, k heading from there to the light source j k is defined as equation (7), the light source vector l g, j, k is expressed by equation (8). However, the double line represents the norm of the vector.
Figure 0006237032
Figure 0006237032

また、光源jから位置rへの入射光の放射輝度Rg,j,kは、式(9)で表される。

Figure 0006237032
ただし、βは光源からの距離が1の点における放射輝度であり、事前に光源の放射輝度キャリブレーションを行うことで決定される。また、光源が指向性を持つ場合には、βは光源の向きの関数となる。 Further, the radiance R g, j, k of the incident light from the light source j k to the position r g is expressed by Expression (9).
Figure 0006237032
However, β is a radiance at a point whose distance from the light source is 1, and is determined by performing a radiance calibration of the light source in advance. When the light source has directivity, β is a function of the direction of the light source.

なお、式(9)では、光源の大きさが十分に小さい場合に、光源から照射された光の放射輝度が光源からの距離の二乗に反比例するという原理に基づいて構成されたものであるが、実際の光源との間に乖離がある場合には、適切な関数に置き換えてもよい。   The equation (9) is configured based on the principle that when the size of the light source is sufficiently small, the radiance of the light emitted from the light source is inversely proportional to the square of the distance from the light source. If there is a discrepancy with the actual light source, it may be replaced with an appropriate function.

式(8)及び式(9)の計算を、全ての光源及び全てのサンプル画素の組み合わせに対して行う。   The calculations of Equation (8) and Equation (9) are performed for all light source and all sample pixel combinations.

[ステップS03]
ステップS01で求めた光源の位置(及び向き)と、ステップS02で求めた光源ベクトル及び入射光放射輝度と、ステップP02で得たセンサ応答とを用いて、上記式(5)に基づき、全てのサンプル画素に対して法線ベクトルと拡散アルベドを求める。
[Step S03]
Using the position (and orientation) of the light source obtained at step S01, the light source vector and incident light radiance obtained at step S02, and the sensor response obtained at step P02, A normal vector and a diffusion albedo are obtained for the sample pixel.

なお、式(5)では、説明を簡略化するためにカメラのチャンネルに関する記述を割愛したが、実際には、撮影に使用したカメラのチャンネル毎に拡散アルベドを求める必要がある。例えば、カメラがR、G、Bの3チャンネルを有する場合には、まずGチャンネルのセンサ応答のみを用いて式(5)に基づいて法線ベクトル及び拡散アルベドを算出し、次にGチャンネルで求めた法線ベクトルを式(2)に代入し、最小二乗法を用いてRチャンネルとBチャンネルの拡散アルベドを求めればよい。あるいは、R、G、Bのそれぞれのチャンネルについて、式(5)に基づいて法線ベクトル及び拡散アルベドを求め、得られた3つの法線ベクトルを平均化して単独の法線ベクトルとする方法を用いることもできる。また、これらの処理においては、入射光の放射輝度もR、G、Bの3成分に分解しておく必要があり、例えば各光源で完全拡散板を照明して撮影した画像のセンサ応答から、事前にキャリブレーションを行えばよい。   In formula (5), the description relating to the camera channel is omitted for the sake of simplicity, but actually, it is necessary to obtain a diffusion albedo for each camera channel used for photographing. For example, when the camera has three channels of R, G, and B, the normal vector and the diffusion albedo are calculated based on the equation (5) using only the sensor response of the G channel, and then the G channel. The obtained normal vector is substituted into equation (2), and the diffusion albedo of the R channel and the B channel may be obtained using the least square method. Alternatively, for each of the R, G, and B channels, a normal vector and a diffusion albedo are obtained based on Equation (5), and the obtained three normal vectors are averaged to form a single normal vector. It can also be used. In these processes, the radiance of incident light also needs to be decomposed into three components of R, G, and B. For example, from the sensor response of an image taken by illuminating a complete diffuser with each light source, Calibration may be performed in advance.

また、式(5)による法線ベクトル及び拡散アルベドの導出においては、対象物体の光反射がランバートモデルに従うことを前提としているが、実際には、物体から反射される光には鏡面反射成分が含まれることがある。そのため、本ステップでは、ステップP02で得たセンサ応答を参照し、センサ応答がある程度大きいものについては鏡面反射成分が含まれるものとみなし、該当する光源に対応するセンサ応答を式(5)による法線ベクトル及び拡散アルベドの導出に使用しないことも好ましい。同様に、ステップP02で得たセンサ応答がある程度小さく、対象物体の形状に伴う光の遮蔽の影響を受けていると考えられる場合も、該当する光源に対応するセンサ応答を使用しないことも好ましい。   Further, in the derivation of the normal vector and the diffusion albedo according to the equation (5), it is assumed that the light reflection of the target object follows the Lambert model, but actually, the light reflected from the object has a specular reflection component. May be included. Therefore, in this step, the sensor response obtained in step P02 is referred to, and if the sensor response is somewhat large, it is considered that the specular reflection component is included, and the sensor response corresponding to the corresponding light source is calculated by the method according to the equation (5). It is also preferred not to use it to derive line vectors and diffusion albedo. Similarly, when the sensor response obtained in step P02 is somewhat small and it is considered that the sensor response is affected by light shielding according to the shape of the target object, it is preferable not to use the sensor response corresponding to the corresponding light source.

[ステップS04]
ステップS03で得られた法線ベクトル及び拡散アルベドと、ステップS02で得られた光源ベクトル及び入射光放射輝度とを用いて、全てのサンプル画素と全ての光源との組み合わせについて、式(1)に基づき、ランバートモデル仮定におけるセンサ応答を計算する。この計算も、ステップS03と同様にR、G、Bの各チャンネルについて行う。
[Step S04]
Using the normal vector and the diffusion albedo obtained in step S03, the light source vector and the incident light radiance obtained in step S02, the combinations of all the sample pixels and all the light sources are expressed in Equation (1). Based on this, the sensor response in the Lambert model assumption is calculated. This calculation is also performed for each of the R, G, and B channels as in step S03.

[ステップS05]
ステップS04で計算したセンサ応答のランバートモデル値と、ステップP02で得た実際の撮影画像から抽出したセンサ応答(実測値)との差を、式(10)により計算し、評価値Eとする。

Figure 0006237032
ただし、Ij,k;g;cは、光源jを点灯させて撮影したときのg番目のサンプル画素におけるcチャンネルのセンサ応答の実測値、Ij,k;g;cは、対応するセンサ応答のランバートモデル値である。 [Step S05]
The difference between the Lambert model value of the sensor response calculated in step S04 and the sensor response (actually measured value) extracted from the actual captured image obtained in step P02 is calculated by the equation (10), and is set as an evaluation value E.
Figure 0006237032
However, I j, k; g; c corresponds to an actually measured value of the sensor response of the c-channel in the g-th sample pixel when the light source j k is turned on, and I j, k; g; c corresponds to This is the Lambert model value of the sensor response.

以上のステップS01〜S05の処理では、評価関数に与えられるパラメータθX;j、θY;j、θZ;j、tX;j、tY;j、tZ;j(j=1,2,...,M)が実際の撮影時の状態に近いほど、計算過程における誤差が小さくなり、必然的に評価値Eの値が小さくなる。従って、非線形最適化モジュールは、評価関数が計算する評価値Eが小さくなるようにパラメータを更新することにより、各光源セットの姿勢、すなわち、各光源の位置と向きを実際の撮影時の状態に近付けていくことができる。非線形最適化モジュールは、評価値Eが収束した時点で光源の位置及び向きの推定を完了する。 In the processing of the above steps S01 to S05, the parameters θ X given to the evaluation function θ, j , θ Y; j , θ Z; j , t X; j , t Y; j , t Z; j (j = 1, 2,..., M) are closer to the actual shooting state, the smaller the error in the calculation process, and the smaller the evaluation value E inevitably. Therefore, the nonlinear optimization module updates the parameters so that the evaluation value E calculated by the evaluation function becomes small, so that the posture of each light source set, that is, the position and orientation of each light source is changed to the actual shooting state. You can get closer. The nonlinear optimization module completes the estimation of the position and orientation of the light source when the evaluation value E converges.

光源の位置及び向きが決定されれば、撮影画像群から、通常の照度差ステレオの原理に基づき、対象物体表面上の各点の法線ベクトルと拡散アルベドを計算することができる。更に、法線ベクトルは対象物体表面上の微小領域における面の向きを表すものであるため、この面を隣接する画素でつなぎ合わせていくことにより、対象物体全体の形状を復元することができる。また、ステップP03で得た対象物体の粗い三次元形状と、照度差ステレオによって得られる法線ベクトルとを組み合わせて、例えば非特許文献8に開示された手法を用いて、より高精度に三次元形状を復元することも好ましい。   If the position and orientation of the light source are determined, the normal vector and the diffusion albedo of each point on the target object surface can be calculated from the captured image group based on the principle of ordinary illuminance difference stereo. Furthermore, since the normal vector represents the orientation of a surface in a minute region on the surface of the target object, the shape of the entire target object can be restored by connecting the surfaces with adjacent pixels. Further, by combining the rough three-dimensional shape of the target object obtained in step P03 and the normal vector obtained by illuminance difference stereo, for example, using the technique disclosed in Non-Patent Document 8, three-dimensional with higher accuracy. It is also preferable to restore the shape.

非線形最適化処理において、最適化対象となるパラメータの数は、それぞれの光源セットに対するパラメータがθX;j、θY;j、θZ;j、tX;j、tY;j、tZ;jの6個で、光源セットの数がM個であるため、総計6M個となる。非線形最適化処理を高速、かつ、安定的に行うためには、パラメータの数ができるだけ少ないことが好ましい。一方で、照度差ステレオによる法線ベクトル及び拡散アルベドの導出においては、画像のノイズ等による精度低下の影響を緩和するため、ある程度の数の光源を用いることが好ましい。本発明においては、光源セットに複数の光源を設置し、これらの光源で回転パラメータθX;j、θY;j、θZ;jと移動パラメータtX;j、tY;j、tZ;jを共通化することで、最適化対象となるパラメータの総数を削減することができる。例えば、8個の光源で撮影することを想定した場合、それぞれの光源を独立して設置した場合(光源セットにおける光源数が1個の場合)には、最適化対象となるパラメータの総数は48個となるが、2個の光源を含む光源セットを4個使用した場合にはパラメータの総数は24個、4個の光源を含む光源セットを2個使用した場合にはパラメータの総数は12個、更に、8個の光源を含む光源セットを1個だけ使用した場合にはパラメータの総数は6個となり、1個の光源セットに設置する光源の数を増やすほど、最適化の対象となるパラメータの総数を削減することができる。実際には、1個の光源セットに設置する光源の数を増やすと、光源セットが大きくなり、扱いにくくなる可能性があるため、対象物体の大きさや撮影環境を考慮して適切な設計を行うことで、一定数の光源数の確保と最適化パラメータ数の削減のバランスを取ることが好ましい。 In the non-linear optimization process, the number of parameters to be optimized is such that the parameters for each light source set are θ X; j , θ Y; j , θ Z; j , t X; j , t Y; j , t Z ; J is 6 and the number of the light source sets is M, so the total is 6M. In order to perform the nonlinear optimization process at high speed and stably, it is preferable that the number of parameters is as small as possible. On the other hand, in the derivation of the normal vector and the diffusion albedo by the illuminance difference stereo, it is preferable to use a certain number of light sources in order to mitigate the influence of accuracy reduction due to image noise or the like. In the present invention, a plurality of light sources are installed in a light source set, and with these light sources, rotation parameters θ X; j , θ Y; j , θ Z; j and movement parameters t X; j , t Y; j , t Z By making j common, the total number of parameters to be optimized can be reduced. For example, assuming that shooting is performed with eight light sources, when each light source is installed independently (when the number of light sources in the light source set is one), the total number of parameters to be optimized is 48. However, when four light source sets including two light sources are used, the total number of parameters is 24, and when two light source sets including four light sources are used, the total number of parameters is twelve. Furthermore, when only one light source set including eight light sources is used, the total number of parameters is six, and as the number of light sources installed in one light source set is increased, the parameter to be optimized is increased. The total number of can be reduced. Actually, if the number of light sources installed in one light source set is increased, the light source set becomes larger and may be difficult to handle. Therefore, an appropriate design should be made in consideration of the size of the target object and the shooting environment. Thus, it is preferable to balance the securing of a certain number of light sources and the reduction of the number of optimization parameters.

本発明に係る非線形最適化の処理では、G個の画素について、照度差ステレオ法の原理によって法線ベクトル及び拡散アルベドを導出しつつ、光源セットの位置を最適化する。最適化における未知変数の数は、G個の各画素における法線ベクトルと拡散アルベドとがそれぞれ3自由度を持ち(式(5)において法線ベクトルと拡散アルベドとの積が導出されることに相当)、光源セットの回転パラメータと移動パラメータとが6Mの自由度を持つため、総計すると3G+6M個となる。一方、既知の情報は、G個の画素のそれぞれにおいて、各光源について得られたセンサ応答であり、光源の数をF個とすれば、その総数はGFとなる。非線形最適化が成立するためには、未知変数の数以上の既知の情報が必要であり、その条件は式(11)で表される。

Figure 0006237032
これを変形すると、式(12)が得られる。
Figure 0006237032
In the nonlinear optimization processing according to the present invention, the position of the light source set is optimized while deriving the normal vector and the diffusion albedo for the G pixels based on the principle of the illuminance difference stereo method. The number of unknown variables in the optimization is that the normal vector and the diffusion albedo in each of the G pixels have 3 degrees of freedom (the product of the normal vector and the diffusion albedo is derived in equation (5)). Equivalently), since the rotation parameter and movement parameter of the light source set have 6M degrees of freedom, the total is 3G + 6M. On the other hand, the known information is the sensor response obtained for each light source in each of the G pixels. If the number of light sources is F, the total number is GF. In order to achieve nonlinear optimization, known information more than the number of unknown variables is required, and the condition is expressed by Expression (11).
Figure 0006237032
When this is transformed, equation (12) is obtained.
Figure 0006237032

従って、上記ステップP01において選択する画素数Gは、撮影に使用する光源の総数に応じて、式(12)に基づいて決定する必要がある。   Therefore, the number G of pixels to be selected in step P01 needs to be determined based on Expression (12) according to the total number of light sources used for photographing.

11、21 デジタルカメラ
12〜15、31〜34 LEDランプ
16、26 コンピュータ
17、27 キーボード
18、28 モニタ
22、23 光源セット
41〜44 マーカー
11, 21 Digital camera 12-15, 31-34 LED lamp 16, 26 Computer 17, 27 Keyboard 18, 28 Monitor 22, 23 Light source set 41-44 Marker

Claims (10)

物体の色と三次元形状を計測する計測装置であって、
計測対象となる物体の粗い三次元形状を計測する粗形状計測手段と、
計測対象となる物体の画像を3チャンネル以上のチャンネル数で撮像する撮像手段と、
前記物体を撮像する際に使用する4個以上の照明光源からなる照明手段と、
前記照明手段における前記4個以上の照明光源を排他的に点灯し、前記撮像手段にて前記物体を順次撮像して、照明光源毎の撮像画像を得る画像入力手段と、
前記複数の撮像画像と前記粗い三次元形状とから、前記4個以上の照明光源のそれぞれについて撮像時の位置を推定する光源位置推定手段と、
前記光源位置推定手段によって得られたそれぞれの照明光源の位置に基づき、前記物体の色情報と三次元形状情報を算出する物体復元手段とを備える、計測装置。
A measuring device that measures the color and three-dimensional shape of an object,
A rough shape measuring means for measuring a rough three-dimensional shape of an object to be measured;
Imaging means for imaging an image of an object to be measured with three or more channels;
Illuminating means comprising four or more illumination light sources used for imaging the object;
An image input means for exclusively turning on the four or more illumination light sources in the illumination means, sequentially imaging the object by the imaging means, and obtaining a captured image for each illumination light source;
Light source position estimating means for estimating a position at the time of imaging for each of the four or more illumination light sources from the plurality of captured images and the rough three-dimensional shape ;
A measurement apparatus comprising: object restoration means for calculating color information and three-dimensional shape information of the object based on the position of each illumination light source obtained by the light source position estimation means.
前記4個以上の照明光源の少なくとも1つは、他の1つ以上の照明光源との相対位置関係が固定されていることを特徴とする、請求項1に記載の計測装置。   The measurement apparatus according to claim 1, wherein at least one of the four or more illumination light sources is fixed in a relative positional relationship with another one or more illumination light sources. 前記光源位置推定手段は、
前記撮像画像の中で計測対象となる物体が含まれる領域から複数のサンプル画素を選択するサンプル画素抽出手段と、
前記照明光源の位置と向きを三次元物体の回転と移動で表し、回転パラメータと移動パラメータから前記4個以上の照明光源のそれぞれについて位置と向きを計算する光源姿勢計算手段と、
前記光源姿勢計算手段で計算された光源の位置と向き、及び計測対象物体の粗い三次元形状情報を用いて、前記サンプル画素に対応する計測対象物体表面上の各点における各光源の方向と各光源から照射される光の放射輝度とを計算する入射光計算手段と、
前記入射光計算手段で計算された各光源の方向と各光源から照射される光の放射輝度、及び前記サンプル画素におけるセンサ応答を用いて、全ての前記サンプル画素について、計測対象物体の法線ベクトル及び拡散アルベドを計算する表面計算手段と、
前記表面計算手段で計算された法線ベクトルと拡散アルベド、及び前記入射光計算手段で計算された各光源の方向と各光源から照射される光の放射輝度とを用いて、全ての前記サンプル画素及び全ての光源について、センサ応答のモデル値を計算するセンサ応答モデル値計算手段と、
前記センサ応答モデル値計算手段で計算されたセンサ応答のモデル値と前記撮像画像のセンサ応答との誤差を計算する誤差計算手段と、
前記誤差計算手段で計算された誤差が最小となる前記照明光源の位置と向きを表す回転パラメータと移動パラメータを、非線形最適化によって決定する光源姿勢計算手段とを含む、請求項1に記載の計測装置。
The light source position estimating means includes
Sample pixel extraction means for selecting a plurality of sample pixels from an area including an object to be measured in the captured image;
A light source attitude calculation means for expressing the position and orientation of the illumination light source by rotation and movement of a three-dimensional object, and calculating the position and orientation of each of the four or more illumination light sources from the rotation parameter and the movement parameter;
Using the position and orientation of the light source calculated by the light source orientation calculation means and the rough three-dimensional shape information of the measurement target object, the direction and each of the light sources at each point on the measurement target object surface corresponding to the sample pixel Incident light calculation means for calculating the radiance of light emitted from the light source;
Using the direction of each light source calculated by the incident light calculation means, the radiance of the light emitted from each light source, and the sensor response in the sample pixel, the normal vector of the measurement target object for all the sample pixels And surface calculation means for calculating the diffusion albedo;
All of the sample pixels using the normal vector and diffusion albedo calculated by the surface calculation means, and the direction of each light source calculated by the incident light calculation means and the radiance of light emitted from each light source. And sensor response model value calculation means for calculating a model value of sensor response for all light sources,
Error calculation means for calculating an error between the sensor response model value calculated by the sensor response model value calculation means and the sensor response of the captured image;
2. The measurement according to claim 1, further comprising: a light source attitude calculation unit that determines a rotation parameter and a movement parameter representing the position and orientation of the illumination light source that minimizes the error calculated by the error calculation unit by nonlinear optimization. apparatus.
4個以上の照明光源を排他的に点灯して物体を照明し、撮像機器によって物体を順次撮像して得た照明光源毎の撮像画像から当該照明光源の位置と向きを推定する光源姿勢推定装置であって、
前記撮像画像の中で計測対象となる物体が含まれる領域から複数のサンプル画素を選択するサンプル画素抽出手段と、
前記照明光源の位置と向きを三次元物体の回転と移動で表し、回転パラメータと移動パラメータから前記4個以上の照明光源のそれぞれについて位置と向きを計算する光源姿勢計算手段と、
前記光源姿勢計算手段で計算された光源の位置と向き、及び計測対象物体の粗い三次元形状情報を用いて、前記サンプル画素に対応する計測対象物体表面上の各点における各光源の方向と各光源から照射される光の放射輝度とを計算する入射光計算手段と、
前記入射光計算手段で計算された各光源の方向と各光源から照射される光の放射輝度、及び前記サンプル画素におけるセンサ応答を用いて、全ての前記サンプル画素について、計測対象物体の法線ベクトル及び拡散アルベドを計算する表面計算手段と、
前記表面計算手段で計算された法線ベクトルと拡散アルベド、及び前記入射光計算手段で計算された各光源の方向と各光源から照射される光の放射輝度とを用いて、全ての前記サンプル画素及び全ての光源について、センサ応答のモデル値を計算するセンサ応答モデル値計算手段と、
前記センサ応答モデル値計算手段で計算されたセンサ応答のモデル値と前記撮像画像のセンサ応答との誤差を計算する誤差計算手段と、
前記誤差計算手段で計算された誤差が最小となる前記照明光源の位置と向きを表す回転パラメータと移動パラメータを、非線形最適化によって決定する光源姿勢計算手段とを備える、光源姿勢推定装置。
A light source attitude estimation device that estimates the position and orientation of an illumination light source from captured images of each illumination light source obtained by illuminating an object by exclusively lighting four or more illumination light sources and sequentially imaging the object with an imaging device Because
Sample pixel extraction means for selecting a plurality of sample pixels from an area including an object to be measured in the captured image;
A light source attitude calculation means for expressing the position and orientation of the illumination light source by rotation and movement of a three-dimensional object, and calculating the position and orientation of each of the four or more illumination light sources from the rotation parameter and the movement parameter;
Using the position and orientation of the light source calculated by the light source orientation calculation means and the rough three-dimensional shape information of the measurement target object, the direction and each of the light sources at each point on the measurement target object surface corresponding to the sample pixel Incident light calculation means for calculating the radiance of light emitted from the light source;
Using the direction of each light source calculated by the incident light calculation means, the radiance of the light emitted from each light source, and the sensor response in the sample pixel, the normal vector of the measurement target object for all the sample pixels And surface calculation means for calculating the diffusion albedo;
All of the sample pixels using the normal vector and diffusion albedo calculated by the surface calculation means, and the direction of each light source calculated by the incident light calculation means and the radiance of light emitted from each light source. And sensor response model value calculation means for calculating a model value of sensor response for all light sources,
Error calculation means for calculating an error between the sensor response model value calculated by the sensor response model value calculation means and the sensor response of the captured image;
A light source attitude estimation device comprising: a light source attitude calculation means that determines a rotation parameter and a movement parameter representing the position and orientation of the illumination light source that minimizes the error calculated by the error calculation means by nonlinear optimization.
物体の色と三次元形状を計測する計測方法であって、
計測対象となる物体の粗い三次元形状を計測する粗形状計測ステップと、
4個以上の照明光源を排他的に点灯し、3チャンネル以上のチャンネル数を有する撮像機器によって前記物体を順次撮像し、照明光源毎の撮像画像を得る画像入力ステップと、
前記複数の撮像画像と前記粗い三次元形状とから、前記4個以上の照明光源のそれぞれについて撮像時の位置を推定する光源位置推定ステップと、
前記光源位置推定ステップによって得られたそれぞれの照明光源の位置に基づき、前記物体の色情報と三次元形状情報を算出する物体復元ステップとを備える、計測方法。
A measurement method for measuring the color and three-dimensional shape of an object,
A rough shape measuring step for measuring a rough three-dimensional shape of an object to be measured;
An image input step of exclusively lighting four or more illumination light sources, sequentially imaging the object by an imaging device having three or more channels, and obtaining a captured image for each illumination light source;
A light source position estimation step of estimating a position at the time of imaging for each of the four or more illumination light sources from the plurality of captured images and the rough three-dimensional shape ;
A measurement method comprising: an object restoration step of calculating color information and three-dimensional shape information of the object based on the position of each illumination light source obtained by the light source position estimation step.
前記光源位置推定ステップは、
前記撮像画像の中で計測対象となる物体が含まれる領域から複数のサンプル画素を選択するサンプル画素抽出ステップと、
前記照明光源の位置と向きを三次元物体の回転と移動で表し、回転パラメータと移動パラメータから前記4個以上の照明光源のそれぞれについて位置と向きを計算する光源姿勢計算ステップと、
前記光源姿勢計算ステップで得られた光源の位置と向き、及び計測対象物体の粗い三次元形状情報を用いて、前記サンプル画素に対応する計測対象物体表面上の各点における各光源の方向と各光源から照射される光の放射輝度とを計算する入射光計算ステップと、
前記入射光計算ステップで得られた各光源の方向と各光源から照射される光の放射輝度、及び、前記サンプル画素におけるセンサ応答を用いて、全ての前記サンプル画素について、計測対象物体の法線ベクトル及び拡散アルベドを計算する表面計算ステップと、
前記表面計算ステップで得られた法線ベクトルと拡散アルベド、及び前記入射光計算ステップで得られた各光源の方向と各光源から照射される光の放射輝度を用いて、全ての前記サンプル画素及び全ての光源について、センサ応答のモデル値を計算するセンサ応答モデル値計算ステップと、
前記センサ応答モデル値計算ステップで得られたセンサ応答のモデル値と前記撮像画像のセンサ応答との誤差を計算する誤差計算ステップと、
前記誤差計算ステップで得られた誤差が最小となる前記照明光源の位置と向きを表す回転パラメータと移動パラメータを、非線形最適化によって決定する光源姿勢計算ステップとを含む、請求項5に記載の計測方法。
The light source position estimating step includes:
A sample pixel extraction step of selecting a plurality of sample pixels from a region including an object to be measured in the captured image;
A position and orientation of the illumination light source represented by rotation and movement of a three-dimensional object, and a light source attitude calculation step of calculating the position and orientation of each of the four or more illumination light sources from the rotation parameter and the movement parameter;
Using the position and orientation of the light source obtained in the light source orientation calculation step and the rough three-dimensional shape information of the measurement target object, the direction and each of the light sources at each point on the measurement target object surface corresponding to the sample pixel An incident light calculation step for calculating the radiance of light emitted from the light source;
Using the direction of each light source obtained in the incident light calculation step, the radiance of light emitted from each light source, and the sensor response in the sample pixel, the normal line of the measurement target object for all the sample pixels A surface calculation step for calculating vectors and diffusion albedo;
Using the normal vector and diffusion albedo obtained in the surface calculation step, and the direction of each light source obtained in the incident light calculation step and the radiance of light emitted from each light source, all the sample pixels and A sensor response model value calculating step for calculating a sensor response model value for all light sources;
An error calculation step of calculating an error between the sensor response model value obtained in the sensor response model value calculation step and the sensor response of the captured image;
The measurement according to claim 5, further comprising: a light source attitude calculation step that determines a rotation parameter and a movement parameter representing the position and orientation of the illumination light source that minimizes the error obtained in the error calculation step by nonlinear optimization. Method.
4個以上の照明光源を排他的に点灯して物体を照明し、撮像機器によって物体を順次撮像して得た照明光源毎の撮像画像から当該照明光源の位置と向きを推定する光源姿勢推定方法であって、
前記撮像画像の中で計測対象となる物体が含まれる領域から複数のサンプル画素を選択するサンプル画素抽出ステップと、
前記照明光源の位置と向きを三次元物体の回転と移動で表し、回転パラメータと移動パラメータから前記4個以上の照明光源のそれぞれについて位置と向きを計算する光源姿勢計算ステップと、
前記光源姿勢計算ステップで得られた光源の位置と向き、及び計測対象物体の粗い三次元形状情報を用いて、前記サンプル画素に対応する計測対象物体表面上の各点における各光源の方向と各光源から照射される光の放射輝度とを計算する入射光計算ステップと、
前記入射光計算ステップで得られた各光源の方向と各光源から照射される光の放射輝度、及び、前記サンプル画素におけるセンサ応答を用いて、全ての前記サンプル画素について、計測対象物体の法線ベクトル及び拡散アルベドを計算する表面計算ステップと、
前記表面計算ステップで得られた法線ベクトルと拡散アルベド、及び前記入射光計算ステップで得られた各光源の方向と各光源から照射される光の放射輝度を用いて、全ての前記サンプル画素及び全ての光源について、センサ応答のモデル値を計算するセンサ応答モデル値計算ステップと、
前記センサ応答モデル値計算ステップで得られたセンサ応答のモデル値と前記撮像画像のセンサ応答との誤差を計算する誤差計算ステップと、
前記誤差計算ステップで得られた誤差が最小となる前記照明光源の位置と向きを表す回転パラメータと移動パラメータを、非線形最適化によって決定する光源姿勢計算ステップとを備える、光源姿勢推定方法。
A light source attitude estimation method for estimating the position and orientation of an illumination light source from captured images of each illumination light source obtained by illuminating an object by exclusively turning on four or more illumination light sources and sequentially imaging the object with an imaging device Because
A sample pixel extraction step of selecting a plurality of sample pixels from a region including an object to be measured in the captured image;
A position and orientation of the illumination light source represented by rotation and movement of a three-dimensional object, and a light source attitude calculation step of calculating the position and orientation of each of the four or more illumination light sources from the rotation parameter and the movement parameter;
Using the position and orientation of the light source obtained in the light source orientation calculation step and the rough three-dimensional shape information of the measurement target object, the direction and each of the light sources at each point on the measurement target object surface corresponding to the sample pixel An incident light calculation step for calculating the radiance of light emitted from the light source;
Using the direction of each light source obtained in the incident light calculation step, the radiance of light emitted from each light source, and the sensor response in the sample pixel, the normal line of the measurement target object for all the sample pixels A surface calculation step for calculating vectors and diffusion albedo;
Using the normal vector and diffusion albedo obtained in the surface calculation step, and the direction of each light source obtained in the incident light calculation step and the radiance of light emitted from each light source, all the sample pixels and A sensor response model value calculating step for calculating a sensor response model value for all light sources;
An error calculation step of calculating an error between the sensor response model value obtained in the sensor response model value calculation step and the sensor response of the captured image;
A light source posture estimation method comprising: a light source posture calculation step that determines a rotation parameter and a movement parameter representing the position and orientation of the illumination light source that minimize the error obtained in the error calculation step by nonlinear optimization.
物体の色と三次元形状を計測する計測装置のコンピュータに実行させる計測プログラムであって、
計測対象となる物体の粗い三次元形状を計測する粗形状計測処理と、
4個以上の照明光源を排他的に点灯し、3チャンネル以上のチャンネル数を有する撮像機器によって前記物体を順次撮像し、照明光源毎の撮像画像を得る画像入力処理と、
前記複数の撮像画像と前記粗い三次元形状とから、前記4個以上の照明光源のそれぞれについて撮像時の位置を推定する光源位置推定処理と、
前記光源位置推定処理によって得られたそれぞれの照明光源の位置に基づき、前記物体の色情報と三次元形状情報を算出する物体復元処理とを、コンピュータに実行させるための、計測プログラム。
A measurement program that is executed by a computer of a measurement device that measures the color and three-dimensional shape of an object,
A rough shape measurement process for measuring a rough three-dimensional shape of an object to be measured;
4 or more illumination light sources are exclusively turned on, and the object is sequentially imaged by an imaging device having 3 or more channels, and an image input process for obtaining a captured image for each illumination light source;
A light source position estimation process for estimating a position at the time of imaging for each of the four or more illumination light sources from the plurality of captured images and the rough three-dimensional shape ;
A measurement program for causing a computer to execute color reconstruction of an object and object restoration processing for calculating three-dimensional shape information based on the position of each illumination light source obtained by the light source position estimation processing.
前記光源位置推定処理は、
前記撮像画像の中で計測対象となる物体が含まれる領域から複数のサンプル画素を選択するサンプル画素抽出処理と、
前記照明光源の位置と向きを三次元物体の回転と移動で表し、回転パラメータと移動パラメータから前記4個以上の照明光源のそれぞれについて位置と向きを計算する光源姿勢計算処理と、
前記光源姿勢計算処理で得られた光源の位置と向き、及び計測対象物体の粗い三次元形状情報を用いて、前記サンプル画素に対応する計測対象物体表面上の各点における各光源の方向と各光源から照射される光の放射輝度とを計算する入射光計算処理と、
前記入射光計算処理で得られた各光源の方向と各光源から照射される光の放射輝度、及び、前記サンプル画素におけるセンサ応答を用いて、全ての前記サンプル画素について、計測対象物体の法線ベクトル及び拡散アルベドを計算する表面計算処理と、
前記表面計算処理で得られた法線ベクトルと拡散アルベド、及び前記入射光計算処理で得られた各光源の方向と各光源から照射される光の放射輝度を用いて、全ての前記サンプル画素及び全ての光源について、センサ応答のモデル値を計算するセンサ応答モデル値計算処理と、
前記センサ応答モデル値計算処理で得られたセンサ応答のモデル値と前記撮像画像のセンサ応答との誤差を計算する誤差計算処理と、
前記誤差計算処理で得られた誤差が最小となる前記照明光源の位置と向きを表す回転パラメータと移動パラメータを、非線形最適化によって決定する光源姿勢計算処理とを含む、請求項8に記載の計測プログラム。
The light source position estimation process includes:
Sample pixel extraction processing for selecting a plurality of sample pixels from a region including an object to be measured in the captured image;
A position and orientation of the illumination light source represented by rotation and movement of a three-dimensional object, and a light source orientation calculation process for calculating the position and orientation of each of the four or more illumination light sources from the rotation parameter and the movement parameter;
Using the position and orientation of the light source obtained by the light source orientation calculation process and the rough three-dimensional shape information of the measurement target object, the direction and each of the light sources at each point on the measurement target object surface corresponding to the sample pixel Incident light calculation processing for calculating the radiance of light emitted from the light source;
Using the direction of each light source obtained in the incident light calculation process, the radiance of the light emitted from each light source, and the sensor response in the sample pixel, the normal of the measurement target object for all the sample pixels Surface calculation processing to calculate vector and diffusion albedo;
Using the normal vector and diffusion albedo obtained in the surface calculation process, and the direction of each light source and the radiance of light emitted from each light source obtained in the incident light calculation process, all the sample pixels and Sensor response model value calculation processing for calculating a sensor response model value for all light sources;
An error calculation process for calculating an error between the sensor response model value obtained by the sensor response model value calculation process and the sensor response of the captured image;
The measurement according to claim 8, further comprising: a light source attitude calculation process that determines a rotation parameter and a movement parameter representing the position and orientation of the illumination light source that minimizes the error obtained by the error calculation process by nonlinear optimization. program.
4個以上の照明光源を排他的に点灯して物体を照明し、撮像機器によって物体を順次撮像して得た照明光源毎の撮像画像から当該照明光源の位置と向きを推定する光源姿勢推定装置のコンピュータに実行させる光源姿勢推定プログラムであって、
前記撮像画像の中で計測対象となる物体が含まれる領域から複数のサンプル画素を選択するサンプル画素抽出処理と、
前記照明光源の位置と向きを三次元物体の回転と移動で表し、回転パラメータと移動パラメータから前記4個以上の照明光源のそれぞれについて位置と向きを計算する光源姿勢計算処理と、
前記光源姿勢計算処理で得られた光源の位置と向き、及び計測対象物体の粗い三次元形状情報を用いて、前記サンプル画素に対応する計測対象物体表面上の各点における各光源の方向と各光源から照射される光の放射輝度とを計算する入射光計算処理と、
前記入射光計算処理で得られた各光源の方向と各光源から照射される光の放射輝度、及び、前記サンプル画素におけるセンサ応答を用いて、全ての前記サンプル画素について、計測対象物体の法線ベクトル及び拡散アルベドを計算する表面計算処理と、
前記表面計算処理で得られた法線ベクトルと拡散アルベド、及び前記入射光計算処理で得られた各光源の方向と各光源から照射される光の放射輝度を用いて、全ての前記サンプル画素及び全ての光源について、センサ応答のモデル値を計算するセンサ応答モデル値計算処理と、
前記センサ応答モデル値計算処理で得られたセンサ応答のモデル値と前記撮像画像のセンサ応答との誤差を計算する誤差計算処理と、
前記誤差計算処理で得られた誤差が最小となる前記照明光源の位置と向きを表す回転パラメータと移動パラメータを、非線形最適化によって決定する光源姿勢計算処理とを、コンピュータに実行させるための、光源姿勢推定プログラム。
A light source attitude estimation device that estimates the position and orientation of an illumination light source from captured images of each illumination light source obtained by illuminating an object by exclusively lighting four or more illumination light sources and sequentially imaging the object with an imaging device A light source attitude estimation program to be executed by a computer of
Sample pixel extraction processing for selecting a plurality of sample pixels from a region including an object to be measured in the captured image;
A position and orientation of the illumination light source represented by rotation and movement of a three-dimensional object, and a light source orientation calculation process for calculating the position and orientation of each of the four or more illumination light sources from the rotation parameter and the movement parameter;
Using the position and orientation of the light source obtained by the light source orientation calculation process and the rough three-dimensional shape information of the measurement target object, the direction and each of the light sources at each point on the measurement target object surface corresponding to the sample pixel Incident light calculation processing for calculating the radiance of light emitted from the light source;
Using the direction of each light source obtained in the incident light calculation process, the radiance of the light emitted from each light source, and the sensor response in the sample pixel, the normal of the measurement target object for all the sample pixels Surface calculation processing to calculate vector and diffusion albedo;
Using the normal vector and diffusion albedo obtained in the surface calculation process, and the direction of each light source and the radiance of light emitted from each light source obtained in the incident light calculation process, all the sample pixels and Sensor response model value calculation processing for calculating a sensor response model value for all light sources;
An error calculation process for calculating an error between the sensor response model value obtained by the sensor response model value calculation process and the sensor response of the captured image;
A light source for causing a computer to execute a light source attitude calculation process for determining a rotation parameter and a movement parameter representing the position and orientation of the illumination light source that minimize the error obtained by the error calculation process by nonlinear optimization. Attitude estimation program.
JP2013194146A 2013-09-19 2013-09-19 Color and three-dimensional shape measuring method and apparatus Active JP6237032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013194146A JP6237032B2 (en) 2013-09-19 2013-09-19 Color and three-dimensional shape measuring method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013194146A JP6237032B2 (en) 2013-09-19 2013-09-19 Color and three-dimensional shape measuring method and apparatus

Publications (2)

Publication Number Publication Date
JP2015059849A JP2015059849A (en) 2015-03-30
JP6237032B2 true JP6237032B2 (en) 2017-11-29

Family

ID=52817496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013194146A Active JP6237032B2 (en) 2013-09-19 2013-09-19 Color and three-dimensional shape measuring method and apparatus

Country Status (1)

Country Link
JP (1) JP6237032B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6679289B2 (en) * 2015-11-30 2020-04-15 キヤノン株式会社 Processing device, processing system, imaging device, processing method, processing program, and recording medium
KR101801319B1 (en) * 2015-12-14 2017-11-24 경희대학교 산학협력단 3D face image acquisition system and iluminating device therefor
JP6946993B2 (en) * 2017-12-11 2021-10-13 オムロン株式会社 Image processing device and image processing method
US20230107571A1 (en) * 2021-10-01 2023-04-06 Liberty Reach Inc. Machine Vision-Based Method and System for Locating Objects within a Scene Containing the Objects
WO2023243430A1 (en) * 2022-06-14 2023-12-21 ソニーグループ株式会社 Information processing method, information processing device, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4213327B2 (en) * 1999-07-12 2009-01-21 富士フイルム株式会社 Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium
US6686921B1 (en) * 2000-08-01 2004-02-03 International Business Machines Corporation Method and apparatus for acquiring a set of consistent image maps to represent the color of the surface of an object
JP2004021373A (en) * 2002-06-13 2004-01-22 Matsushita Electric Ind Co Ltd Method and apparatus for estimating body and optical source information
JP2009236696A (en) * 2008-03-27 2009-10-15 Toppan Printing Co Ltd Three-dimensional image measurement method, measurement system, and measurement program for subject
JP4469021B2 (en) * 2008-07-08 2010-05-26 パナソニック株式会社 Image processing method, image processing apparatus, image processing program, image composition method, and image composition apparatus
JP2013186100A (en) * 2012-03-12 2013-09-19 Hitachi Ltd Shape inspection method and device

Also Published As

Publication number Publication date
JP2015059849A (en) 2015-03-30

Similar Documents

Publication Publication Date Title
US7769205B2 (en) Fast three dimensional recovery method and apparatus
US7711182B2 (en) Method and system for sensing 3D shapes of objects with specular and hybrid specular-diffuse surfaces
US8437537B2 (en) Method and system for estimating 3D pose of specular objects
JP5132832B1 (en) Measuring apparatus and information processing apparatus
JP2017010327A (en) Information processing apparatus, information processing method, and program
CN107155341B (en) Three-dimensional scanning system and frame
JP6237032B2 (en) Color and three-dimensional shape measuring method and apparatus
JP2003130621A (en) Method and system for measuring three-dimensional shape
JP6282098B2 (en) Calibration apparatus and method
EP3049756B1 (en) Modeling arrangement and method and system for modeling the topography of a three-dimensional surface
JP6519265B2 (en) Image processing method
JP2016100698A (en) Calibration device, calibration method, and program
JP2015021862A (en) Three-dimensional measurement instrument and three-dimensional measurement method
WO2016135856A1 (en) Three-dimensional shape measurement system and measurement method for same
WO2020075252A1 (en) Information processing device, program, and information processing method
US9204130B2 (en) Method and system for creating a three dimensional representation of an object
JP4379626B2 (en) Three-dimensional shape measuring method and apparatus
JP7056131B2 (en) Image processing system, image processing program, and image processing method
JP5441752B2 (en) Method and apparatus for estimating a 3D pose of a 3D object in an environment
JP2009236696A (en) Three-dimensional image measurement method, measurement system, and measurement program for subject
CN114241059B (en) Synchronous calibration method for camera and light source in photometric stereo vision system
CN116106318A (en) Object surface defect detection method and device and three-dimensional scanner
Santo et al. Light structure from pin motion: Simple and accurate point light calibration for physics-based modeling
JP2016102755A (en) Information processing device, information processing method and program
JP2001084362A (en) Method and device for estimating light source direction and three-dimensional shape and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R150 Certificate of patent or registration of utility model

Ref document number: 6237032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250