JP2012173916A - Imaging device and image processing information generating program - Google Patents
Imaging device and image processing information generating program Download PDFInfo
- Publication number
- JP2012173916A JP2012173916A JP2011034309A JP2011034309A JP2012173916A JP 2012173916 A JP2012173916 A JP 2012173916A JP 2011034309 A JP2011034309 A JP 2011034309A JP 2011034309 A JP2011034309 A JP 2011034309A JP 2012173916 A JP2012173916 A JP 2012173916A
- Authority
- JP
- Japan
- Prior art keywords
- light
- light source
- subject
- depth
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Input (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、被写体の奥行き値を示す奥行き情報、被写体表面の質感を示す反射特性情報、照明条件を示す光源情報などの画像処理情報を生成する技術に関する。 The present invention relates to a technique for generating image processing information such as depth information indicating a depth value of a subject, reflection characteristic information indicating a texture of a subject surface, and light source information indicating a lighting condition.
従来から、画像認識、画像合成、映像制作、コンピュータグラフィックス(CG)、バーチャルリアリティ(VR)などの画像処理が、広く行われている。この画像処理を行う際、被写体の奥行き値を示す奥行き情報、被写体表面の質感を示す反射特性情報、照明条件(光源の条件)を示す光源情報などの画像処理情報は、重要なものである。そこで、これら画像処理情報を生成する手法が提案されている。 Conventionally, image processing such as image recognition, image synthesis, video production, computer graphics (CG), and virtual reality (VR) has been widely performed. When performing this image processing, image processing information such as depth information indicating the depth value of the subject, reflection characteristic information indicating the texture of the subject surface, and light source information indicating illumination conditions (light source conditions) is important. Therefore, a method for generating such image processing information has been proposed.
画像処理情報を生成する手法として、ステレオカメラを用いて、奥行き値を推定する手法が提案されている(非特許文献1)。この非特許文献1に記載の手法は、同一の被写体を異なる視点で撮影した画像(画像には同一被写体の表面部位が存在する)のずれ量から、奥行き値を推定するものである。
As a method of generating image processing information, a method of estimating a depth value using a stereo camera has been proposed (Non-Patent Document 1). The technique described in
また、カメラコード化瞳を用いて、奥行き値を推定する手法が提案されている(非特許文献2)。この非特許文献2に記載の手法は、カメラコード化された特殊な瞳(フィルタ)をレンズ内に内蔵しており、カメラコードを奥行き値に応じて畳み込んだボケ画像を撮像する。そして、非特許文献2に記載の手法は、このボケ画像から、逆問題を解くことで奥行き値を推定するものである。 In addition, a method for estimating a depth value using a camera-coded pupil has been proposed (Non-Patent Document 2). The technique described in Non-Patent Document 2 has a camera-coded special pupil (filter) built in the lens, and takes a blurred image in which the camera code is convoluted according to the depth value. The method described in Non-Patent Document 2 estimates a depth value by solving an inverse problem from this blurred image.
そして、三角測量の原理により、奥行き値を推定する手法が提案されている(非特許文献3)。この非特許文献3に記載の手法は、光切断などの能動的手法により、レンジセンサスリット光やカメラコード化されたパターン光を被写体に照射して、三角測量の原理で奥行きを推定するものである。 And the method of estimating a depth value is proposed by the principle of triangulation (nonpatent literature 3). The technique described in Non-Patent Document 3 estimates the depth based on the principle of triangulation by irradiating a subject with range sensor slit light or camera-coded pattern light by an active technique such as light cutting. is there.
さらに、被写体表面の反射特性を計測する手法が提案されている(非特許文献4)。この非特許文献4に記載の手法は、拘束された照明条件を変えながら被写体に光を照射して、その反射光を測定するものである。 Furthermore, a method for measuring the reflection characteristics of the subject surface has been proposed (Non-Patent Document 4). The technique described in Non-Patent Document 4 irradiates a subject with light while changing the constrained illumination condition, and measures the reflected light.
しかし、非特許文献1〜3に記載の手法は、被写体表面の反射特性情報(つまり、被写体の質感)および光源情報を生成することができない。また、非特許文献3に記載の手法は、能動的手法によりパターン光を被写体に照射して、その反射光を計測する必要があるため、屋外などの光外乱の多い環境での利用が困難である。さらに、非特許文献4に記載の手法は、被写体の奥行き情報を取得することができず、被写体の形状または面法線をレンジセンサなどで予め計測しておく必要がある。
However, the methods described in
以上のように、奥行き情報、反射特性情報および光源情報をまとめて生成できる従来技術は提案されていない。仮に、非特許文献1〜4に記載の手法を組み合わせれば、これら画像処理情報をまとめて生成する手法は、容易に実現できるとも思われる。しかし、以下で説明するように、非特許文献1〜4に記載の手法を組み合わせることは現実的でない。
As described above, no prior art has been proposed that can generate depth information, reflection characteristic information, and light source information together. If the methods described in
前記したように、非特許文献1に記載の手法はステレオカメラを必要とし、非特許文献2に記載の手法は特殊な瞳を内蔵したカメラを必要とし、非特許文献4に記載の手法はレンジセンサを必要とするというように、各手法で固有の装置を必要とする。従って、非特許文献1〜4に記載の手法を組み合わせると、撮像装置の構成が非常に大規模化、複雑化するため、現実的でない。このため、ユーザから、これら画像処理情報をまとめて生成する手法を簡易な構成で実現して欲しいという要望があり、特に、カメラ本体の小型化について強い要望がある。
As described above, the method described in
そこで、本発明は、前記した問題を解決し、光外乱の多い環境において、奥行き情報、反射特性情報および光源情報をまとめて生成できると共に、構成が簡易な撮像技術を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an imaging technique that solves the above-described problems and can collectively generate depth information, reflection characteristic information, and light source information in an environment with a lot of light disturbances, and has a simple configuration. .
前記した課題を解決するため、本願第1発明に係る撮像装置は、光源で照らされる被写体を撮像して、被写体の奥行き値を示す奥行き情報と、被写体の反射特性を示す反射特性情報と、光源の方向および光量を示す光源情報とを生成する撮像装置であって、撮像手段と、視差量算出部と、奥行き値換算部と、撮像手段位置算出部と、拡散反射光成分画像生成部と、鏡面反射光成分画像生成部と、光源方向算出部と、光源情報生成部と、反射係数算出部と、を備えることを特徴とする。 In order to solve the above-described problem, an imaging device according to the first invention of the present application images a subject illuminated by a light source, depth information indicating a depth value of the subject, reflection characteristic information indicating a reflection characteristic of the subject, and a light source An imaging device that generates light source information indicating a direction and a light amount of the imaging device, an imaging unit, a parallax amount calculation unit, a depth value conversion unit, an imaging unit position calculation unit, a diffuse reflected light component image generation unit, A specular reflection light component image generation unit, a light source direction calculation unit, a light source information generation unit, and a reflection coefficient calculation unit are provided.
かかる構成によれば、撮像装置の撮像手段は、偏光方向が互いに直交する2つの偏光素子からなる光透過素子と、偏光素子の一方からの入射光を透過させ、かつ、偏光素子の他方からの入射光を反射させる分光素子と、分光素子を透過した入射光を撮像する第1撮像素子と、分光素子で反射された入射光を撮像する第2撮像素子とを備える。 According to such a configuration, the imaging unit of the imaging apparatus transmits the incident light from one of the polarizing elements and the light transmitting element composed of two polarizing elements whose polarization directions are orthogonal to each other, and from the other of the polarizing elements. A spectroscopic element that reflects incident light, a first image sensor that images incident light that has passed through the spectroscopic element, and a second image sensor that captures incident light reflected by the spectroscopic element are provided.
ここで、撮像手段の光学的条件に起因して、第1撮像素子および第2撮像素子が撮像した2つの撮像画像では、合焦位置に対する被写体位置がずれるためにボケが生じ、このボケの程度に応じて視差が生じる。つまり、両撮像画像は、ステレオ画像として取り扱うことが可能となる。 Here, due to the optical conditions of the imaging means, in the two captured images captured by the first image sensor and the second image sensor, the subject position is deviated from the in-focus position, resulting in blurring. Depending on the parallax, parallax occurs. That is, both captured images can be handled as stereo images.
また、撮像装置は、ステレオ画像を生成するステレオカメラと比べて、撮像手段の構成が簡素である。さらに、撮像装置は、撮像手段で撮像を行う際に、パターン光を被写体に照射する必要がない。 In addition, the imaging device has a simpler configuration of imaging means than a stereo camera that generates a stereo image. Furthermore, the imaging apparatus does not need to irradiate the subject with the pattern light when performing imaging with the imaging unit.
また、撮像装置は、視差量算出部によって、第1撮像素子および第2撮像素子で被写体を撮像した2つの撮像画像から、例えば、マッチングによって、2つの撮像画像で対応する対応画素ごとの視差量を算出する。そして、撮像装置は、奥行き値換算部によって、視差量算出部が算出した視差量を、予め設定された換算式で対応画素ごとの奥行き値に換算して奥行き情報を生成する。ここで、奥行き情報は、撮像手段から被写体表面までの距離を示すことになる。言い換えるなら、注目画素の奥行き値が示す位置と、近傍画素の奥行き値が示す位置とを接続すると、被写体表面を示すことになる。従って、撮像装置は、奥行き値換算部によって、奥行き情報を用いて、注目画素と注目画素の近傍画素との奥行き値で表される被写体表面に直交する法線方向を算出する。 In addition, the imaging apparatus uses, for example, matching between two captured images obtained by capturing the subject with the first imaging element and the second imaging element by the parallax amount calculation unit, and the parallax amount for each corresponding pixel corresponding to the two captured images. Is calculated. Then, the imaging apparatus uses the depth value conversion unit to convert the parallax amount calculated by the parallax amount calculation unit into a depth value for each corresponding pixel using a preset conversion formula to generate depth information. Here, the depth information indicates the distance from the imaging means to the subject surface. In other words, connecting the position indicated by the depth value of the target pixel and the position indicated by the depth value of the neighboring pixel indicates the subject surface. Therefore, the imaging apparatus uses the depth value conversion unit to calculate a normal direction orthogonal to the subject surface represented by the depth values of the target pixel and the neighboring pixels of the target pixel, using the depth information.
また撮像装置は、撮像手段位置算出部によって、奥行き値換算部が算出した奥行き値に最適化処理を行って、撮像手段の位置を算出する。そして、撮像装置は、拡散反射光成分画像生成部によって、2つの撮像画像での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、対応画素ごとの最小輝度値を示す拡散反射光成分画像を生成する。さらに、撮像装置は、鏡面反射光成分画像生成部によって、2つの撮像画像での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、対応画素ごとの最大輝度値と最小輝度値との差分を示す鏡面反射光成分画像を生成する。 In addition, the imaging apparatus calculates the position of the imaging unit by performing an optimization process on the depth value calculated by the depth value conversion unit by the imaging unit position calculation unit. Then, the imaging apparatus selects, with the diffuse reflected light component image generation unit, the smaller of the corresponding pixels in the two captured images as the minimum luminance value, and diffusion indicating the minimum luminance value for each corresponding pixel A reflected light component image is generated. Furthermore, the imaging apparatus selects, as the maximum luminance value, the larger luminance value of the corresponding pixels in the two captured images as the maximum luminance value by the specular reflection component image generation unit, and the maximum luminance value and the minimum luminance value for each corresponding pixel. A specular reflection light component image showing the difference between and is generated.
ここで、例えば、斜め45度方向に偏光した鏡面反射光が入射した場合、第1撮像素子および第2撮像素子では、鏡面反射光が同じ光量となるために、最小輝度値を選択しても、鏡面反射光成分の抑制を行うことが困難である。すなわち、鏡面反射光成分の抑制は、45度からずれた状態となることで、その効果が生じる。この影響を光学系で低減するには、撮像手段の構成が大規模、複雑化し、現実的でない。このため、拡散反射光成分画像生成部は、最小輝度値を選択して拡散反射光成分を算出する。その後、鏡面反射光成分画像生成部は、この拡散反射光成分を用いて、鏡面反射光成分を算出する。 Here, for example, when specular reflection light polarized in an oblique 45 degree direction is incident, the first image sensor and the second image sensor have the same amount of specular reflection light. Therefore, even if the minimum luminance value is selected. It is difficult to suppress the specular reflection light component. That is, the effect of suppressing the specular reflection light component is brought about by shifting from 45 degrees. In order to reduce this influence by the optical system, the configuration of the imaging means becomes large and complicated, which is not practical. Therefore, the diffuse reflected light component image generation unit selects the minimum luminance value and calculates the diffuse reflected light component. Thereafter, the specular reflection light component image generation unit calculates the specular reflection light component using the diffuse reflection light component.
なお、拡散反射光成分画像は、2つの撮像画像での対応画素のうち、輝度値が小さい方の画素で構成された画像であり、拡散反射光成分を示すものである。また、鏡面反射光成分画像は、最大輝度値と最小輝度値との差分が輝度値となる画素で構成された画像であり、鏡面反射光成分を示すものである。 The diffuse reflected light component image is an image composed of pixels with smaller luminance values among the corresponding pixels in the two captured images, and shows the diffuse reflected light component. The specular reflection light component image is an image composed of pixels in which the difference between the maximum luminance value and the minimum luminance value becomes the luminance value, and indicates the specular reflection light component.
また、撮像装置は、光源方向算出部によって、奥行き値換算部が算出した法線方向および撮像手段の位置から、被写体での反射光の入射角を算出し、算出した入射角が示す方向を光源の方向として算出する。ここで、例えば、光源方向算出部は、反射の法則により、被写体表面の法線方向および撮像手段の位置から、光源の方向を算出する。
によって、
In addition, the imaging apparatus calculates the incident angle of the reflected light at the subject from the normal direction calculated by the depth value conversion unit and the position of the imaging unit by the light source direction calculation unit, and the direction indicated by the calculated incident angle is the light source Calculate as the direction of. Here, for example, the light source direction calculation unit calculates the direction of the light source from the normal direction of the surface of the subject and the position of the imaging means, according to the law of reflection.
By
また、撮像装置は、光源情報生成部によって、鏡面反射光成分画像生成部が生成した鏡面反射光成分画像および光源の方向に基づいて光源の光量を算出し、算出した光源の光量および方向を光源情報として生成する。ここで、光源情報生成部は、例えば、所定半径の仮想球を格子状に分割し、その格子頂点ごとに各光線の光源強度を求める。そして、光源情報生成部は、各光線の光源強度の中で最大値を算出して、仮想球に含まれる各格子頂点全体でゼロから最大光量までの間で正規化することで、光源の光量を算出する。 In addition, the imaging apparatus calculates the light amount of the light source based on the specular reflection component image generated by the specular reflection component image generation unit and the direction of the light source by the light source information generation unit, and the calculated light amount and direction of the light source Generate as information. Here, for example, the light source information generation unit divides a virtual sphere having a predetermined radius into a lattice shape, and obtains the light source intensity of each light beam for each lattice vertex. Then, the light source information generation unit calculates the maximum value among the light source intensities of each light ray, and normalizes between zero and the maximum light amount over each lattice vertex included in the phantom sphere, so that the light amount of the light source Is calculated.
また、撮像装置は、反射係数算出部によって、光源情報生成部が生成した光源情報と、鏡面反射光成分画像と、拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を反射特性情報として算出する。 Further, the imaging apparatus performs an optimization process by applying a reflection model to the light source information generated by the light source information generation unit, the specular reflection light component image, and the diffuse reflection light component image by the reflection coefficient calculation unit. The specular reflection coefficient and the diffuse reflection coefficient are calculated as reflection characteristic information.
また、本願第2発明に係る撮像装置は、光源を点灯および消灯させる光源制御部をさらに備え、光源情報生成部が、光源点灯時および光源消灯時に光源の光量をそれぞれ算出し、光源点灯時および光源消灯時の光量から所定の算出式によって重みを算出し、算出した重みを光源消灯時の光量に乗算することで、絶対値で表された光源情報を算出することが好ましい。 The imaging apparatus according to the second invention of the present application further includes a light source control unit that turns on and off the light source, and the light source information generation unit calculates the light amount of the light source when the light source is turned on and when the light source is turned off. It is preferable to calculate light source information represented by an absolute value by calculating a weight from a light amount when the light source is turned off by a predetermined calculation formula, and multiplying the calculated weight by the light amount when the light source is turned off.
また、本願第3発明に係る撮像装置は、2つの撮像画像の一方から、対応画素の奥行き値が予め設定された奥行き抽出範囲に含まれる領域を被写体領域として抽出する被写体領域抽出部をさらに備えることが好ましい。 The imaging apparatus according to the third aspect of the present invention further includes a subject region extraction unit that extracts, from one of the two captured images, a region included in a depth extraction range in which the depth value of the corresponding pixel is set in advance as a subject region. It is preferable.
また、本願第4発明に係る撮像装置は、2つの撮像画像の一方から顔領域検出処理により顔領域を検出し、検出した顔領域に含まれる全画素の奥行き値の平均値を算出し、算出した平均値に所定の値を加減算して奥行き抽出範囲を設定する奥行き抽出範囲算出部をさらに備えることが好ましい。 In addition, the imaging apparatus according to the fourth invention of the present application detects a face area from one of two captured images by face area detection processing, calculates an average value of depth values of all pixels included in the detected face area, and calculates It is preferable to further include a depth extraction range calculation unit that sets a depth extraction range by adding and subtracting a predetermined value to the average value.
なお、本願第1発明に係る撮像装置において、一般的なコンピュータを、視差量算出部、奥行き値換算部、撮像手段位置算出部、拡散反射光成分画像生成部、鏡面反射光成分画像生成部、光源方向算出部、光源情報生成部、および、反射係数算出部として機能させる画像処理情報生成プログラムによって実現することもできる。 In the imaging apparatus according to the first invention of the present application, a general computer includes a parallax amount calculation unit, a depth value conversion unit, an imaging means position calculation unit, a diffuse reflection component image generation unit, a specular reflection component image generation unit, It can also be realized by an image processing information generation program that functions as a light source direction calculation unit, a light source information generation unit, and a reflection coefficient calculation unit.
本願第1発明によれば、撮像手段の構成が簡素であると共に、この撮像手段が撮像した撮像画像だけを用いて、奥行き情報、反射特性情報および光源情報をまとめて生成できる。従って、本願第1発明によれば、奥行き情報、反射特性情報および光源情報ごとに、各情報を生成するための固有の装置を必要とせず、簡易な構成を実現することができる。さらに、本願第1発明によれば、撮像手段で撮像を行う際に、パターン光を被写体に照射する必要がないため、光外乱の多い環境でも利用することができる。 According to the first aspect of the present invention, the configuration of the imaging unit is simple, and depth information, reflection characteristic information, and light source information can be collectively generated using only a captured image captured by the imaging unit. Therefore, according to the first invention of the present application, a simple configuration can be realized without requiring a unique device for generating each piece of information for each of depth information, reflection characteristic information, and light source information. Furthermore, according to the first invention of the present application, it is not necessary to irradiate the subject with the pattern light when performing imaging with the imaging means, and therefore, it can be used even in an environment with a lot of light disturbance.
本願第2発明によれば、光源情報が絶対値で表されているため、実際の光源の明るさを光源情報から知ることができる。さらに、本願第2発明によれば、この光源情報を用いて別の撮像環境で画像処理を行う際、この別の撮像環境用に光源情報を変換する必要がない。つまり、本願第2発明によれば、光源情報の整合性を容易に保つことができる。 According to the second invention of the present application, since the light source information is represented by an absolute value, the actual brightness of the light source can be known from the light source information. Furthermore, according to the second aspect of the present invention, when image processing is performed in another imaging environment using the light source information, it is not necessary to convert the light source information for the other imaging environment. That is, according to the second invention of the present application, the consistency of the light source information can be easily maintained.
本願第3発明によれば、奥行き情報、反射特性情報および光源情報に加えて、被写体領域を抽出することができるため、撮像装置の利便性を向上させることができる。
本願第4発明によれば、奥行き抽出範囲を算出できるため、これを手動で設定する必要がなく、撮像装置の利便性をより向上させると共に、被写体の顔領域を正確に抽出することができる。
According to the third aspect of the present invention, since the subject region can be extracted in addition to the depth information, the reflection characteristic information, and the light source information, the convenience of the imaging apparatus can be improved.
According to the fourth aspect of the present invention, since the depth extraction range can be calculated, it is not necessary to manually set this, and the convenience of the imaging apparatus can be further improved and the face area of the subject can be accurately extracted.
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段及び同一の部材には同一の符号を付し、説明を省略した。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function and the same member are denoted by the same reference numerals, and description thereof is omitted.
[撮像装置の構成]
図1を参照して、本発明の実施形態に係る撮像装置1の構成について説明する。
撮像装置1は、照明(光源)Lで照らされる被写体Aを撮像して、奥行き情報と、反射特性情報と、照明情報(光源情報)とを画像処理情報として生成するものであって、カメラ(撮像手段)Cと、画像処理情報生成装置100とを備える。
[Configuration of imaging device]
With reference to FIG. 1, a configuration of an
The
カメラ(撮像手段)Cは、被写体Aを撮像するものである。このカメラCは、信号ケーブル9Cを介して、画像処理情報生成装置100に接続されており、撮像した画像(動画)を画像処理情報生成装置100に出力する。
The camera (imaging means) C images the subject A. The camera C is connected to the image processing
被写体Aは、撮像装置1での撮像対象となるものである。図1では、被写体Aとして、円筒状の物体を図示したが、例えば、人物、動物、風景などであってもよい。また、撮像装置1における被写体は、1つに限定されず、2つ以上であってもよい。
The subject A is a subject to be imaged by the
また、本実施形態では、光源の一例として照明Lをあげて説明する。
照明Lは、被写体Aを照らす光源であり、カメラCの周囲に配置されるものである。この照明Lは、例えば、高速(1フレーム秒単位)で点灯および消灯が可能な白色LED(Light Emitting Diode)である。また、照明Lは、信号ケーブル9Cを介して、画像処理情報生成装置100に接続されている。
なお、本実施形態では、光源が照明Lであることから、後記する画像処理情報生成装置100は、光源情報として照明情報を生成することとした。
In this embodiment, the illumination L will be described as an example of the light source.
The illumination L is a light source that illuminates the subject A, and is disposed around the camera C. The illumination L is, for example, a white LED (Light Emitting Diode) that can be turned on and off at high speed (in units of one frame second). The illumination L, via a
In the present embodiment, since the light source is the illumination L, the image processing
[カメラの構成]
ここで、図2を参照して、カメラCの構成について説明する。
カメラCは、図2(a)に示すように、レンズ(光透過素子)11と、偏光BS(分光素子)12と、第1撮像素子13と、第2撮像素子14とを備える。
この図2(a)では、入射光における縦方向の偏光成分と、横方向の偏光成分とを矢印で図示した。
[Camera configuration]
Here, the configuration of the camera C will be described with reference to FIG.
As shown in FIG. 2A, the camera C includes a lens (light transmission element) 11, a polarization BS (spectral element) 12, a
In FIG. 2A, the vertical polarization component and the horizontal polarization component of the incident light are indicated by arrows.
レンズ(光透過素子)11は、偏光方向が互いに直交する2つの偏光フィルタ(偏光素子)11a,11bを有するものである。このレンズ11は、例えば、図2(b)に示すように、カメラCの外側から見て、凸レンズのレンズ面の左側に偏光フィルタ11aを有し、レンズ面の右側に偏光フィルタ11bを有する。この場合、レンズ11は、例えば、一般的な凸レンズのレンズ面に、薄膜状の偏光フィルタを2枚接着して、形成することができる。
The lens (light transmitting element) 11 has two polarizing filters (polarizing elements) 11a and 11b whose polarization directions are orthogonal to each other. For example, as illustrated in FIG. 2B, the
また、レンズ11は、偏光フィルタ11a,11bの割合が1:1となっているが、これに限定されない。例えば、レンズ11は、偏光フィルタ11a,11bの割合を、第1撮像素子13や第2撮像素子14の感度およびレンズ11の性能を考慮して、後記する視差量算出部101でブロックマッチングの精度が保てる範囲内に変更可能である。
In the
図2(a)に示すように、偏光フィルタ11aは、被写体Aからの入射光のうち、縦方向の偏光成分のみ通過する。また、偏光フィルタ11bは、被写体Aからの入射光のうち、横方向の偏光成分のみ通過する。
As shown in FIG. 2A, the
偏光BS(分光素子)12は、偏光フィルタ11aからの入射光(縦方向の偏光成分)を透過させ、かつ、偏光フィルタ11bからの入射光(横方向の偏光成分)を反射させるビームスプリッタである。この偏光BS12を透過した光は、第1撮像素子13の撮像面に到達する。また、偏光BS12で反射された光は、第2撮像素子14の撮像面に到達する。
The polarization BS (spectral element) 12 is a beam splitter that transmits incident light (vertical polarization component) from the
第1撮像素子13は、偏光BS12を透過した光(縦方向の偏光成分)を撮像するものであり、例えば、CCDやCMOSセンサである。そして、第1撮像素子13は、被写体Aが撮像された画像を画像処理情報生成装置100に出力する。
The first
第2撮像素子14は、偏光BS12で反射された光(横方向の偏光成分)を撮像するものであり、例えば、CCDやCMOSセンサである。そして、第2撮像素子14は、被写体Aが撮像された画像を画像処理情報生成装置100に出力する。
The
以後、第1撮像素子13が撮像した動画の各フレーム画像を「撮像画像1」と呼び、第2撮像素子14が撮像した各フレーム画像を「撮像画像2」と呼ぶ。これら撮像画像1,2は、ステレオ画像として扱うことができるため、その理由を説明する。
Hereinafter, each frame image of the moving image captured by the
<ステレオ画像として扱える理由>
被写体からの入射光のうち、少なくとも拡散反射光成分は、偏光方向が分散される。この結果、拡散反射光成分は、偏光フィルタ11aまたは偏光フィルタ11bのみがレンズ11の開口形状と同等の条件で撮像される。言い換えるなら、拡散反射光成分は、その偏光方向が偏らないため、偏光フィルタ11aおよび偏光フィルタ11bで略均等に遮蔽される。
<Reasons for handling as stereo images>
Of the incident light from the subject, at least the diffuse reflected light component is dispersed in the polarization direction. As a result, the diffuse reflected light component is imaged only on the
その一方、ある光源からの光線が被写体表面で反射された鏡面反射光成分については、入射角=反射角の条件を満たしつつ、カメラCに入射する(凹面鏡などの被写体条件が成立する場合を除く)。従って、鏡面反射光成分は、素材(被写体Aの屈折率)毎に異なるブリュースター角を中心として、P偏光およびS偏光の強度比が1:1でなくなる。(カメラCの位置=光源でない場合を除く)。このため、被写体Aの表面で鏡面反射を起こしているならば、第1撮像素子13および第2撮像素子14では、入射光の光量が異なることになる。
On the other hand, the specular reflection component in which a light beam from a certain light source is reflected on the subject surface is incident on the camera C while satisfying the condition of incident angle = reflection angle (except when the subject condition such as a concave mirror is satisfied). ). Therefore, the specular reflection light component has an intensity ratio of P-polarized light and S-polarized light that is not 1: 1 with a Brewster angle that differs for each material (refractive index of subject A). (Except when the position of the camera C is not a light source). For this reason, if specular reflection is caused on the surface of the subject A, the
以上の光学系の条件から、第1撮像素子13および第2撮像素子14では、合焦位置に対する被写体Aの位置ずれによって、撮像画像1,2にボケが生じる。そして、このボケに応じて視差が生じるため、撮像画像1,2は、ステレオ画像として扱うことができる。
Due to the above optical system conditions, the
図3を参照して、より具体的に説明する(適宜図2参照)。
以後、レンズ11の焦点位置にある丸状の被写体を「○」とし、レンズ11の焦点位置より奥側にある三角状の被写体を「△」とし、レンズ11の焦点位置より手前側にある正方形状の被写体を「□」とする。
A more specific description will be given with reference to FIG. 3 (see FIG. 2 as appropriate).
Thereafter, a round object at the focal position of the
図3(a)では、第1撮像素子13に着目しており、偏光フィルタ11bが第1撮像素子13に対するフィルタとなるため、偏光フィルタ11bをドットで図示した。また、図3(b)では、第2撮像素子14に着目しており、偏光フィルタ11aが第2撮像素子14に対するフィルタとなるため、偏光フィルタ11aをドットで図示した。
In FIG. 3A, attention is paid to the
仮に、レンズ11が一般的な凸レンズである場合を考える。被写体「○」は、レンズ11の焦点位置にあるため、第1撮像素子13の撮像面に結像する。また、被写体「△」は、レンズ11の焦点位置より奥側のため、第1撮像素子13の撮像面の手前側に結像する。さらに、被写体「□」は、レンズ11の焦点位置より手前側のため、第1撮像素子13の撮像面の奥側に結像する。
Consider the case where the
次に、レンズ11が偏光フィルタ11a,11bを有し、偏光フィルタ11aが被写体「○」,「△」,「□」からの入射光を透過し、偏光フィルタ11bが被写体「○」,「△」,「□」からの入射光を遮蔽する場合を考える。
Next, the
この場合、図3(a)に示すように、被写体「△」では、偏光フィルタ11aを通過した入射光の光路が、第1撮像素子13の撮像面の手前で一旦交差して、第1撮像素子13の撮像面右側に到達する。また、被写体「□」では、偏光フィルタ11aを通過した入射光が、第1撮像素子13の撮像面左側に到達する。従って、第1撮像素子13は、被写体「□」,「○」,「△」が左側から順に並んだ撮像画像1を撮像する。
In this case, as shown in FIG. 3A, in the subject “Δ”, the optical path of the incident light that has passed through the
また、図3(b)では、偏光フィルタ11bが被写体「○」,「△」,「□」からの入射光を透過し、偏光フィルタ11aが被写体「○」,「△」,「□」からの入射光を遮蔽する。
In FIG. 3B, the
このため、被写体「△」では、偏光フィルタ11bを通過した入射光の光路が、第2撮像素子14の撮像面の手前で一旦交差して、第2撮像素子14の撮像面左側に到達する。また、被写体「□」では、偏光フィルタ11bを通過した入射光が、第2撮像素子14の撮像面右側に到達する。従って、第2撮像素子14は、被写体「△」,「○」,「□」が左側から順に並んだ撮像画像2を撮像する。
For this reason, in the subject “Δ”, the optical path of the incident light that has passed through the
このように、撮像画像1,2では、レンズ11の焦点位置から手前側または奥側にずれる程、被写体「△」,「□」が画像中央から左右にずれて撮像される。このため、撮像画像1,2は、被写体「○」,「△」,「□」の位置に応じて視差が発生し、ステレオ画像として扱うことができる。
As described above, in the captured
[画像処理情報生成装置の構成]
図4を参照して、画像処理情報生成装置100の構成について説明する(適宜図1,図2参照)。
この図4では、図面を見やすくするため、カメラCの一部構成を省略した。
[Configuration of Image Processing Information Generating Device]
The configuration of the image processing
In FIG. 4, a part of the configuration of the camera C is omitted for easy viewing of the drawing.
図4に示すように、画像処理情報生成装置100は、画像処理情報を生成するものであり、視差量算出部101と、奥行き値換算部110と、カメラパラメータ算出部(撮像手段位置算出部)120と、奥行き情報記憶部130と、反射特性推定部140と、パラメータ設定部150と、奥行き抽出範囲算出部160と、被写体領域抽出部170と、照明制御部180とを備える。
As shown in FIG. 4, the image processing
この画像処理情報生成装置100は、例えば、撮像画像1,2の画像入力用ボード、照明制御用の汎用I/Oボードを内蔵したコンピュータに実装されている。
なお、照明制御部180は、照明情報を絶対値で表すときに必要な構成であり、後記する変形例で説明する。
The image processing
Note that the
視差量算出部101は、カメラCから撮像画像1,2が入力され、この撮像画像1,2で対応する対応画素ごとの視差量を算出するものである。この視差量算出部101は、例えば、ブロックマッチングによって、撮像画像1,2における各部位の小片ごとのずれ量として視差量を算出する。そして、視差量算出部101は、算出した視差量を奥行き値換算部110に出力する。
The parallax
ここで、視差量算出部101は、高域空間周波数成分を対象としたブロックマッチング、または、色情報を用いたブロックマッチングを行って、マッチングの精度を向上させることができる。
Here, the parallax
なお、本実施形態では、視差量算出部101がブロックマッチングを用いることとしたが、本発明は、これに限定されない。つまり、視差量算出部101は、勾配法など、ステレオ画像のずれ量から視差量を算出する種々のマッチング手法を適用できる。
この勾配法は、例えば、文献「一般化勾配法によるオプティカルフローの検出:不均一照明下での物体運動の計測,社団法人情報処理学会,情報処理学会論文誌,コンピュータビジョンとイメージメディア49(SIG_6(CVIM_20)),1-12,2008-03-15,http://ci.nii.ac.jp/naid/110006684635」に記載されている。
In the present embodiment, the parallax
This gradient method is described, for example, in the document “Detection of optical flow by generalized gradient method: Measurement of object motion under non-uniform illumination, Information Processing Society of Japan, Journal of Information Processing Society of Japan, Computer Vision and Image Media 49 (SIG_6 (CVIM — 20)), 1-12, 2008-03-15, http://ci.nii.ac.jp/naid/110006684635 ”.
奥行き値換算部110は、視差量算出部101から視差量が入力され、この視差量を換算式で対応画素ごとの奥行き値に換算して奥行き情報を生成するものである。また、奥行き値換算部110は、注目画素と注目画素の近傍画素との奥行き値で表される被写体表面に直交する法線方向を算出する。そして、奥行き値換算部110は、生成した奥行き情報および被写体表面の法線方向を奥行き情報記憶部130に出力する。さらに、奥行き値換算部110は、生成した奥行き情報をカメラパラメータ算出部120に出力する。
The depth
<奥行き値換算部による換算の具体例>
図5,図6を参照して、奥行き値換算部110による換算の具体例について説明する(適宜図4参照)。
被写体のボケ中心位置は、レンズ11における開口(つまり、偏光フィルタ11aまたは偏光フィルタ11b)の重心位置となる。ここでは、レンズ11における開口を半円として説明する。
<Specific example of conversion by depth value conversion unit>
A specific example of conversion by the depth
The blur center position of the subject is the position of the center of gravity of the opening in the lens 11 (that is, the
この場合、図5(a)に示すように、重心位置G(xG,yG)は、対象軸(y軸)上にあるから、xG=0である。従って、x軸からの距離yGを求める。高さyの位置にある細い帯(ハッチングで図示)において、そのx軸に関する面積モーメントは、(2x)yΔyである。そして、半円全体を細い帯に区切って考えると、半円のx軸に関する面積モーメントは、下記の式(1)で表すことができる。 In this case, as shown in FIG. 5A, the center of gravity position G (x G , y G ) is on the target axis (y axis), so x G = 0. Therefore, the distance y G from the x axis is obtained. In a thin band (shown by hatching) at the position of height y, the area moment about the x-axis is (2x) yΔy. When the entire semicircle is divided into thin bands, the area moment about the x-axis of the semicircle can be expressed by the following equation (1).
式(1)の積分の項に含まれるxをyの関数として表すと、下記の式(2)であるから、下記の式(3)が成立する。 When x included in the integral term of the equation (1) is expressed as a function of y, the following equation (2) is established.
ここで、式(3)を式(1)に代入すると、下記の式(4)が得られる。そして、半円の面積は、πa2/2であるから、距離yGは、下記の式(5)で表すことができる。 Here, when Expression (3) is substituted into Expression (1), the following Expression (4) is obtained. Then, the area of the semicircle, because it is? Pa 2/2, the distance y G can be expressed by the following equation (5).
なお、図5(a)では、aがレンズ11における開口半径である。また、この重心計算は、例えば、文献「http://www.mech.kanagawau.ac.jp/lab/urata_lab/class/MathMachAna/2003/mach08txt.pdf」に記載されている。
In FIG. 5A, a is the opening radius of the
次に、図5(b)に示すように、カメラCの光学系において、偏光フィルタ11aを開口とした場合を考える。この場合、レンズ11の直径Φa=2aとなり、偏光フィルタ11aの重心位置G1は、ボケの中心位置から4a/3πの位置となる。また、第1撮像素子13の撮像面の直径Φb=2bとなり(但しbは第1撮像素子13の半径であり、後記する式(3)で定義される)、第1撮像素子13において、偏光フィルタ11aからの入射光が到達する領域の重心位置G2は、ボケの中心位置から4b/3πの位置となる。従って、ボケの半径をcとすると、4c/3πの位置となる撮像画像1,2では、視差量は、2×4c/3πと表すことができる。
Next, as shown in FIG. 5B, a case where the
図6に示すように、レンズ11では、レンズの公式より、下記の式(6)が成立する。ここで、oがレンズ11の主点であり、fがレンズ11の焦点であり、pがレンズ11の端点であり、a’がaの像であり、b’がbの像であり、Fが焦点距離(主点と焦点との距離)であり、Aが物面(被写体表面)から主点までの距離(奥行き値)であり、Bが主点から像面までの距離であり、mが倍率である。
As shown in FIG. 6, in the
ここで、第1撮像素子13の撮像面が右側fに位置する。従って、図6から、ボケの中心位置と、視差量Dpとの関係は、下記の式(7),式(8)で表すことができる。なお、式式(7),式(8)では、op→がレンズ11の開口径(つまり、偏光フィルタ11aの径)であり、Dpが視差量である。
Here, the imaging surface of the
ここで、式(6)の倍率mがレンズ11の仕様から既知であり、開口径opも既知であるので、視差量算出部101が視差量Dpを算出する。従って、奥行き値換算部110は、式(6)〜式(8)を用いて、視差量Dpを奥行き値Aに換算することができる。
なお、換算式は、視差量と、カメラCからの距離である絶対的な奥行き値との関係がカメラCの設計および設定により異なるため、奥行き値換算部110に予め設定しておく。
Here, since the magnification m of Expression (6) is known from the specification of the
The conversion formula is set in advance in the depth
なお、式(6)〜式(8)は、焦点位置が撮像面より後(撮像面の裏側)の場合であるが、焦点位置が撮像面より前の場合でも、同様に換算できる。このとき、撮像面の前後で換算式が異なるため、換算式を選択する必要がある。この場合、奥行き値換算部110は、例えば、視差0を境に視差の生じる方向が逆になるので、視差0を条件として換算式を選択すればよい。
In addition, although Formula (6)-Formula (8) is a case where a focus position is after an imaging surface (the back side of an imaging surface), even when a focal position is before an imaging surface, it can convert similarly. At this time, since the conversion formula differs before and after the imaging surface, it is necessary to select the conversion formula. In this case, for example, the depth
<奥行き値換算部による法線方向の算出>
続いて、図7,図8を参照して、奥行き値換算部110による法線方向の算出について説明する(適宜図4参照)。
<Calculation of normal direction by depth value conversion unit>
Next, calculation of the normal direction by the depth
例えば、図7下段に示すように、注目画素PCと、注目画素PCの左側に隣接する近傍画素PLと、注目画素PCの右側に隣接する近傍画素PRとの奥行き値を求めたとする。このとき、図7上段に示すように、注目画素PCの奥行き値に対して、近傍画素PRの奥行き値が手前側を示しており、近傍画素PLの奥行き値が奥側を示しているとする。この場合、注目画素PCと近傍画素PR,PLとの奥行き値が表す被写体表面αは、右側がカメラCに近く、左側がカメラCから遠くというように、カメラCに対して傾いている。このように、注目画素PCと近傍画素PR,PLとの奥行き値から被写体表面αの向きがわかるため、被写体表面αの法線方向βを求めることができる。この被写体表面αの法線方向βは、カメラCの幾何学的位置を基準としている。 For example, as shown in FIG. 7 the lower part, and the pixel of interest P C, and the neighboring pixel P L adjacent to the left of the target pixel P C, the depth values of the neighboring pixels P R that is adjacent to the right side of the pixel of interest P C determined Suppose. At this time, as shown in FIG. 7 upper stage with respect to the depth value of the pixel of interest P C, the depth values of the neighboring pixels P R has shown the front side, the depth values of the neighboring pixels P L is shows a back side Suppose that In this case, the subject surface α represented by the depth values of the target pixel P C and the neighboring pixels P R and P L is inclined with respect to the camera C such that the right side is close to the camera C and the left side is far from the camera C. Yes. Thus, the pixel of interest P C and the neighboring pixel P R, the CPU recognizes the direction of the subject surface alpha from the depth values of the P L, it can be obtained in the normal direction β of the object surface alpha. The normal direction β of the subject surface α is based on the geometric position of the camera C.
このように、奥行き値換算部110は、注目画素PCを被写体の各部位に移動させながら、被写体の各部位ごとに表面の法線方向βを求めること繰り返す。この図7では、被写体の一部に注目しているが、被写体は、図8に示すように、3次元で撮像されることが多い。
Thus, the depth
このため、多面体を被写体として、この被写体表面の法線方向を算出する場合を考える。図8では、多面体の底面である面1を被写体表面する。また、この多面体は、各面に頂点P1〜P8を有しており、凸多角形とする。これら頂点P1〜P8は、多面体外部から見て右回りに与えられている。また、視点はカメラCの位置を示す。また、視線ベクトルはカメラCの視線(レンズ11の光軸)を示すベクトルである。また、法線ベクトルは面1の法線を示すベクトルである。この場合、奥行き値換算部110は、面1の法線Nを、下記の式(9)に示すように2線分の外積で算出することができる。
For this reason, consider a case where the normal direction of the surface of the subject is calculated using a polyhedron as the subject. In FIG. 8, a
ここでは、P1=(x1,y1,z1)、P2=(x2,y2,z2)、P3=(x3,y3,z3)で定義されている。従って、この図8では、この法線Nの方向が、被写体表面の法線方向となる。
なお、この手法は、例えば、ホームページ「http://nis-lab.is.s.u-tokyo.ac.jp/nis/CG/cgtxt/furoku/fu1.htm#Appendix%EF%BC%91」に記載されている。
Here, it is defined by P 1 = (x 1 , y 1 , z 1 ), P 2 = (x 2 , y 2 , z 2 ), P 3 = (x 3 , y 3 , z 3 ). Therefore, in FIG. 8, the direction of the normal line N is the normal direction of the subject surface.
This method is described, for example, on the homepage "http://nis-lab.is.su-tokyo.ac.jp/nis/CG/cgtxt/furoku/fu1.htm#Appendix%EF%BC%91" Has been.
図4に戻り、画像処理情報生成装置100の構成について説明を続ける。
カメラパラメータ算出部120は、奥行き値換算部110から奥行き情報が入力され、この奥行き情報が示す奥行き値に最適化処理を行って、カメラCの位置および方向を算出するものである。このカメラパラメータ算出部120は、例えば、最小二乗法などの最適化処理を行ってカメラCの位置および方向を、カメラパラメータとして算出する。そして、カメラパラメータ算出部120は、算出したカメラパラメータを、奥行き情報記憶部130および反射特性推定部140に出力する。
Returning to FIG. 4, the description of the configuration of the image processing
The camera
なお、カメラパラメータの算出手法は、例えば、文献「画像から復元された3次元特徴点マップ群の世界座標系への統合,社団法人 電子情報通信学会,2010年電子情報通信学会総合大会,http://www.kameda-lab.org/research/publication/2010/201003_IEICE/201003IEICE-d_12_077-HayashiM.pdf」に記載されている。
また、カメラパラメータ算出部120は、例えば、ニュートン法、Powell法、共役勾配法などの最適化手法を用いることも可能である。
The camera parameter calculation method is described in, for example, the document “Integration of 3D feature point maps restored from images into the world coordinate system, The Institute of Electronics, Information and Communication Engineers, 2010 IEICE General Conference, http: //www.kameda-lab.org/research/publication/2010/201003_IEICE/201003IEICE-d_12_077-HayashiM.pdf ”.
The camera
奥行き情報記憶部130は、奥行き値換算部110から奥行き情報および被写体表面の法線方向が入力され、カメラパラメータ算出部120からカメラパラメータが入力され、この奥行き情報および法線方向を記憶するものである。このため、奥行き情報記憶部130は、記憶装置13aと、記憶装置制御部13bとを備える。この記憶装置13aは、奥行き情報を記憶する、例えば、メモリである。また、記憶装置制御部13bは、記憶装置13aへの書き込みおよび記憶装置13aからの読み出しを制御するものである。
The depth
ここで、カメラパラメータ(カメラCの方向および位置)が入力されるため、記憶装置制御部13bは、奥行き情報、被写体表面の法線方向および撮像画像1,2の輝度値を、世界座標を基準に仮想空間内で位置合わせを行って記憶装置13aに記憶する。
Here, since the camera parameters (the direction and position of the camera C) are input, the storage device control unit 13b uses the world coordinates based on the depth information, the normal direction of the subject surface, and the luminance values of the captured
なお、本実施形態では、記憶装置13aに設けられたボクセル空間上で、奥行き情報、被写体表面の法線方向および撮像画像1,2の輝度値を記憶した。また、奥行き情報は、奥行き値が得られたボクセル座標に対して投票処理(+1の投票処理)を行って、被写体表面の存在有無のラベルおよびポリゴン化の補助情報として記憶される。
In the present embodiment, the depth information, the normal direction of the subject surface, and the luminance values of the captured
反射特性推定部140は、カメラCから撮像画像1,2が入力され、カメラパラメータ算出部120からカメラパラメータが入力され、奥行き情報記憶部130が記憶する奥行き情報および被写体表面の法線方向を参照して、反射特性情報と、照明情報とを生成するものである。このため、反射特性推定部140は、拡散反射光成分画像生成部141と、鏡面反射光成分画像生成部142と、照明方向算出部(光源方向算出部)143と、照明情報生成部(光源情報生成部)144と、反射係数算出部145とを備える。
The reflection
拡散反射光成分画像生成部141は、撮像画像1,2での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、対応画素ごとの最小輝度値を示す拡散反射光成分画像を生成するものである。
The diffuse reflected light component
ここで、撮像画像1には横方向の偏光成分が含まれておらず、撮像画像2には縦方向の偏光成分が含まれていない。また、前記したように、例えば、斜め45度方向に偏光した鏡面反射光が入射した場合、第1撮像素子13および第2撮像素子14では、鏡面反射光が同じ光量となるために、最小輝度値を選択しても、鏡面反射光成分の抑制を行うことが困難である。すなわち、鏡面反射光成分の抑制は、45度からずれた状態となることで、その効果が生じる。この影響を光学系で低減するには、構成が大規模、複雑化し、現実的でない。
Here, the captured
さらに、一定時間、様々な偏光方向の鏡面反射光成分による輝度値を求めると、その中で、確率的に偏光フィルタ11a,11bと直交する、または、直交に近い状態となる可能性がある。この場合、鏡面反射光成分は、偏光フィルタ11a,11bの一方で遮蔽されることになる。このため、拡散反射光成分画像生成部141は、撮像画像1,2での対応画素のうち、各対応座標の最小輝度値を選択して集めることで、鏡面反射光成分を抑制した拡散反射光成分画像を生成する。これによって、拡散反射光成分画像生成部141は、拡散反射光成分と、鏡面反射光成分との分離精度が従来技術より向上させ、鏡面反射光成分が含まれにくく、精度の高い拡散反射光成分を抽出可能となる。
Further, when the luminance value by the specular reflection light component of various polarization directions is obtained for a certain time, there is a possibility that the state is probabilistically orthogonal to the polarization filters 11a and 11b or close to orthogonal. In this case, the specular reflection light component is shielded by one of the polarization filters 11a and 11b. For this reason, the diffuse reflection light component
図9の例では、拡散反射光成分画像生成部141は、撮像画像1,2で左上に位置する画素を対応画素とする。また、拡散反射光成分画像生成部141は、2つの対応画素のうち、輝度値が小さい方を最小輝度値として選択する。そして、拡散反射光成分画像生成部141は、選択した最小輝度値を、対応画素と同一位置にある画素(例えば、左上の画素)の輝度値とする。このような処理を、拡散反射光成分画像生成部141は、撮像画像1,2内で対応画素を移動させながら、全ての対応画素に前記した処理を繰り返し行って、拡散反射光成分画像を生成する。つまり、拡散反射光成分画像は、撮像画像1,2での対応画素のうち、輝度値が小さい方の画素で構成された画像であり、拡散反射光成分を示す。
In the example of FIG. 9, the diffuse reflected light component
鏡面反射光成分画像生成部142は、撮像画像1,2での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、対応画素ごとの最大輝度値と最小輝度値との差分を示す鏡面反射光成分画像を生成するものである。
The specular reflection light component
この鏡面反射光成分画像生成部142は、拡散反射光成分画像生成部141と同様、撮像画像1,2で左上に位置する対応画素のうち、輝度値が大きい方を最大輝度値として選択する。また、拡散反射光成分画像生成部141は、拡散反射光成分画像生成部141が生成した拡散反射光成分画像を参照して、この対応画素の最小輝度値を取得する。そして、拡散反射光成分画像生成部141は、選択した最大輝度値と、拡散反射光成分画像から取得した最小輝度値との差分を、対応画素と同一位置にある画素(例えば、左上の画素)の輝度値とする。このような処理を、鏡面反射光成分画像生成部142は、撮像画像1,2内で対応画素を移動させながら、全ての対応画素に繰り返し行って、鏡面反射光成分画像を生成する。つまり、鏡面反射光成分画像は、最大輝度値と最小輝度値との差分が輝度値となる画素で構成された画像であり、鏡面反射光成分を示す。
Similar to the diffuse reflection light component
照明方向算出部(光源方向算出部)143は、被写体表面の法線方向およびカメラCの位置から、被写体Aでの反射光の入射角を算出し、算出した入射角の方向を照明の方向として算出するものである。 The illumination direction calculation unit (light source direction calculation unit) 143 calculates the incident angle of the reflected light from the subject A from the normal direction of the subject surface and the position of the camera C, and uses the calculated direction of the incident angle as the illumination direction. Is to be calculated.
ここで、カメラCの位置と、被写体表面の法線方向とから、反射の法則により、被写体Aで反射された反射光の出射角が算出できる。言い換えるなら、カメラCの視線が反射光の出射角から外れるほど、鏡面反射光の強度が極端に小さくなる。このことから、照明方向算出部143は、鏡面反射であれば、入射角=反射角となるので、反射光の入射角が示す方向を、この反射光の元となる光を照射した照明Lの方向として算出する。
Here, from the position of the camera C and the normal direction of the subject surface, the emission angle of the reflected light reflected by the subject A can be calculated by the law of reflection. In other words, the intensity of the specular reflected light becomes extremely small as the line of sight of the camera C deviates from the reflected light emission angle. From this, if the illumination
照明情報生成部(光源情報生成部)144は、鏡面反射光成分画像生成部142が生成した鏡面反射光成分画像、および、照明方向算出部143が算出した照明Lの方向に基づいて照明Lの光量を算出し、算出した照明Lの光量および方向を照明情報として生成するものである。
The illumination information generation unit (light source information generation unit) 144 is based on the specular reflection component image generated by the specular reflection component
<照明情報生成部による照明情報の生成>
図10を参照して、照明情報生成部144による照明情報の生成について説明する(適宜図4参照)。
ここで、照明情報生成部144は、最小輝度値と最大輝度値との差(=鏡面反射光成分画像が示す鏡面反射光成分の強度)と、照明Lの方向との関係より、被写体表面と照明Lの方向のなす線上における照明Lの光量を取得できる。計算を簡略化するため、図10に示すように、ある半径の仮想球Vbを予め設定し、その仮想球面を格子状に予め分割した場合を考える。この場合、照明情報生成部144は、各格子頂点に、取得した照明Lの光量を対応付けて記憶する。
<Generation of illumination information by illumination information generation unit>
With reference to FIG. 10, generation of illumination information by the illumination
Here, the illumination
このとき、各格子頂点には、被写体表面での反射により、複数の反射光が入射することがある。図10の例では、格子頂点Sp1に2本の反射光が入射している。このように、ある格子頂点に複数の反射光が入射した場合、これら反射光のうち、強度が最大となる反射光の入射角が示す方向に照明Lが存在する可能性が高くなる。従って、照明情報生成部144は、各格子頂点に入射した複数の反射光の中で強度が最大値となるものを、その格子頂点における照明Lの光量として選択する。そして、照明情報生成部144は、各格子位置における照明Lの光量を、ゼロから最大光量までの間で正規化して、照明Lの方向と共に照明情報として記憶する。つまり、照明情報は、正規化されることから、相対値で表されることになる。
At this time, a plurality of reflected lights may enter each lattice vertex due to reflection on the surface of the subject. In the example of FIG. 10, two reflected lights are incident on the lattice vertex Sp1. In this way, when a plurality of reflected lights are incident on a certain lattice vertex, there is a high possibility that the illumination L exists in the direction indicated by the incident angle of the reflected light having the maximum intensity among these reflected lights. Therefore, the illumination
この照明情報は、ハイクオリティなCGをレンダリングする際、一般的に利用されるHDR全方位画像と同等なものである。従って、照明情報は、別途CG部品をレンダリングして撮影中に合成する際、リアリティを向上させる有効な情報となる。
なお、照明情報は、例えば、ホームページ「http://ict.debevec.org/~debevec/Research/HDR/」に詳細に記載されている。
This illumination information is equivalent to an HDR omnidirectional image that is generally used when rendering a high-quality CG. Therefore, the illumination information is effective information for improving the reality when a separate CG component is rendered and combined during shooting.
The lighting information is described in detail on the homepage “http://ict.debevec.org/˜debevec/Research/HDR/”, for example.
図4に戻り、画像処理情報生成装置100の構成について説明を続ける。
反射係数算出部145は、照明情報生成部144が生成した照明情報と、鏡面反射光成分画像と、拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を反射特性情報として算出するものである。
Returning to FIG. 4, the description of the configuration of the image processing
The reflection
ここで、照明情報生成部144までの処理によって、カメラCの位置(つまり、レンズ11の主点位置)と、仮想空間における被写体Aの位置と、被写体表面の法線と、被写体に対する入射光とが既知である。ここで、入射光については仮想球面上に格子状に配列された格子位置に対応している。また、照明Lは、指向性を持たず、その格子位置から、全方位に光線を出射していると仮定している。つまり、照明Lは、スポットライトなどのような配光特性に偏りがあるものではないと仮定している。
Here, by the processing up to the illumination
以上の条件から、反射係数算出部145は、反射モデルを適用した最適化処理を行うことで反射特性情報を算出できる。ここで、反射係数算出部145は、例えば、Phongモデルを適用したマーカート法によって、鏡面反射係数、拡散反射係数およびCos関数の次数を反射特性情報として算出している。
From the above conditions, the reflection
なお、反射係数算出部145は、反射モデルや最適化手法が制限されるものではない。例えば、反射係数算出部145は、BRDF(Bidirectional Reflectance Distribution Function)などの反射モデルや、ニュートン法、Powell法、共役勾配法などの最適化手法を用いることも可能である。
Note that the reflection
パラメータ設定部150は、画像処理情報生成装置100に必要な設定パラメータが入力され、入力された設定パラメータを画像処理情報生成装置100の各手段に出力するものである。ここで、例えば、パラメータ設定部150は、後記する奥行き抽出範囲に加減算する所定の値が設定パラメータとして入力されるので、この所定の値を奥行き抽出範囲算出部160に出力する。
The
奥行き抽出範囲算出部160は、カメラCから撮像画像2が入力され、パラメータ設定部150から所定の値が入力され、この撮像画像2から顔領域検出処理により顔領域を検出するものである。そして、奥行き抽出範囲算出部160は、検出した顔領域に含まれる全画素の奥行き値の平均値を算出し、算出した平均値に所定の値を加減算して奥行き抽出範囲を求める。より具体的には、奥行き抽出範囲算出部160は、算出した平均値に所定の値を加算した値を奥行き抽出範囲の上限とし、算出した平均値から所定の値を減算した値を奥行き抽出範囲の下限として算出する。その後、奥行き抽出範囲算出部160は、算出した奥行き抽出範囲を被写体領域抽出部170に出力する。
なお、奥行き抽出範囲算出部160は、例えば、顔領域検出処理として、肌色領域を抽出する手法を利用することができる。
The depth extraction
Note that the depth extraction
被写体領域抽出部170は、カメラCから撮像画像2が入力され、奥行き抽出範囲算出部160から奥行き抽出範囲が入力され、奥行き情報記憶部130が記憶する奥行き情報を参照して、この撮像画像2から、奥行き値が奥行き抽出範囲に含まれる領域を被写体領域として抽出するものである。
The subject
つまり、被写体領域抽出部170は、撮像画像2のある画素に対応する奥行き値が、奥行き抽出範囲に含まれるか否かを判定する。そして、被写体領域抽出部170は、奥行き値が奥行き抽出範囲に含まれる場合、その画素を被写体領域の画素として抽出する。この処理を、被写体領域抽出部170は、撮像画像2の全ての画素に繰り返し行って被写体領域を抽出して出力する。
That is, the subject
以上のように、被写体領域抽出部170は、奥行き値から撮像画像2の中で奥行き抽出範囲の奥行き値の領域を選択することで、撮像画像2の特定位置に配置された被写体を切り出すことが可能である。この被写体領域の抽出は、映像制作、特に、映像合成でニーズが高い処理である。
As described above, the subject
なお、被写体領域抽出部170は、被写体領域の抽出方法が特に制限されない。例えば、画像処理情報生成装置100は、奥行き値の上限、下限を入力する2つの可変抵抗つまみを備える(不図示)。そして、被写体領域抽出部170は、これら可変抵抗つまみが操作されることで、奥行き値の上限、下限を手動で設定してもよい。
Note that the subject
なお、奥行き抽出範囲算出部160および被写体領域抽出部170は、撮像画像2に対して処理を行ったが、撮像画像1に処理を行ってもよい。この場合、撮像画像1,2の何れを対象とするか、パラメータ設定部150にパラメータとして入力してもよい。
Note that the depth extraction
なお、本実施形態では、光源として照明Lを説明したが、本発明は、これに限定されない。つまり、本発明では、照明L以外の自然光(例えば、太陽光)を光源として、その光源情報を求めてもよい。 In addition, although this embodiment demonstrated the illumination L as a light source, this invention is not limited to this. That is, in the present invention, the light source information may be obtained using natural light (for example, sunlight) other than the illumination L as a light source.
なお、本実施形態では、カメラCが動画で撮像を行い、画像処理情報生成装置100がこの動画の各フレーム画像を処理することとして説明したが、本発明は、これに限定されない。つまり、カメラCが静止画で撮像を行い、画像処理情報生成装置100がこの静止画を処理してもよい。
In the present embodiment, it has been described that the camera C captures a moving image and the image processing
[画像処理情報生成装置の動作]
図11を参照して、図4の画像処理情報生成装置100の動作について説明する(適宜図4参照)。
ここで、画像処理情報生成装置100には、撮像画像1,2が入力されていることとする。
[Operation of Image Processing Information Generating Device]
The operation of the image processing
Here, it is assumed that captured
画像処理情報生成装置100は、視差量算出部101によって、対応画素ごとの視差量を算出する(ステップS1)。また、画像処理情報生成装置100は、奥行き値換算部110によって、視差量を換算式で対応画素ごとの奥行き値に換算し、被写体表面の法線方向を算出する(ステップS2)。
In the image processing
画像処理情報生成装置100は、カメラパラメータ算出部120によって、最小二乗法などの最適化処理を行ってカメラCの位置および方向を、カメラパラメータとして算出する(ステップS3)。
In the image processing
画像処理情報生成装置100は、拡散反射光成分画像生成部141によって、撮像画像1,2での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、対応画素ごとの最小輝度値を示す拡散反射光成分画像を生成する(ステップS4)。
In the image processing
画像処理情報生成装置100は、鏡面反射光成分画像生成部142によって、撮像画像1,2での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、対応画素ごとの最大輝度値と最小輝度値との差分を示す鏡面反射光成分画像を生成する(ステップS5)。
In the image processing
画像処理情報生成装置100は、照明方向算出部143によって、被写体表面の法線方向およびカメラCの位置から、被写体での反射光の入射角を算出し、算出した入射角の方向を照明の方向として算出する(ステップS6)。
In the image processing
画像処理情報生成装置100は、照明情報生成部144によって、鏡面反射光成分画像および照明Lの方向に基づいて照明Lの光量を算出し、算出した照明Lの光量および方向を照明情報として生成する(ステップS7)。
In the image processing
画像処理情報生成装置100は、反射係数算出部145によって、照明情報と、鏡面反射光成分画像と、拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を算出する(ステップS8)。
In the image processing
画像処理情報生成装置100は、奥行き抽出範囲算出部160によって、撮像画像2から顔領域検出処理により顔領域を検出し、検出した顔領域に含まれる全画素の奥行き値の平均値を算出し、算出した平均値に所定の値を加減算して奥行き抽出範囲を求める(ステップS9)。
The image processing
画像処理情報生成装置100は、被写体領域抽出部170によって、奥行き情報記憶部130が記憶する奥行き情報を参照して、撮像画像2から、奥行き値が奥行き抽出範囲に含まれる領域を被写体領域として抽出する(ステップS10)。
In the image processing
以上のように、本発明の実施形態に係る撮像装置1は、カメラCが簡素であると共に、このカメラCが撮像した撮像画像1,2を用いて、奥行き情報、反射特性情報および照明情報をまとめて生成できる。従って、撮像装置1は、奥行き情報、反射特性情報および光源情報ごとに、各情報を生成するための固有の装置を必要とせず、カメラCの構成を簡易にすることができる。さらに、撮像装置1は、カメラCで撮像を行う際に、パターン光を被写体に照射する必要がないため、光外乱の多い環境でも利用することができる。
As described above, in the
従来技術では、奥行き情報や反射特性情報を取得するには、大型の計測装置を用いる必要があった。しかし、撮像装置1は、カメラCを家庭用ハンディカメラ程度に小型化することができる。また、高精度で欠落のない奥行き情報の取得が困難な場合でも、撮像装置1は、画像処理情報生成装置100によって、映像制作に求められる品質で、被写体領域の切り出すことができる。さらに、撮像装置1は、カメラC自体が簡易な構成で動画撮像が可能なため、テレビ番組や映画などの映像制作に適している。
In the prior art, in order to acquire depth information and reflection characteristic information, it is necessary to use a large measuring device. However, the
また、従来技術では、撮像後に、映像合成や照明条件の変更などの映像制作を行うには、多大な労力と、高いスキルとが要求される。これらは、撮像時に映像制作を想定して撮像を行っても、ある程度の労力の低減しか望めない。このため、利用者が映像制作を行うことは稀であり、映像制作のニーズはあるものの、また多大な労力や専門知識の必要性から、映像制作の動機付けが困難な状況である。しかし、撮像装置1は、通常のカメラ撮像と同程度の労力で画像処理情報の生成処理を格段に省力化して、かつ、映像制作の自由度を高めることができる。これによって、撮像装置1は、利用者が、映像制作の専門知識や多大な労力を要することなく、所望の映像制作を行うことができる。言い換えるなら、撮像装置1は、利用者のスキルやセンスに依存することなく、映像制作を可能とする。
Further, in the prior art, a great deal of labor and high skill are required to perform video production such as video synthesis and changing illumination conditions after imaging. These can only be expected to reduce labor to some extent even if imaging is performed assuming video production at the time of imaging. For this reason, although it is rare that a user performs video production and there is a need for video production, the motivation of video production is difficult due to the necessity of a great deal of labor and expertise. However, the
本発明の実施形態に係る撮像装置1について説明したが、本発明は、前記した実施形態に限定されず、種々の変更を加えることができる。以下、本発明の変形例に係る撮像装置1について、第1実施形態と異なる点について説明する。
Although the
(変形例:絶対値で表された照明情報)
図1に示すように、撮像装置1は、撮像のタイミングに合わせて、照明Lの点灯および消灯を繰り返す制御を行い、照明点灯時および照明消灯時の照明情報を用いて、相対値で表された照明情報を絶対値に変換する。
(Modification: Lighting information expressed in absolute values)
As shown in FIG. 1, the
ここで、照明Lは、信号ケーブル9Lを介して、画像処理情報生成装置100に接続されている。そして、照明Lは、後記する照明制御部180から入力される同期信号に応じて、カメラCの撮像タイミングに同期させて、点灯と消灯とを繰り返す。
Here, the illumination L is connected to the image processing
図4の照明制御部(光源制御部)180は、照明Lを点灯および消灯させるものである。この照明制御部180は、照明Lの点灯および消灯と、カメラCの撮像とを同期させる同期信号を一定間隔(例えば、1フレーム秒)で照明LおよびカメラCに出力する。
The illumination control unit (light source control unit) 180 in FIG. 4 turns on and off the illumination L. The
つまり、この同期信号が入力されたタイミングで、カメラCは、撮像を行う。また、この同期信号が入力されたタイミングで、照明Lは、点灯していれば消灯し、消灯していれば点灯する。 That is, at the timing when this synchronization signal is input, the camera C performs imaging. In addition, at the timing when the synchronization signal is input, the illumination L is turned off if it is turned on, and turned on if it is turned off.
反射特性推定部140は、カメラパラメータの他、カメラCから、照明点灯時の撮像画像1,2と、照明消灯時の撮像画像1,2とが入力される。そして、反射特性推定部140の各手段は、照明点灯時および照明消灯時の撮像画像1,2のそれぞれに対して、第1実施形態と同様の処理を施す。
In addition to the camera parameters, the reflection
照明情報生成部144は、第1実施形態と同様、照明点灯時の照明情報(照明点灯時における照明Lの光量および方向)と、照明消灯時の照明情報(照明消灯時における照明Lの光量および方向)とを生成する。そして、照明情報生成部144は、照明点灯時および照明消灯時の光量から所定の算出式によってスケール(重み)を算出し、算出したスケールを照明消灯時の光量に乗算する。
Similarly to the first embodiment, the illumination
<照明情報生成部による照明情報の変換>
以下、照明情報生成部144による照明情報の変換について、具体的に説明する。
ここで、予め測定した照明Lの光量実測値をIとし、照明Lから被写体Aまでの距離をLgとし、被写体表面の法線に対する反射光の入射角をθとし、被写体表面で反射光を反射した反射部分の反射係数をKdとする。この入射角θは、照明方向算出部143が算出済みのため、既知である。
<Conversion of illumination information by illumination information generation unit>
Hereinafter, the conversion of the illumination information by the illumination
Here, the actually measured light quantity value of the illumination L measured in advance is I, the distance from the illumination L to the subject A is Lg, the incident angle of the reflected light with respect to the normal of the subject surface is θ, and the reflected light is reflected on the subject surface. Let Kd be the reflection coefficient of the reflected portion. This incident angle θ is known because the illumination
また、カメラCから被写体Aまでの距離(奥行き情報)が既知である。従って、撮像装置1は、照明Lを被写体として撮像して、カメラCから照明Lまでの距離(奥行き情報)を生成することで、カメラCと被写体Aと照明Lとの位置関係が明らかになり、距離Lgを求めることができる。
Further, the distance (depth information) from the camera C to the subject A is known. Therefore, the
この場合、反射光量Irは、照明点灯時の輝度と、照明消灯時の輝度との差であり、下記の式(10)で表すことができる。 In this case, the reflected light amount Ir is a difference between the luminance when the illumination is turned on and the luminance when the illumination is turned off, and can be expressed by the following equation (10).
ここで、照明消灯時の照明情報より、反射部分への照明消灯時の光量をIomniとする。また、照明点灯時の照明情報より、反射部分への照明点灯時の光量をItotalとする。この場合、拡散反射光成分については、照明点灯時の輝度Ionと、照明消灯時の輝度Ioffとを、下記の式(11)で表すことができる。 Here, from the illumination information when the illumination is extinguished, the amount of light when the illumination to the reflecting portion is extinguished is defined as I omni . Further, from the illumination information at the time of lighting, the amount of light at the time of lighting the reflecting portion is set to I total . In this case, for the diffuse reflected light component, the luminance I on when the illumination is turned on and the luminance I off when the illumination is turned off can be expressed by the following equation (11).
式(11)に式(10)を代入して、各項を反射係数Kdで除算すると、下記の式(12)となる。 Substituting equation (10) into equation (11) and dividing each term by the reflection coefficient Kd yields equation (12) below.
ここで、被写体表面に直交する法線のベクトルVAを(ax,ay,az)とし、レンズ11の中心から反射部分への直線のベクトルVBを(bx,by,bz)とすると、入射角θは、ベクトルVA,VBの内積である式(13)より、下記の式(14)で表すことができる。なお、sqrは、平方根を返す関数である。
Here, if the normal vector VA orthogonal to the subject surface is (ax, ay, az) and the straight vector VB from the center of the
前記したように、照明情報生成部144は、相対値で表された照明情報を生成している。このため、式(11)の光量Iomni,Itotalには、何らかのスケール(重み)sが掛けられていることになる。つまり、式(12)は、下記の算出式(15)で表される。
As described above, the illumination
ここで、光量Iomni,Itotalと、光量実測値Iと、入射角θと、距離Lgとは、既知である。従って、照明情報生成部144は、算出式(15)を解いて、スケールsの値を求めることができる。そして、照明情報生成部144は、このスケールsを光量Iomniに乗算することで、相対値で表された照明情報を絶対値に変換できる。
Here, the light amounts I omni and I total , the light amount actual measurement value I, the incident angle θ, and the distance Lg are known. Therefore, the illumination
このとき、照明Lの点灯と消灯との間に時間差があるため、照明点灯時の撮像画像1,2と、照明消灯時の撮像画像1,2との間に位置ずれが生じることがある。従って、照明情報生成部144は、照明点灯時の撮像画像1,2と、照明消灯時の撮像画像1,2に対して、ブロックマッチングまたはオプティカルフローを行って、この位置ずれを修正することが好ましい。
なお、本変形例では、例えば、1フレーム秒(つまり、1/30秒)程度と、その時間差が極めて小さいため、この位置ずれが無いと仮定している。
At this time, since there is a time difference between lighting and extinguishing of the illumination L, a positional deviation may occur between the captured
In this modification, for example, it is assumed that there is no position shift because the time difference is as small as about 1 frame second (that is, 1/30 second).
また、相対値の照明情報を利用する場合、照明Lおよび照明制御部180が必要ないため、照明Lの着脱や、照明情報生成部144による処理の有無を選択可能な構成とすることが好ましい。
なお、照明情報生成部144および照明制御部180以外、第1実施形態と同様のため、詳細な説明を省略した。
Moreover, when using the illumination information of a relative value, since the illumination L and the
In addition, since it is the same as that of 1st Embodiment except the illumination
以上のように、本発明の変形例に係る撮像装置1は、照明情報を絶対値に変換できる。これによって、撮像装置1は、前記した実施形態と同様、光外乱の多い環境でも利用可能で、簡易な構成を実現できる。さらに、撮像装置1は、照明情報が絶対値で表されているため、実際の照明Lの明るさを照明情報から知ることができる。さらに、撮像装置1では、この照明情報を用いて別の撮像環境で画像処理を行う際、この別の撮像環境用に照明情報を変換する必要がない。つまり、撮像装置1は、異なる撮影環境間で照明情報を共用する場合でも、この照明情報の整合性を容易に保つことができる。
As described above, the
なお、実施形態では、本発明に係る撮像装置の画像処理情報生成装置を独立した装置として説明したが、本発明では、一般的なコンピュータを、画像処理情報生成装置の各手段として機能させるプログラムによって動作させることもできる。このプログラムは、通信回線を介して配布しても良く、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布しても良い。 In the embodiment, the image processing information generation apparatus of the imaging apparatus according to the present invention has been described as an independent apparatus. However, in the present invention, a general computer is operated by a program that functions as each unit of the image processing information generation apparatus. It can also be operated. This program may be distributed via a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.
1 撮像装置
11 レンズ(光透過素子)
11a,11b 偏光フィルタ(偏光素子)
12 偏光BS(分光素子)
13 第1撮像素子
14 第2撮像素子
100 画像処理情報生成装置
101 視差量算出部
110 奥行き値換算部
120 カメラパラメータ算出部(撮像手段位置算出部)
130 奥行き情報記憶部
140 反射特性推定部
141 拡散反射光成分画像生成部
142 鏡面反射光成分画像生成部
143 照明方向算出部(光源方向算出部)
144 照明情報生成部(光源情報生成部)
145 反射係数算出部
150 パラメータ設定部
160 奥行き抽出範囲算出部
170 被写体領域抽出部
180 照明制御部
C カメラ(撮像手段)
L 照明(光源)
1
11a, 11b Polarizing filter (polarizing element)
12 Polarized BS (spectral element)
13
130 depth
144 Illumination information generation part (light source information generation part)
145 reflection
L Illumination (light source)
Claims (5)
偏光方向が互いに直交する2つの偏光素子からなる光透過素子と、前記偏光素子の一方からの入射光を透過させ、かつ、前記偏光素子の他方からの入射光を反射させる分光素子と、前記分光素子を透過した入射光を撮像する第1撮像素子と、前記分光素子で反射された入射光を撮像する第2撮像素子とを備える撮像手段と、
前記第1撮像素子および前記第2撮像素子で前記被写体を撮像した2つの撮像画像から、前記2つの撮像画像で対応する対応画素ごとの視差量を算出する視差量算出部と、
前記視差量算出部が算出した視差量を、予め設定された換算式で前記対応画素ごとの奥行き値に換算して前記奥行き情報を生成し、注目画素と当該注目画素の近傍画素との奥行き値で表される被写体表面に直交する法線方向を算出する奥行き値換算部と、
前記奥行き値換算部が算出した奥行き値に最適化処理を行って、前記撮像手段の位置を算出する撮像手段位置算出部と、
前記2つの撮像画像での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、前記対応画素ごとの前記最小輝度値を示す拡散反射光成分画像を生成する拡散反射光成分画像生成部と、
前記2つの撮像画像での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、前記対応画素ごとの前記最大輝度値と前記最小輝度値との差分を示す鏡面反射光成分画像を生成する鏡面反射光成分画像生成部と、
前記奥行き値換算部が算出した法線方向および前記撮像手段の位置から、前記被写体での反射光の入射角を算出し、算出した当該入射角が示す方向を前記光源の方向として算出する光源方向算出部と、
前記鏡面反射光成分画像生成部が生成した鏡面反射光成分画像および前記光源の方向に基づいて前記光源の光量を算出し、算出した前記光源の光量および方向を前記光源情報として生成する光源情報生成部と、
前記光源情報生成部が生成した光源情報と、前記鏡面反射光成分画像と、前記拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を前記反射特性情報として算出する反射係数算出部と、
を備えることを特徴とする撮像装置。 An imaging device that images a subject illuminated by a light source and generates depth information indicating a depth value of the subject, reflection characteristic information indicating a reflection characteristic of the subject, and light source information indicating a direction and a light amount of the light source. There,
A light transmitting element composed of two polarizing elements whose polarization directions are orthogonal to each other; a spectroscopic element that transmits incident light from one of the polarizing elements and reflects incident light from the other of the polarizing elements; and the spectroscopic element An imaging means comprising: a first imaging element that images incident light transmitted through the element; and a second imaging element that images incident light reflected by the spectroscopic element;
A parallax amount calculating unit that calculates a parallax amount for each corresponding pixel corresponding to the two captured images from two captured images obtained by capturing the subject with the first image sensor and the second image sensor;
The depth information is generated by converting the parallax amount calculated by the parallax amount calculation unit into a depth value for each corresponding pixel using a preset conversion formula, and the depth value between the target pixel and a neighboring pixel of the target pixel A depth value conversion unit that calculates a normal direction perpendicular to the subject surface represented by:
An imaging unit position calculation unit that performs optimization processing on the depth value calculated by the depth value conversion unit and calculates a position of the imaging unit;
A diffuse reflected light component image that generates a diffuse reflected light component image indicating the minimum brightness value for each of the corresponding pixels by selecting the smaller of the corresponding pixels in the two captured images as the minimum brightness value A generator,
A specular reflection component image indicating a difference between the maximum luminance value and the minimum luminance value for each of the corresponding pixels is selected as the maximum luminance value of the corresponding pixels in the two captured images. A specular reflection component image generation unit to generate,
A light source direction that calculates an incident angle of reflected light from the subject from the normal direction calculated by the depth value conversion unit and the position of the imaging unit, and calculates the direction indicated by the calculated incident angle as the direction of the light source A calculation unit;
Light source information generation for calculating the light amount of the light source based on the specular light component image generated by the specular light component image generation unit and the direction of the light source, and generating the calculated light amount and direction of the light source as the light source information And
The light source information generated by the light source information generation unit, the specular reflection light component image, and the diffuse reflection light component image are subjected to optimization processing using a reflection model, and the specular reflection coefficient and the diffuse reflection coefficient are calculated. A reflection coefficient calculation unit for calculating the reflection characteristic information;
An imaging apparatus comprising:
前記光源情報生成部は、
光源点灯時および光源消灯時に前記光源の光量をそれぞれ算出し、当該光源点灯時および光源消灯時の光量から所定の算出式によって重みを算出し、算出した当該重みを前記光源消灯時の光量に乗算することで、絶対値で表された前記光源情報を算出することを特徴とする請求項1に記載の撮像装置。 A light source controller for turning on and off the light source;
The light source information generation unit
The light amount of the light source is calculated when the light source is turned on and the light source is turned off, the weight is calculated from the light amount when the light source is turned on and the light source is turned off by a predetermined calculation formula, and the calculated light weight is multiplied by the calculated light amount The imaging apparatus according to claim 1, wherein the light source information represented by an absolute value is calculated.
前記第1撮像素子および前記第2撮像素子で前記被写体を撮像した2つの撮像画像から、前記2つの撮像画像で対応する対応画素ごとの視差量を算出する視差量算出部、
前記視差量算出部が算出した視差量を、予め設定された換算式で前記対応画素ごとの奥行き値に換算して前記奥行き情報を生成し、注目画素と当該注目画素の近傍画素との奥行き値で表される被写体表面に直交する法線方向を算出する奥行き値換算部、
前記奥行き値換算部が算出した奥行き値に最適化処理を行って、前記撮像手段の位置を算出する撮像手段位置算出部、
前記2つの撮像画像での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、前記対応画素ごとの前記最小輝度値を示す拡散反射光成分画像を生成する拡散反射光成分画像生成部、
前記2つの撮像画像での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、前記対応画素ごとの前記最大輝度値と前記最小輝度値との差分を示す鏡面反射光成分画像を生成する鏡面反射光成分画像生成部、
前記奥行き値換算部が算出した法線方向および前記撮像手段の位置から、前記被写体での反射光の入射角を算出し、算出した当該入射角が示す方向を前記光源の方向として算出する光源方向算出部、
前記鏡面反射光成分画像生成部が生成した鏡面反射光成分画像および前記光源の方向に基づいて前記光源の光量を算出し、算出した前記光源の光量および方向を前記光源情報として生成する光源情報生成部、
前記光源情報生成部が生成した光源情報と、前記鏡面反射光成分画像と、前記拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を前記反射特性情報として算出する反射係数算出部、
として機能させるための画像処理情報生成プログラム。 A light transmitting element composed of two polarizing elements whose polarization directions are orthogonal to each other; a spectroscopic element that transmits incident light from one of the polarizing elements and reflects incident light from the other of the polarizing elements; and the spectroscopic element The subject illuminated by a light source is imaged by an imaging means comprising a first imaging element that images incident light that has passed through the element and a second imaging element that images incident light reflected by the spectroscopic element, and the subject In order to generate depth information indicating the depth value of the object, reflection characteristic information indicating the reflection characteristic of the subject, and light source information indicating the direction and light amount of the light source,
A parallax amount calculation unit that calculates a parallax amount for each corresponding pixel corresponding to the two captured images from two captured images obtained by capturing the subject with the first imaging element and the second imaging element;
The depth information is generated by converting the parallax amount calculated by the parallax amount calculation unit into a depth value for each corresponding pixel using a preset conversion formula, and the depth value between the target pixel and a neighboring pixel of the target pixel Depth value conversion unit for calculating a normal direction orthogonal to the subject surface represented by
An imaging unit position calculation unit that performs optimization processing on the depth value calculated by the depth value conversion unit and calculates a position of the imaging unit;
A diffuse reflected light component image that generates a diffuse reflected light component image indicating the minimum brightness value for each of the corresponding pixels by selecting the smaller of the corresponding pixels in the two captured images as the minimum brightness value Generator,
A specular reflection component image indicating a difference between the maximum luminance value and the minimum luminance value for each of the corresponding pixels is selected as the maximum luminance value of the corresponding pixels in the two captured images. Specular reflection component image generation unit to generate,
A light source direction that calculates an incident angle of reflected light from the subject from the normal direction calculated by the depth value conversion unit and the position of the imaging unit, and calculates the direction indicated by the calculated incident angle as the direction of the light source Calculation part,
Light source information generation for calculating the light amount of the light source based on the specular light component image generated by the specular light component image generation unit and the direction of the light source, and generating the calculated light amount and direction of the light source as the light source information Part,
The light source information generated by the light source information generation unit, the specular reflection light component image, and the diffuse reflection light component image are subjected to optimization processing using a reflection model, and the specular reflection coefficient and the diffuse reflection coefficient are calculated. A reflection coefficient calculation unit for calculating the reflection characteristic information;
An image processing information generation program for functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011034309A JP5503573B2 (en) | 2011-02-21 | 2011-02-21 | Imaging apparatus and image processing information generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011034309A JP5503573B2 (en) | 2011-02-21 | 2011-02-21 | Imaging apparatus and image processing information generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012173916A true JP2012173916A (en) | 2012-09-10 |
JP5503573B2 JP5503573B2 (en) | 2014-05-28 |
Family
ID=46976783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011034309A Active JP5503573B2 (en) | 2011-02-21 | 2011-02-21 | Imaging apparatus and image processing information generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5503573B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017068764A (en) * | 2015-10-01 | 2017-04-06 | 日本放送協会 | Illumination information acquisition device, illumination restoration device, and program of them |
WO2017149608A1 (en) * | 2016-02-29 | 2017-09-08 | 富士通フロンテック株式会社 | Image capture device and image capture method |
CN114731368A (en) * | 2019-12-13 | 2022-07-08 | 索尼集团公司 | Imaging apparatus, information processing apparatus, imaging method, and information processing method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000200359A (en) * | 1999-01-05 | 2000-07-18 | Olympus Optical Co Ltd | Processor and method for image processing and recording medium where image processing program is recorded |
JP2001016610A (en) * | 1999-06-29 | 2001-01-19 | Fuji Photo Film Co Ltd | Parallax image input device and camera |
JP2006031595A (en) * | 2004-07-21 | 2006-02-02 | Hiroshima Industrial Promotion Organization | Image processing system |
WO2007029446A1 (en) * | 2005-09-01 | 2007-03-15 | Matsushita Electric Industrial Co., Ltd. | Image processing method, image processing device, and image processing program |
WO2008026518A1 (en) * | 2006-08-31 | 2008-03-06 | Panasonic Corporation | Image processing device, image processing method, and image processing program |
JP2009168995A (en) * | 2008-01-15 | 2009-07-30 | Nikon Corp | Range-finding device and imaging apparatus |
JP2011215545A (en) * | 2010-04-02 | 2011-10-27 | Nippon Hoso Kyokai <Nhk> | Parallax image acquisition device |
-
2011
- 2011-02-21 JP JP2011034309A patent/JP5503573B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000200359A (en) * | 1999-01-05 | 2000-07-18 | Olympus Optical Co Ltd | Processor and method for image processing and recording medium where image processing program is recorded |
JP2001016610A (en) * | 1999-06-29 | 2001-01-19 | Fuji Photo Film Co Ltd | Parallax image input device and camera |
JP2006031595A (en) * | 2004-07-21 | 2006-02-02 | Hiroshima Industrial Promotion Organization | Image processing system |
WO2007029446A1 (en) * | 2005-09-01 | 2007-03-15 | Matsushita Electric Industrial Co., Ltd. | Image processing method, image processing device, and image processing program |
WO2008026518A1 (en) * | 2006-08-31 | 2008-03-06 | Panasonic Corporation | Image processing device, image processing method, and image processing program |
JP2009168995A (en) * | 2008-01-15 | 2009-07-30 | Nikon Corp | Range-finding device and imaging apparatus |
JP2011215545A (en) * | 2010-04-02 | 2011-10-27 | Nippon Hoso Kyokai <Nhk> | Parallax image acquisition device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017068764A (en) * | 2015-10-01 | 2017-04-06 | 日本放送協会 | Illumination information acquisition device, illumination restoration device, and program of them |
WO2017149608A1 (en) * | 2016-02-29 | 2017-09-08 | 富士通フロンテック株式会社 | Image capture device and image capture method |
US20180336655A1 (en) * | 2016-02-29 | 2018-11-22 | Fujitsu Frontech Limited | Imaging device and imaging method |
US10970802B2 (en) | 2016-02-29 | 2021-04-06 | Fujitsu Frontech Limited | Imaging device and imaging method selecting a pixel having a lowest brightness |
CN114731368A (en) * | 2019-12-13 | 2022-07-08 | 索尼集团公司 | Imaging apparatus, information processing apparatus, imaging method, and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5503573B2 (en) | 2014-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11869139B2 (en) | System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function | |
JP6456156B2 (en) | Normal line information generating apparatus, imaging apparatus, normal line information generating method, and normal line information generating program | |
CN106595528B (en) | A kind of micro- binocular stereo vision measurement method of telecentricity based on digital speckle | |
CA2931529C (en) | 3d corrected imaging | |
US9392262B2 (en) | System and method for 3D reconstruction using multiple multi-channel cameras | |
CN104634276B (en) | Three-dimension measuring system, capture apparatus and method, depth computing method and equipment | |
CN104335005B (en) | 3D is scanned and alignment system | |
US9432655B2 (en) | Three-dimensional scanner based on contours from shadow images | |
CN109069132A (en) | System and method for auxiliary type 3D scanning | |
JP6112769B2 (en) | Information processing apparatus and information processing method | |
CN105004324B (en) | A kind of monocular vision sensor with range of triangle function | |
JP6786225B2 (en) | Image processing equipment, imaging equipment and image processing programs | |
EP2990757B1 (en) | Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program | |
JP2016528972A5 (en) | ||
US11710289B2 (en) | Information processing apparatus, information processing system, and material identification method | |
CN109668509A (en) | Based on biprism single camera three-dimensional measurement industrial endoscope system and measurement method | |
CN106170086B (en) | Method and device thereof, the system of drawing three-dimensional image | |
JP6556013B2 (en) | PROCESSING DEVICE, PROCESSING SYSTEM, IMAGING DEVICE, PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM | |
Ahmad et al. | An improved photometric stereo through distance estimation and light vector optimization from diffused maxima region | |
JP5503573B2 (en) | Imaging apparatus and image processing information generation program | |
Smithwick et al. | Depth enhancement using a scanning fiber optical endoscope | |
WO2016035181A1 (en) | Image pickup device, information processing device, and image pickup system | |
JP4213327B2 (en) | Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium | |
CN208536839U (en) | Image capture device | |
JP2009236696A (en) | Three-dimensional image measurement method, measurement system, and measurement program for subject |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5503573 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |