JP2012173916A - Imaging device and image processing information generating program - Google Patents

Imaging device and image processing information generating program Download PDF

Info

Publication number
JP2012173916A
JP2012173916A JP2011034309A JP2011034309A JP2012173916A JP 2012173916 A JP2012173916 A JP 2012173916A JP 2011034309 A JP2011034309 A JP 2011034309A JP 2011034309 A JP2011034309 A JP 2011034309A JP 2012173916 A JP2012173916 A JP 2012173916A
Authority
JP
Japan
Prior art keywords
light
light source
subject
depth
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011034309A
Other languages
Japanese (ja)
Other versions
JP5503573B2 (en
Inventor
Hideki Mitsumine
秀樹 三ツ峰
Masato Fujii
真人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011034309A priority Critical patent/JP5503573B2/en
Publication of JP2012173916A publication Critical patent/JP2012173916A/en
Application granted granted Critical
Publication of JP5503573B2 publication Critical patent/JP5503573B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a simply-constituted imaging device that is available even in an environment with many light disturbances.SOLUTION: An imaging device 1 takes an image of a subject A to be illuminated by a light L, and generates depth information showing a depth value of the subject A, reflection characteristic information showing a reflection characteristic of the subject A and illumination information showing conditions of the light L as image processing information. The imaging device 1 comprises: a camera C for taking an image that can be treated as a stereo image; the light L; and an image processing information generator 100 for using the image taken by the camera C to generate the image processing information. The camera C comprises: a lens including two polarizing filters with mutually-perpendicular polarization directions; a polarizing beam splitter; and two imaging elements for imaging light that is split by the polarizing beam splitter.

Description

本発明は、被写体の奥行き値を示す奥行き情報、被写体表面の質感を示す反射特性情報、照明条件を示す光源情報などの画像処理情報を生成する技術に関する。   The present invention relates to a technique for generating image processing information such as depth information indicating a depth value of a subject, reflection characteristic information indicating a texture of a subject surface, and light source information indicating a lighting condition.

従来から、画像認識、画像合成、映像制作、コンピュータグラフィックス(CG)、バーチャルリアリティ(VR)などの画像処理が、広く行われている。この画像処理を行う際、被写体の奥行き値を示す奥行き情報、被写体表面の質感を示す反射特性情報、照明条件(光源の条件)を示す光源情報などの画像処理情報は、重要なものである。そこで、これら画像処理情報を生成する手法が提案されている。   Conventionally, image processing such as image recognition, image synthesis, video production, computer graphics (CG), and virtual reality (VR) has been widely performed. When performing this image processing, image processing information such as depth information indicating the depth value of the subject, reflection characteristic information indicating the texture of the subject surface, and light source information indicating illumination conditions (light source conditions) is important. Therefore, a method for generating such image processing information has been proposed.

画像処理情報を生成する手法として、ステレオカメラを用いて、奥行き値を推定する手法が提案されている(非特許文献1)。この非特許文献1に記載の手法は、同一の被写体を異なる視点で撮影した画像(画像には同一被写体の表面部位が存在する)のずれ量から、奥行き値を推定するものである。   As a method of generating image processing information, a method of estimating a depth value using a stereo camera has been proposed (Non-Patent Document 1). The technique described in Non-Patent Document 1 estimates a depth value from a shift amount of images obtained by photographing the same subject from different viewpoints (the surface portion of the same subject exists in the image).

また、カメラコード化瞳を用いて、奥行き値を推定する手法が提案されている(非特許文献2)。この非特許文献2に記載の手法は、カメラコード化された特殊な瞳(フィルタ)をレンズ内に内蔵しており、カメラコードを奥行き値に応じて畳み込んだボケ画像を撮像する。そして、非特許文献2に記載の手法は、このボケ画像から、逆問題を解くことで奥行き値を推定するものである。   In addition, a method for estimating a depth value using a camera-coded pupil has been proposed (Non-Patent Document 2). The technique described in Non-Patent Document 2 has a camera-coded special pupil (filter) built in the lens, and takes a blurred image in which the camera code is convoluted according to the depth value. The method described in Non-Patent Document 2 estimates a depth value by solving an inverse problem from this blurred image.

そして、三角測量の原理により、奥行き値を推定する手法が提案されている(非特許文献3)。この非特許文献3に記載の手法は、光切断などの能動的手法により、レンジセンサスリット光やカメラコード化されたパターン光を被写体に照射して、三角測量の原理で奥行きを推定するものである。   And the method of estimating a depth value is proposed by the principle of triangulation (nonpatent literature 3). The technique described in Non-Patent Document 3 estimates the depth based on the principle of triangulation by irradiating a subject with range sensor slit light or camera-coded pattern light by an active technique such as light cutting. is there.

さらに、被写体表面の反射特性を計測する手法が提案されている(非特許文献4)。この非特許文献4に記載の手法は、拘束された照明条件を変えながら被写体に光を照射して、その反射光を測定するものである。   Furthermore, a method for measuring the reflection characteristics of the subject surface has been proposed (Non-Patent Document 4). The technique described in Non-Patent Document 4 irradiates a subject with light while changing the constrained illumination condition, and measures the reflected light.

Heiko Hirschmuller (2008),Stereo Processing by Semi-Global Matching and Mutual Information,IEEE Transactions on Pattern Analysis and Machine Intelligence,Volume 30(2),February 2008,pp.328-341.Heiko Hirschmuller (2008), Stereo Processing by Semi-Global Matching and Mutual Information, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 30 (2), February 2008, pp.328-341. Image and Depth from a Conventional Camera with a Coded Aperture,http://groups.csail.mit.edu/graphics/CodedAperture/CodedAperture-LevinEtAl-SIGGRAPH07.pdfImage and Depth from a Conventional Camera with a Coded Aperture, http://groups.csail.mit.edu/graphics/CodedAperture/CodedAperture-LevinEtAl-SIGGRAPH07.pdf 実用化が進む高速レンジファインダ 4.1光切断法,日本ロボット学会誌Vol.23 No.3,pp.278〜281,2005,http://www.space-vision.jp/japanese/pdf/R15.pdfHigh-speed range finder with practical application 4.1 Optical cutting method, Journal of the Robotics Society of Japan Vol.23 No.3, pp.278-281, 2005, http://www.space-vision.jp/japanese/pdf/R15.pdf OGM:BRDF測定装置,http://www.dressingsim.com/new/product/LSC/OGM/index.htmlOGM: BRDF measuring device, http://www.dressingsim.com/new/product/LSC/OGM/index.html

しかし、非特許文献1〜3に記載の手法は、被写体表面の反射特性情報(つまり、被写体の質感)および光源情報を生成することができない。また、非特許文献3に記載の手法は、能動的手法によりパターン光を被写体に照射して、その反射光を計測する必要があるため、屋外などの光外乱の多い環境での利用が困難である。さらに、非特許文献4に記載の手法は、被写体の奥行き情報を取得することができず、被写体の形状または面法線をレンジセンサなどで予め計測しておく必要がある。   However, the methods described in Non-Patent Documents 1 to 3 cannot generate reflection characteristic information on the subject surface (that is, the texture of the subject) and light source information. Further, the method described in Non-Patent Document 3 is difficult to use in an environment where there is a lot of light disturbance such as outdoors because it is necessary to irradiate the subject with pattern light by an active method and measure the reflected light. is there. Furthermore, the method described in Non-Patent Document 4 cannot acquire the depth information of the subject, and it is necessary to measure the shape or surface normal of the subject beforehand with a range sensor or the like.

以上のように、奥行き情報、反射特性情報および光源情報をまとめて生成できる従来技術は提案されていない。仮に、非特許文献1〜4に記載の手法を組み合わせれば、これら画像処理情報をまとめて生成する手法は、容易に実現できるとも思われる。しかし、以下で説明するように、非特許文献1〜4に記載の手法を組み合わせることは現実的でない。   As described above, no prior art has been proposed that can generate depth information, reflection characteristic information, and light source information together. If the methods described in Non-Patent Documents 1 to 4 are combined, the method for generating these pieces of image processing information together can be easily realized. However, as described below, it is not realistic to combine the methods described in Non-Patent Documents 1 to 4.

前記したように、非特許文献1に記載の手法はステレオカメラを必要とし、非特許文献2に記載の手法は特殊な瞳を内蔵したカメラを必要とし、非特許文献4に記載の手法はレンジセンサを必要とするというように、各手法で固有の装置を必要とする。従って、非特許文献1〜4に記載の手法を組み合わせると、撮像装置の構成が非常に大規模化、複雑化するため、現実的でない。このため、ユーザから、これら画像処理情報をまとめて生成する手法を簡易な構成で実現して欲しいという要望があり、特に、カメラ本体の小型化について強い要望がある。   As described above, the method described in Non-Patent Document 1 requires a stereo camera, the method described in Non-Patent Document 2 requires a camera incorporating a special pupil, and the method described in Non-Patent Document 4 is a range. Each technique requires a unique device, such as requiring a sensor. Therefore, when the methods described in Non-Patent Documents 1 to 4 are combined, the configuration of the imaging apparatus becomes very large and complicated, which is not realistic. For this reason, there is a request from the user that a method for generating these pieces of image processing information collectively with a simple configuration, and in particular, there is a strong demand for downsizing the camera body.

そこで、本発明は、前記した問題を解決し、光外乱の多い環境において、奥行き情報、反射特性情報および光源情報をまとめて生成できると共に、構成が簡易な撮像技術を提供することを目的とする。   SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an imaging technique that solves the above-described problems and can collectively generate depth information, reflection characteristic information, and light source information in an environment with a lot of light disturbances, and has a simple configuration. .

前記した課題を解決するため、本願第1発明に係る撮像装置は、光源で照らされる被写体を撮像して、被写体の奥行き値を示す奥行き情報と、被写体の反射特性を示す反射特性情報と、光源の方向および光量を示す光源情報とを生成する撮像装置であって、撮像手段と、視差量算出部と、奥行き値換算部と、撮像手段位置算出部と、拡散反射光成分画像生成部と、鏡面反射光成分画像生成部と、光源方向算出部と、光源情報生成部と、反射係数算出部と、を備えることを特徴とする。   In order to solve the above-described problem, an imaging device according to the first invention of the present application images a subject illuminated by a light source, depth information indicating a depth value of the subject, reflection characteristic information indicating a reflection characteristic of the subject, and a light source An imaging device that generates light source information indicating a direction and a light amount of the imaging device, an imaging unit, a parallax amount calculation unit, a depth value conversion unit, an imaging unit position calculation unit, a diffuse reflected light component image generation unit, A specular reflection light component image generation unit, a light source direction calculation unit, a light source information generation unit, and a reflection coefficient calculation unit are provided.

かかる構成によれば、撮像装置の撮像手段は、偏光方向が互いに直交する2つの偏光素子からなる光透過素子と、偏光素子の一方からの入射光を透過させ、かつ、偏光素子の他方からの入射光を反射させる分光素子と、分光素子を透過した入射光を撮像する第1撮像素子と、分光素子で反射された入射光を撮像する第2撮像素子とを備える。   According to such a configuration, the imaging unit of the imaging apparatus transmits the incident light from one of the polarizing elements and the light transmitting element composed of two polarizing elements whose polarization directions are orthogonal to each other, and from the other of the polarizing elements. A spectroscopic element that reflects incident light, a first image sensor that images incident light that has passed through the spectroscopic element, and a second image sensor that captures incident light reflected by the spectroscopic element are provided.

ここで、撮像手段の光学的条件に起因して、第1撮像素子および第2撮像素子が撮像した2つの撮像画像では、合焦位置に対する被写体位置がずれるためにボケが生じ、このボケの程度に応じて視差が生じる。つまり、両撮像画像は、ステレオ画像として取り扱うことが可能となる。   Here, due to the optical conditions of the imaging means, in the two captured images captured by the first image sensor and the second image sensor, the subject position is deviated from the in-focus position, resulting in blurring. Depending on the parallax, parallax occurs. That is, both captured images can be handled as stereo images.

また、撮像装置は、ステレオ画像を生成するステレオカメラと比べて、撮像手段の構成が簡素である。さらに、撮像装置は、撮像手段で撮像を行う際に、パターン光を被写体に照射する必要がない。   In addition, the imaging device has a simpler configuration of imaging means than a stereo camera that generates a stereo image. Furthermore, the imaging apparatus does not need to irradiate the subject with the pattern light when performing imaging with the imaging unit.

また、撮像装置は、視差量算出部によって、第1撮像素子および第2撮像素子で被写体を撮像した2つの撮像画像から、例えば、マッチングによって、2つの撮像画像で対応する対応画素ごとの視差量を算出する。そして、撮像装置は、奥行き値換算部によって、視差量算出部が算出した視差量を、予め設定された換算式で対応画素ごとの奥行き値に換算して奥行き情報を生成する。ここで、奥行き情報は、撮像手段から被写体表面までの距離を示すことになる。言い換えるなら、注目画素の奥行き値が示す位置と、近傍画素の奥行き値が示す位置とを接続すると、被写体表面を示すことになる。従って、撮像装置は、奥行き値換算部によって、奥行き情報を用いて、注目画素と注目画素の近傍画素との奥行き値で表される被写体表面に直交する法線方向を算出する。   In addition, the imaging apparatus uses, for example, matching between two captured images obtained by capturing the subject with the first imaging element and the second imaging element by the parallax amount calculation unit, and the parallax amount for each corresponding pixel corresponding to the two captured images. Is calculated. Then, the imaging apparatus uses the depth value conversion unit to convert the parallax amount calculated by the parallax amount calculation unit into a depth value for each corresponding pixel using a preset conversion formula to generate depth information. Here, the depth information indicates the distance from the imaging means to the subject surface. In other words, connecting the position indicated by the depth value of the target pixel and the position indicated by the depth value of the neighboring pixel indicates the subject surface. Therefore, the imaging apparatus uses the depth value conversion unit to calculate a normal direction orthogonal to the subject surface represented by the depth values of the target pixel and the neighboring pixels of the target pixel, using the depth information.

また撮像装置は、撮像手段位置算出部によって、奥行き値換算部が算出した奥行き値に最適化処理を行って、撮像手段の位置を算出する。そして、撮像装置は、拡散反射光成分画像生成部によって、2つの撮像画像での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、対応画素ごとの最小輝度値を示す拡散反射光成分画像を生成する。さらに、撮像装置は、鏡面反射光成分画像生成部によって、2つの撮像画像での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、対応画素ごとの最大輝度値と最小輝度値との差分を示す鏡面反射光成分画像を生成する。   In addition, the imaging apparatus calculates the position of the imaging unit by performing an optimization process on the depth value calculated by the depth value conversion unit by the imaging unit position calculation unit. Then, the imaging apparatus selects, with the diffuse reflected light component image generation unit, the smaller of the corresponding pixels in the two captured images as the minimum luminance value, and diffusion indicating the minimum luminance value for each corresponding pixel A reflected light component image is generated. Furthermore, the imaging apparatus selects, as the maximum luminance value, the larger luminance value of the corresponding pixels in the two captured images as the maximum luminance value by the specular reflection component image generation unit, and the maximum luminance value and the minimum luminance value for each corresponding pixel. A specular reflection light component image showing the difference between and is generated.

ここで、例えば、斜め45度方向に偏光した鏡面反射光が入射した場合、第1撮像素子および第2撮像素子では、鏡面反射光が同じ光量となるために、最小輝度値を選択しても、鏡面反射光成分の抑制を行うことが困難である。すなわち、鏡面反射光成分の抑制は、45度からずれた状態となることで、その効果が生じる。この影響を光学系で低減するには、撮像手段の構成が大規模、複雑化し、現実的でない。このため、拡散反射光成分画像生成部は、最小輝度値を選択して拡散反射光成分を算出する。その後、鏡面反射光成分画像生成部は、この拡散反射光成分を用いて、鏡面反射光成分を算出する。   Here, for example, when specular reflection light polarized in an oblique 45 degree direction is incident, the first image sensor and the second image sensor have the same amount of specular reflection light. Therefore, even if the minimum luminance value is selected. It is difficult to suppress the specular reflection light component. That is, the effect of suppressing the specular reflection light component is brought about by shifting from 45 degrees. In order to reduce this influence by the optical system, the configuration of the imaging means becomes large and complicated, which is not practical. Therefore, the diffuse reflected light component image generation unit selects the minimum luminance value and calculates the diffuse reflected light component. Thereafter, the specular reflection light component image generation unit calculates the specular reflection light component using the diffuse reflection light component.

なお、拡散反射光成分画像は、2つの撮像画像での対応画素のうち、輝度値が小さい方の画素で構成された画像であり、拡散反射光成分を示すものである。また、鏡面反射光成分画像は、最大輝度値と最小輝度値との差分が輝度値となる画素で構成された画像であり、鏡面反射光成分を示すものである。   The diffuse reflected light component image is an image composed of pixels with smaller luminance values among the corresponding pixels in the two captured images, and shows the diffuse reflected light component. The specular reflection light component image is an image composed of pixels in which the difference between the maximum luminance value and the minimum luminance value becomes the luminance value, and indicates the specular reflection light component.

また、撮像装置は、光源方向算出部によって、奥行き値換算部が算出した法線方向および撮像手段の位置から、被写体での反射光の入射角を算出し、算出した入射角が示す方向を光源の方向として算出する。ここで、例えば、光源方向算出部は、反射の法則により、被写体表面の法線方向および撮像手段の位置から、光源の方向を算出する。
によって、
In addition, the imaging apparatus calculates the incident angle of the reflected light at the subject from the normal direction calculated by the depth value conversion unit and the position of the imaging unit by the light source direction calculation unit, and the direction indicated by the calculated incident angle is the light source Calculate as the direction of. Here, for example, the light source direction calculation unit calculates the direction of the light source from the normal direction of the surface of the subject and the position of the imaging means, according to the law of reflection.
By

また、撮像装置は、光源情報生成部によって、鏡面反射光成分画像生成部が生成した鏡面反射光成分画像および光源の方向に基づいて光源の光量を算出し、算出した光源の光量および方向を光源情報として生成する。ここで、光源情報生成部は、例えば、所定半径の仮想球を格子状に分割し、その格子頂点ごとに各光線の光源強度を求める。そして、光源情報生成部は、各光線の光源強度の中で最大値を算出して、仮想球に含まれる各格子頂点全体でゼロから最大光量までの間で正規化することで、光源の光量を算出する。   In addition, the imaging apparatus calculates the light amount of the light source based on the specular reflection component image generated by the specular reflection component image generation unit and the direction of the light source by the light source information generation unit, and the calculated light amount and direction of the light source Generate as information. Here, for example, the light source information generation unit divides a virtual sphere having a predetermined radius into a lattice shape, and obtains the light source intensity of each light beam for each lattice vertex. Then, the light source information generation unit calculates the maximum value among the light source intensities of each light ray, and normalizes between zero and the maximum light amount over each lattice vertex included in the phantom sphere, so that the light amount of the light source Is calculated.

また、撮像装置は、反射係数算出部によって、光源情報生成部が生成した光源情報と、鏡面反射光成分画像と、拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を反射特性情報として算出する。   Further, the imaging apparatus performs an optimization process by applying a reflection model to the light source information generated by the light source information generation unit, the specular reflection light component image, and the diffuse reflection light component image by the reflection coefficient calculation unit. The specular reflection coefficient and the diffuse reflection coefficient are calculated as reflection characteristic information.

また、本願第2発明に係る撮像装置は、光源を点灯および消灯させる光源制御部をさらに備え、光源情報生成部が、光源点灯時および光源消灯時に光源の光量をそれぞれ算出し、光源点灯時および光源消灯時の光量から所定の算出式によって重みを算出し、算出した重みを光源消灯時の光量に乗算することで、絶対値で表された光源情報を算出することが好ましい。   The imaging apparatus according to the second invention of the present application further includes a light source control unit that turns on and off the light source, and the light source information generation unit calculates the light amount of the light source when the light source is turned on and when the light source is turned off. It is preferable to calculate light source information represented by an absolute value by calculating a weight from a light amount when the light source is turned off by a predetermined calculation formula, and multiplying the calculated weight by the light amount when the light source is turned off.

また、本願第3発明に係る撮像装置は、2つの撮像画像の一方から、対応画素の奥行き値が予め設定された奥行き抽出範囲に含まれる領域を被写体領域として抽出する被写体領域抽出部をさらに備えることが好ましい。   The imaging apparatus according to the third aspect of the present invention further includes a subject region extraction unit that extracts, from one of the two captured images, a region included in a depth extraction range in which the depth value of the corresponding pixel is set in advance as a subject region. It is preferable.

また、本願第4発明に係る撮像装置は、2つの撮像画像の一方から顔領域検出処理により顔領域を検出し、検出した顔領域に含まれる全画素の奥行き値の平均値を算出し、算出した平均値に所定の値を加減算して奥行き抽出範囲を設定する奥行き抽出範囲算出部をさらに備えることが好ましい。   In addition, the imaging apparatus according to the fourth invention of the present application detects a face area from one of two captured images by face area detection processing, calculates an average value of depth values of all pixels included in the detected face area, and calculates It is preferable to further include a depth extraction range calculation unit that sets a depth extraction range by adding and subtracting a predetermined value to the average value.

なお、本願第1発明に係る撮像装置において、一般的なコンピュータを、視差量算出部、奥行き値換算部、撮像手段位置算出部、拡散反射光成分画像生成部、鏡面反射光成分画像生成部、光源方向算出部、光源情報生成部、および、反射係数算出部として機能させる画像処理情報生成プログラムによって実現することもできる。   In the imaging apparatus according to the first invention of the present application, a general computer includes a parallax amount calculation unit, a depth value conversion unit, an imaging means position calculation unit, a diffuse reflection component image generation unit, a specular reflection component image generation unit, It can also be realized by an image processing information generation program that functions as a light source direction calculation unit, a light source information generation unit, and a reflection coefficient calculation unit.

本願第1発明によれば、撮像手段の構成が簡素であると共に、この撮像手段が撮像した撮像画像だけを用いて、奥行き情報、反射特性情報および光源情報をまとめて生成できる。従って、本願第1発明によれば、奥行き情報、反射特性情報および光源情報ごとに、各情報を生成するための固有の装置を必要とせず、簡易な構成を実現することができる。さらに、本願第1発明によれば、撮像手段で撮像を行う際に、パターン光を被写体に照射する必要がないため、光外乱の多い環境でも利用することができる。   According to the first aspect of the present invention, the configuration of the imaging unit is simple, and depth information, reflection characteristic information, and light source information can be collectively generated using only a captured image captured by the imaging unit. Therefore, according to the first invention of the present application, a simple configuration can be realized without requiring a unique device for generating each piece of information for each of depth information, reflection characteristic information, and light source information. Furthermore, according to the first invention of the present application, it is not necessary to irradiate the subject with the pattern light when performing imaging with the imaging means, and therefore, it can be used even in an environment with a lot of light disturbance.

本願第2発明によれば、光源情報が絶対値で表されているため、実際の光源の明るさを光源情報から知ることができる。さらに、本願第2発明によれば、この光源情報を用いて別の撮像環境で画像処理を行う際、この別の撮像環境用に光源情報を変換する必要がない。つまり、本願第2発明によれば、光源情報の整合性を容易に保つことができる。   According to the second invention of the present application, since the light source information is represented by an absolute value, the actual brightness of the light source can be known from the light source information. Furthermore, according to the second aspect of the present invention, when image processing is performed in another imaging environment using the light source information, it is not necessary to convert the light source information for the other imaging environment. That is, according to the second invention of the present application, the consistency of the light source information can be easily maintained.

本願第3発明によれば、奥行き情報、反射特性情報および光源情報に加えて、被写体領域を抽出することができるため、撮像装置の利便性を向上させることができる。
本願第4発明によれば、奥行き抽出範囲を算出できるため、これを手動で設定する必要がなく、撮像装置の利便性をより向上させると共に、被写体の顔領域を正確に抽出することができる。
According to the third aspect of the present invention, since the subject region can be extracted in addition to the depth information, the reflection characteristic information, and the light source information, the convenience of the imaging apparatus can be improved.
According to the fourth aspect of the present invention, since the depth extraction range can be calculated, it is not necessary to manually set this, and the convenience of the imaging apparatus can be further improved and the face area of the subject can be accurately extracted.

本発明の実施形態に係る撮像装置の構成を示す概略図である。It is the schematic which shows the structure of the imaging device which concerns on embodiment of this invention. (a)は図1のカメラの構成を示す図であり、(b)は図1のカメラが備えるレンズを説明する図である。(A) is a figure which shows the structure of the camera of FIG. 1, (b) is a figure explaining the lens with which the camera of FIG. 1 is provided. 撮像画像1,2をステレオ画像として扱える理由を説明する図であり、(a)は第1撮像素子に着目した図であり、(b)は第2撮像素子に着目した図である。It is a figure explaining the reason which can handle the captured images 1 and 2 as a stereo image, (a) is a figure which paid its attention to the 1st image sensor, (b) is a figure which paid attention to the 2nd image sensor. 図1の画像処理情報生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing information generation apparatus of FIG. (a)および(b)は図4の奥行き値換算部による換算を説明する図である。(A) And (b) is a figure explaining conversion by the depth value conversion part of FIG. 図4の奥行き値換算部による換算を説明する図である。It is a figure explaining conversion by the depth value conversion part of FIG. 図4の奥行き値換算部による法線方向の算出を説明する図である。It is a figure explaining calculation of the normal direction by the depth value conversion part of FIG. 図4の奥行き値換算部による法線方向の算出を説明する図である。It is a figure explaining calculation of the normal direction by the depth value conversion part of FIG. 図4の拡散反射光成分画像生成部による拡散反射光成分画像の生成を説明する図である。It is a figure explaining the production | generation of the diffuse reflection light component image by the diffuse reflection light component image generation part of FIG. 図4の照明情報生成部による照明情報の生成を説明する図である。It is a figure explaining the production | generation of the illumination information by the illumination information generation part of FIG. 図4の画像処理情報生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing information generation apparatus of FIG.

以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段及び同一の部材には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function and the same member are denoted by the same reference numerals, and description thereof is omitted.

[撮像装置の構成]
図1を参照して、本発明の実施形態に係る撮像装置1の構成について説明する。
撮像装置1は、照明(光源)Lで照らされる被写体Aを撮像して、奥行き情報と、反射特性情報と、照明情報(光源情報)とを画像処理情報として生成するものであって、カメラ(撮像手段)Cと、画像処理情報生成装置100とを備える。
[Configuration of imaging device]
With reference to FIG. 1, a configuration of an imaging apparatus 1 according to an embodiment of the present invention will be described.
The imaging device 1 captures a subject A illuminated by an illumination (light source) L, generates depth information, reflection characteristic information, and illumination information (light source information) as image processing information. Imaging means) C and an image processing information generating apparatus 100.

カメラ(撮像手段)Cは、被写体Aを撮像するものである。このカメラCは、信号ケーブル9を介して、画像処理情報生成装置100に接続されており、撮像した画像(動画)を画像処理情報生成装置100に出力する。 The camera (imaging means) C images the subject A. The camera C is connected to the image processing information generation device 100 via the signal cable 9 C , and outputs a captured image (moving image) to the image processing information generation device 100.

被写体Aは、撮像装置1での撮像対象となるものである。図1では、被写体Aとして、円筒状の物体を図示したが、例えば、人物、動物、風景などであってもよい。また、撮像装置1における被写体は、1つに限定されず、2つ以上であってもよい。   The subject A is a subject to be imaged by the imaging device 1. In FIG. 1, a cylindrical object is illustrated as the subject A, but it may be a person, an animal, a landscape, or the like. Further, the number of subjects in the imaging apparatus 1 is not limited to one, and may be two or more.

また、本実施形態では、光源の一例として照明Lをあげて説明する。
照明Lは、被写体Aを照らす光源であり、カメラCの周囲に配置されるものである。この照明Lは、例えば、高速(1フレーム秒単位)で点灯および消灯が可能な白色LED(Light Emitting Diode)である。また、照明Lは、信号ケーブル9を介して、画像処理情報生成装置100に接続されている。
なお、本実施形態では、光源が照明Lであることから、後記する画像処理情報生成装置100は、光源情報として照明情報を生成することとした。
In this embodiment, the illumination L will be described as an example of the light source.
The illumination L is a light source that illuminates the subject A, and is disposed around the camera C. The illumination L is, for example, a white LED (Light Emitting Diode) that can be turned on and off at high speed (in units of one frame second). The illumination L, via a signal cable 9 C, and is connected to the image processing information generating unit 100.
In the present embodiment, since the light source is the illumination L, the image processing information generation device 100 described later generates illumination information as the light source information.

[カメラの構成]
ここで、図2を参照して、カメラCの構成について説明する。
カメラCは、図2(a)に示すように、レンズ(光透過素子)11と、偏光BS(分光素子)12と、第1撮像素子13と、第2撮像素子14とを備える。
この図2(a)では、入射光における縦方向の偏光成分と、横方向の偏光成分とを矢印で図示した。
[Camera configuration]
Here, the configuration of the camera C will be described with reference to FIG.
As shown in FIG. 2A, the camera C includes a lens (light transmission element) 11, a polarization BS (spectral element) 12, a first imaging element 13, and a second imaging element 14.
In FIG. 2A, the vertical polarization component and the horizontal polarization component of the incident light are indicated by arrows.

レンズ(光透過素子)11は、偏光方向が互いに直交する2つの偏光フィルタ(偏光素子)11a,11bを有するものである。このレンズ11は、例えば、図2(b)に示すように、カメラCの外側から見て、凸レンズのレンズ面の左側に偏光フィルタ11aを有し、レンズ面の右側に偏光フィルタ11bを有する。この場合、レンズ11は、例えば、一般的な凸レンズのレンズ面に、薄膜状の偏光フィルタを2枚接着して、形成することができる。   The lens (light transmitting element) 11 has two polarizing filters (polarizing elements) 11a and 11b whose polarization directions are orthogonal to each other. For example, as illustrated in FIG. 2B, the lens 11 includes a polarizing filter 11 a on the left side of the lens surface of the convex lens and a polarizing filter 11 b on the right side of the lens surface as viewed from the outside of the camera C. In this case, the lens 11 can be formed, for example, by bonding two thin-film polarizing filters to the lens surface of a general convex lens.

また、レンズ11は、偏光フィルタ11a,11bの割合が1:1となっているが、これに限定されない。例えば、レンズ11は、偏光フィルタ11a,11bの割合を、第1撮像素子13や第2撮像素子14の感度およびレンズ11の性能を考慮して、後記する視差量算出部101でブロックマッチングの精度が保てる範囲内に変更可能である。   In the lens 11, the ratio of the polarizing filters 11a and 11b is 1: 1, but the present invention is not limited to this. For example, in the lens 11, the ratio of the polarization filters 11 a and 11 b is calculated by taking into consideration the sensitivity of the first image sensor 13 and the second image sensor 14 and the performance of the lens 11, and the accuracy of block matching by the parallax amount calculation unit 101 described later. Can be changed within the range that can be maintained.

図2(a)に示すように、偏光フィルタ11aは、被写体Aからの入射光のうち、縦方向の偏光成分のみ通過する。また、偏光フィルタ11bは、被写体Aからの入射光のうち、横方向の偏光成分のみ通過する。   As shown in FIG. 2A, the polarizing filter 11a passes only the vertical polarization component of the incident light from the subject A. Further, the polarization filter 11b passes only the lateral polarization component of the incident light from the subject A.

偏光BS(分光素子)12は、偏光フィルタ11aからの入射光(縦方向の偏光成分)を透過させ、かつ、偏光フィルタ11bからの入射光(横方向の偏光成分)を反射させるビームスプリッタである。この偏光BS12を透過した光は、第1撮像素子13の撮像面に到達する。また、偏光BS12で反射された光は、第2撮像素子14の撮像面に到達する。   The polarization BS (spectral element) 12 is a beam splitter that transmits incident light (vertical polarization component) from the polarization filter 11a and reflects incident light (lateral polarization component) from the polarization filter 11b. . The light transmitted through the polarized light BS12 reaches the image pickup surface of the first image pickup device 13. Further, the light reflected by the polarized light BS12 reaches the imaging surface of the second imaging element 14.

第1撮像素子13は、偏光BS12を透過した光(縦方向の偏光成分)を撮像するものであり、例えば、CCDやCMOSセンサである。そして、第1撮像素子13は、被写体Aが撮像された画像を画像処理情報生成装置100に出力する。   The first image pickup device 13 picks up an image of light (longitudinal polarization component) transmitted through the polarized light BS12, and is, for example, a CCD or a CMOS sensor. Then, the first image sensor 13 outputs an image obtained by imaging the subject A to the image processing information generation device 100.

第2撮像素子14は、偏光BS12で反射された光(横方向の偏光成分)を撮像するものであり、例えば、CCDやCMOSセンサである。そして、第2撮像素子14は、被写体Aが撮像された画像を画像処理情報生成装置100に出力する。   The second image sensor 14 images light reflected by the polarized light BS12 (laterally polarized light component), and is, for example, a CCD or CMOS sensor. Then, the second image sensor 14 outputs an image obtained by capturing the subject A to the image processing information generation device 100.

以後、第1撮像素子13が撮像した動画の各フレーム画像を「撮像画像1」と呼び、第2撮像素子14が撮像した各フレーム画像を「撮像画像2」と呼ぶ。これら撮像画像1,2は、ステレオ画像として扱うことができるため、その理由を説明する。   Hereinafter, each frame image of the moving image captured by the first image sensor 13 is referred to as “captured image 1”, and each frame image captured by the second image sensor 14 is referred to as “captured image 2”. Since these captured images 1 and 2 can be handled as stereo images, the reason will be described.

<ステレオ画像として扱える理由>
被写体からの入射光のうち、少なくとも拡散反射光成分は、偏光方向が分散される。この結果、拡散反射光成分は、偏光フィルタ11aまたは偏光フィルタ11bのみがレンズ11の開口形状と同等の条件で撮像される。言い換えるなら、拡散反射光成分は、その偏光方向が偏らないため、偏光フィルタ11aおよび偏光フィルタ11bで略均等に遮蔽される。
<Reasons for handling as stereo images>
Of the incident light from the subject, at least the diffuse reflected light component is dispersed in the polarization direction. As a result, the diffuse reflected light component is imaged only on the polarizing filter 11 a or the polarizing filter 11 b under the same condition as the aperture shape of the lens 11. In other words, the diffusely reflected light component is shielded substantially evenly by the polarizing filter 11a and the polarizing filter 11b because the polarization direction is not biased.

その一方、ある光源からの光線が被写体表面で反射された鏡面反射光成分については、入射角=反射角の条件を満たしつつ、カメラCに入射する(凹面鏡などの被写体条件が成立する場合を除く)。従って、鏡面反射光成分は、素材(被写体Aの屈折率)毎に異なるブリュースター角を中心として、P偏光およびS偏光の強度比が1:1でなくなる。(カメラCの位置=光源でない場合を除く)。このため、被写体Aの表面で鏡面反射を起こしているならば、第1撮像素子13および第2撮像素子14では、入射光の光量が異なることになる。   On the other hand, the specular reflection component in which a light beam from a certain light source is reflected on the subject surface is incident on the camera C while satisfying the condition of incident angle = reflection angle (except when the subject condition such as a concave mirror is satisfied). ). Therefore, the specular reflection light component has an intensity ratio of P-polarized light and S-polarized light that is not 1: 1 with a Brewster angle that differs for each material (refractive index of subject A). (Except when the position of the camera C is not a light source). For this reason, if specular reflection is caused on the surface of the subject A, the first image sensor 13 and the second image sensor 14 have different amounts of incident light.

以上の光学系の条件から、第1撮像素子13および第2撮像素子14では、合焦位置に対する被写体Aの位置ずれによって、撮像画像1,2にボケが生じる。そして、このボケに応じて視差が生じるため、撮像画像1,2は、ステレオ画像として扱うことができる。   Due to the above optical system conditions, the first image sensor 13 and the second image sensor 14 are blurred in the captured images 1 and 2 due to the displacement of the subject A with respect to the in-focus position. And since parallax arises according to this blur, the captured images 1 and 2 can be handled as a stereo image.

図3を参照して、より具体的に説明する(適宜図2参照)。
以後、レンズ11の焦点位置にある丸状の被写体を「○」とし、レンズ11の焦点位置より奥側にある三角状の被写体を「△」とし、レンズ11の焦点位置より手前側にある正方形状の被写体を「□」とする。
A more specific description will be given with reference to FIG. 3 (see FIG. 2 as appropriate).
Thereafter, a round object at the focal position of the lens 11 is indicated by “◯”, a triangular object at the rear side of the focal position of the lens 11 is indicated by “Δ”, and a square on the front side of the focal position of the lens 11 is indicated. Let the square object be “□”.

図3(a)では、第1撮像素子13に着目しており、偏光フィルタ11bが第1撮像素子13に対するフィルタとなるため、偏光フィルタ11bをドットで図示した。また、図3(b)では、第2撮像素子14に着目しており、偏光フィルタ11aが第2撮像素子14に対するフィルタとなるため、偏光フィルタ11aをドットで図示した。   In FIG. 3A, attention is paid to the first image sensor 13, and the polarization filter 11b is a filter for the first image sensor 13, and therefore the polarization filter 11b is illustrated by dots. In FIG. 3B, attention is paid to the second image sensor 14, and the polarization filter 11a is a filter for the second image sensor 14, and therefore the polarization filter 11a is illustrated by dots.

仮に、レンズ11が一般的な凸レンズである場合を考える。被写体「○」は、レンズ11の焦点位置にあるため、第1撮像素子13の撮像面に結像する。また、被写体「△」は、レンズ11の焦点位置より奥側のため、第1撮像素子13の撮像面の手前側に結像する。さらに、被写体「□」は、レンズ11の焦点位置より手前側のため、第1撮像素子13の撮像面の奥側に結像する。   Consider the case where the lens 11 is a general convex lens. Since the subject “◯” is at the focal position of the lens 11, it forms an image on the imaging surface of the first imaging element 13. In addition, since the subject “Δ” is located behind the focal position of the lens 11, an image is formed on the front side of the imaging surface of the first imaging element 13. Furthermore, since the subject “□” is on the near side of the focal position of the lens 11, an image is formed on the back side of the imaging surface of the first imaging element 13.

次に、レンズ11が偏光フィルタ11a,11bを有し、偏光フィルタ11aが被写体「○」,「△」,「□」からの入射光を透過し、偏光フィルタ11bが被写体「○」,「△」,「□」からの入射光を遮蔽する場合を考える。   Next, the lens 11 includes polarizing filters 11a and 11b, the polarizing filter 11a transmits incident light from the subjects “◯”, “Δ”, and “□”, and the polarizing filter 11b includes the subjects “O” and “Δ”. Consider the case where the incident light from “□” is shielded.

この場合、図3(a)に示すように、被写体「△」では、偏光フィルタ11aを通過した入射光の光路が、第1撮像素子13の撮像面の手前で一旦交差して、第1撮像素子13の撮像面右側に到達する。また、被写体「□」では、偏光フィルタ11aを通過した入射光が、第1撮像素子13の撮像面左側に到達する。従って、第1撮像素子13は、被写体「□」,「○」,「△」が左側から順に並んだ撮像画像1を撮像する。   In this case, as shown in FIG. 3A, in the subject “Δ”, the optical path of the incident light that has passed through the polarizing filter 11 a once intersects in front of the imaging surface of the first imaging element 13, so that the first imaging is performed. It reaches the right side of the imaging surface of the element 13. In addition, in the subject “□”, incident light that has passed through the polarizing filter 11 a reaches the left side of the imaging surface of the first imaging element 13. Accordingly, the first image sensor 13 captures the captured image 1 in which the subjects “□”, “◯”, and “Δ” are arranged in order from the left side.

また、図3(b)では、偏光フィルタ11bが被写体「○」,「△」,「□」からの入射光を透過し、偏光フィルタ11aが被写体「○」,「△」,「□」からの入射光を遮蔽する。   In FIG. 3B, the polarizing filter 11b transmits the incident light from the subjects “◯”, “Δ”, “□”, and the polarizing filter 11a from the subjects “O”, “Δ”, “□”. To block the incident light.

このため、被写体「△」では、偏光フィルタ11bを通過した入射光の光路が、第2撮像素子14の撮像面の手前で一旦交差して、第2撮像素子14の撮像面左側に到達する。また、被写体「□」では、偏光フィルタ11bを通過した入射光が、第2撮像素子14の撮像面右側に到達する。従って、第2撮像素子14は、被写体「△」,「○」,「□」が左側から順に並んだ撮像画像2を撮像する。   For this reason, in the subject “Δ”, the optical path of the incident light that has passed through the polarization filter 11 b once intersects before the imaging surface of the second imaging element 14 and reaches the left side of the imaging surface of the second imaging element 14. In addition, in the subject “□”, incident light that has passed through the polarization filter 11 b reaches the right side of the imaging surface of the second imaging element 14. Therefore, the second image sensor 14 captures the captured image 2 in which the subjects “Δ”, “◯”, and “□” are arranged in order from the left side.

このように、撮像画像1,2では、レンズ11の焦点位置から手前側または奥側にずれる程、被写体「△」,「□」が画像中央から左右にずれて撮像される。このため、撮像画像1,2は、被写体「○」,「△」,「□」の位置に応じて視差が発生し、ステレオ画像として扱うことができる。   As described above, in the captured images 1 and 2, the subjects “Δ” and “□” are imaged so as to be shifted from the center of the image to the left and right as the focal position of the lens 11 is shifted to the near side or the far side. Therefore, the captured images 1 and 2 generate parallax according to the positions of the subjects “◯”, “Δ”, and “□”, and can be handled as stereo images.

[画像処理情報生成装置の構成]
図4を参照して、画像処理情報生成装置100の構成について説明する(適宜図1,図2参照)。
この図4では、図面を見やすくするため、カメラCの一部構成を省略した。
[Configuration of Image Processing Information Generating Device]
The configuration of the image processing information generation apparatus 100 will be described with reference to FIG. 4 (see FIGS. 1 and 2 as appropriate).
In FIG. 4, a part of the configuration of the camera C is omitted for easy viewing of the drawing.

図4に示すように、画像処理情報生成装置100は、画像処理情報を生成するものであり、視差量算出部101と、奥行き値換算部110と、カメラパラメータ算出部(撮像手段位置算出部)120と、奥行き情報記憶部130と、反射特性推定部140と、パラメータ設定部150と、奥行き抽出範囲算出部160と、被写体領域抽出部170と、照明制御部180とを備える。   As shown in FIG. 4, the image processing information generation apparatus 100 generates image processing information, and includes a parallax amount calculation unit 101, a depth value conversion unit 110, and a camera parameter calculation unit (imaging means position calculation unit). 120, a depth information storage unit 130, a reflection characteristic estimation unit 140, a parameter setting unit 150, a depth extraction range calculation unit 160, a subject area extraction unit 170, and an illumination control unit 180.

この画像処理情報生成装置100は、例えば、撮像画像1,2の画像入力用ボード、照明制御用の汎用I/Oボードを内蔵したコンピュータに実装されている。
なお、照明制御部180は、照明情報を絶対値で表すときに必要な構成であり、後記する変形例で説明する。
The image processing information generation apparatus 100 is mounted on, for example, a computer that includes an image input board for captured images 1 and 2 and a general-purpose I / O board for illumination control.
Note that the illumination control unit 180 is a configuration necessary when the illumination information is represented by an absolute value, and will be described in a modification example described later.

視差量算出部101は、カメラCから撮像画像1,2が入力され、この撮像画像1,2で対応する対応画素ごとの視差量を算出するものである。この視差量算出部101は、例えば、ブロックマッチングによって、撮像画像1,2における各部位の小片ごとのずれ量として視差量を算出する。そして、視差量算出部101は、算出した視差量を奥行き値換算部110に出力する。   The parallax amount calculation unit 101 receives the captured images 1 and 2 from the camera C and calculates the parallax amount for each corresponding pixel corresponding to the captured images 1 and 2. The parallax amount calculation unit 101 calculates the parallax amount as a shift amount for each piece of each part in the captured images 1 and 2 by block matching, for example. Then, the parallax amount calculation unit 101 outputs the calculated parallax amount to the depth value conversion unit 110.

ここで、視差量算出部101は、高域空間周波数成分を対象としたブロックマッチング、または、色情報を用いたブロックマッチングを行って、マッチングの精度を向上させることができる。   Here, the parallax amount calculation unit 101 can improve the accuracy of matching by performing block matching for high-frequency spatial frequency components or block matching using color information.

なお、本実施形態では、視差量算出部101がブロックマッチングを用いることとしたが、本発明は、これに限定されない。つまり、視差量算出部101は、勾配法など、ステレオ画像のずれ量から視差量を算出する種々のマッチング手法を適用できる。
この勾配法は、例えば、文献「一般化勾配法によるオプティカルフローの検出:不均一照明下での物体運動の計測,社団法人情報処理学会,情報処理学会論文誌,コンピュータビジョンとイメージメディア49(SIG_6(CVIM_20)),1-12,2008-03-15,http://ci.nii.ac.jp/naid/110006684635」に記載されている。
In the present embodiment, the parallax amount calculation unit 101 uses block matching, but the present invention is not limited to this. That is, the parallax amount calculation unit 101 can apply various matching methods for calculating the parallax amount from the shift amount of the stereo image, such as a gradient method.
This gradient method is described, for example, in the document “Detection of optical flow by generalized gradient method: Measurement of object motion under non-uniform illumination, Information Processing Society of Japan, Journal of Information Processing Society of Japan, Computer Vision and Image Media 49 (SIG_6 (CVIM — 20)), 1-12, 2008-03-15, http://ci.nii.ac.jp/naid/110006684635 ”.

奥行き値換算部110は、視差量算出部101から視差量が入力され、この視差量を換算式で対応画素ごとの奥行き値に換算して奥行き情報を生成するものである。また、奥行き値換算部110は、注目画素と注目画素の近傍画素との奥行き値で表される被写体表面に直交する法線方向を算出する。そして、奥行き値換算部110は、生成した奥行き情報および被写体表面の法線方向を奥行き情報記憶部130に出力する。さらに、奥行き値換算部110は、生成した奥行き情報をカメラパラメータ算出部120に出力する。   The depth value conversion unit 110 receives the parallax amount from the parallax amount calculation unit 101, converts the parallax amount into a depth value for each corresponding pixel using a conversion formula, and generates depth information. Further, the depth value conversion unit 110 calculates a normal direction orthogonal to the subject surface represented by the depth values of the target pixel and the neighboring pixels of the target pixel. Then, the depth value conversion unit 110 outputs the generated depth information and the normal direction of the subject surface to the depth information storage unit 130. Further, the depth value conversion unit 110 outputs the generated depth information to the camera parameter calculation unit 120.

<奥行き値換算部による換算の具体例>
図5,図6を参照して、奥行き値換算部110による換算の具体例について説明する(適宜図4参照)。
被写体のボケ中心位置は、レンズ11における開口(つまり、偏光フィルタ11aまたは偏光フィルタ11b)の重心位置となる。ここでは、レンズ11における開口を半円として説明する。
<Specific example of conversion by depth value conversion unit>
A specific example of conversion by the depth value conversion unit 110 will be described with reference to FIGS. 5 and 6 (see FIG. 4 as appropriate).
The blur center position of the subject is the position of the center of gravity of the opening in the lens 11 (that is, the polarization filter 11a or the polarization filter 11b). Here, the opening in the lens 11 will be described as a semicircle.

この場合、図5(a)に示すように、重心位置G(x,y)は、対象軸(y軸)上にあるから、x=0である。従って、x軸からの距離yを求める。高さyの位置にある細い帯(ハッチングで図示)において、そのx軸に関する面積モーメントは、(2x)yΔyである。そして、半円全体を細い帯に区切って考えると、半円のx軸に関する面積モーメントは、下記の式(1)で表すことができる。 In this case, as shown in FIG. 5A, the center of gravity position G (x G , y G ) is on the target axis (y axis), so x G = 0. Therefore, the distance y G from the x axis is obtained. In a thin band (shown by hatching) at the position of height y, the area moment about the x-axis is (2x) yΔy. When the entire semicircle is divided into thin bands, the area moment about the x-axis of the semicircle can be expressed by the following equation (1).

Figure 2012173916
Figure 2012173916

式(1)の積分の項に含まれるxをyの関数として表すと、下記の式(2)であるから、下記の式(3)が成立する。   When x included in the integral term of the equation (1) is expressed as a function of y, the following equation (2) is established.

Figure 2012173916
Figure 2012173916

Figure 2012173916
Figure 2012173916

ここで、式(3)を式(1)に代入すると、下記の式(4)が得られる。そして、半円の面積は、πa/2であるから、距離yは、下記の式(5)で表すことができる。 Here, when Expression (3) is substituted into Expression (1), the following Expression (4) is obtained. Then, the area of the semicircle, because it is? Pa 2/2, the distance y G can be expressed by the following equation (5).

Figure 2012173916
Figure 2012173916

Figure 2012173916
Figure 2012173916

なお、図5(a)では、aがレンズ11における開口半径である。また、この重心計算は、例えば、文献「http://www.mech.kanagawau.ac.jp/lab/urata_lab/class/MathMachAna/2003/mach08txt.pdf」に記載されている。   In FIG. 5A, a is the opening radius of the lens 11. The center of gravity calculation is described in, for example, the document “http://www.mech.kanagawau.ac.jp/lab/urata_lab/class/MathMachAna/2003/mach08txt.pdf”.

次に、図5(b)に示すように、カメラCの光学系において、偏光フィルタ11aを開口とした場合を考える。この場合、レンズ11の直径Φa=2aとなり、偏光フィルタ11aの重心位置G1は、ボケの中心位置から4a/3πの位置となる。また、第1撮像素子13の撮像面の直径Φb=2bとなり(但しbは第1撮像素子13の半径であり、後記する式(3)で定義される)、第1撮像素子13において、偏光フィルタ11aからの入射光が到達する領域の重心位置G2は、ボケの中心位置から4b/3πの位置となる。従って、ボケの半径をcとすると、4c/3πの位置となる撮像画像1,2では、視差量は、2×4c/3πと表すことができる。   Next, as shown in FIG. 5B, a case where the polarizing filter 11a is an aperture in the optical system of the camera C is considered. In this case, the diameter of the lens 11 is Φa = 2a, and the gravity center position G1 of the polarizing filter 11a is 4a / 3π from the center position of the blur. In addition, the diameter Φb = 2b of the imaging surface of the first imaging element 13 (where b is the radius of the first imaging element 13 and is defined by equation (3) described later), The barycentric position G2 of the region where the incident light from the filter 11a reaches is 4b / 3π from the center position of the blur. Therefore, when the blur radius is c, in the captured images 1 and 2 at the position of 4c / 3π, the parallax amount can be expressed as 2 × 4c / 3π.

図6に示すように、レンズ11では、レンズの公式より、下記の式(6)が成立する。ここで、oがレンズ11の主点であり、fがレンズ11の焦点であり、pがレンズ11の端点であり、a’がaの像であり、b’がbの像であり、Fが焦点距離(主点と焦点との距離)であり、Aが物面(被写体表面)から主点までの距離(奥行き値)であり、Bが主点から像面までの距離であり、mが倍率である。   As shown in FIG. 6, in the lens 11, the following formula (6) is established from the lens formula. Here, o is the principal point of the lens 11, f is the focal point of the lens 11, p is the end point of the lens 11, a 'is an image of a, b' is an image of b, F Is the focal length (distance between the principal point and the focal point), A is the distance (depth value) from the object plane (subject surface) to the principal point, B is the distance from the principal point to the image plane, m Is the magnification.

Figure 2012173916
Figure 2012173916

ここで、第1撮像素子13の撮像面が右側fに位置する。従って、図6から、ボケの中心位置と、視差量Dpとの関係は、下記の式(7),式(8)で表すことができる。なお、式式(7),式(8)では、opがレンズ11の開口径(つまり、偏光フィルタ11aの径)であり、Dpが視差量である。 Here, the imaging surface of the first imaging element 13 is located on the right side f. Therefore, from FIG. 6, the relationship between the center position of the blur and the parallax amount Dp can be expressed by the following equations (7) and (8). In Expressions (7) and (8), op is the aperture diameter of the lens 11 (that is, the diameter of the polarizing filter 11a), and Dp is the amount of parallax.

Figure 2012173916
Figure 2012173916

Figure 2012173916
Figure 2012173916

ここで、式(6)の倍率mがレンズ11の仕様から既知であり、開口径opも既知であるので、視差量算出部101が視差量Dpを算出する。従って、奥行き値換算部110は、式(6)〜式(8)を用いて、視差量Dpを奥行き値Aに換算することができる。
なお、換算式は、視差量と、カメラCからの距離である絶対的な奥行き値との関係がカメラCの設計および設定により異なるため、奥行き値換算部110に予め設定しておく。
Here, since the magnification m of Expression (6) is known from the specification of the lens 11 and the aperture diameter op is also known, the parallax amount calculation unit 101 calculates the parallax amount Dp. Therefore, the depth value conversion unit 110 can convert the parallax amount Dp into the depth value A using Expressions (6) to (8).
The conversion formula is set in advance in the depth value conversion unit 110 because the relationship between the parallax amount and the absolute depth value, which is the distance from the camera C, varies depending on the design and setting of the camera C.

なお、式(6)〜式(8)は、焦点位置が撮像面より後(撮像面の裏側)の場合であるが、焦点位置が撮像面より前の場合でも、同様に換算できる。このとき、撮像面の前後で換算式が異なるため、換算式を選択する必要がある。この場合、奥行き値換算部110は、例えば、視差0を境に視差の生じる方向が逆になるので、視差0を条件として換算式を選択すればよい。   In addition, although Formula (6)-Formula (8) is a case where a focus position is after an imaging surface (the back side of an imaging surface), even when a focal position is before an imaging surface, it can convert similarly. At this time, since the conversion formula differs before and after the imaging surface, it is necessary to select the conversion formula. In this case, for example, the depth value conversion unit 110 may select the conversion formula on the condition that the parallax is 0 because the direction in which the parallax is generated is reversed with the parallax being 0 as a boundary.

<奥行き値換算部による法線方向の算出>
続いて、図7,図8を参照して、奥行き値換算部110による法線方向の算出について説明する(適宜図4参照)。
<Calculation of normal direction by depth value conversion unit>
Next, calculation of the normal direction by the depth value conversion unit 110 will be described with reference to FIGS. 7 and 8 (see FIG. 4 as appropriate).

例えば、図7下段に示すように、注目画素Pと、注目画素Pの左側に隣接する近傍画素Pと、注目画素Pの右側に隣接する近傍画素Pとの奥行き値を求めたとする。このとき、図7上段に示すように、注目画素Pの奥行き値に対して、近傍画素Pの奥行き値が手前側を示しており、近傍画素Pの奥行き値が奥側を示しているとする。この場合、注目画素Pと近傍画素P,Pとの奥行き値が表す被写体表面αは、右側がカメラCに近く、左側がカメラCから遠くというように、カメラCに対して傾いている。このように、注目画素Pと近傍画素P,Pとの奥行き値から被写体表面αの向きがわかるため、被写体表面αの法線方向βを求めることができる。この被写体表面αの法線方向βは、カメラCの幾何学的位置を基準としている。 For example, as shown in FIG. 7 the lower part, and the pixel of interest P C, and the neighboring pixel P L adjacent to the left of the target pixel P C, the depth values of the neighboring pixels P R that is adjacent to the right side of the pixel of interest P C determined Suppose. At this time, as shown in FIG. 7 upper stage with respect to the depth value of the pixel of interest P C, the depth values of the neighboring pixels P R has shown the front side, the depth values of the neighboring pixels P L is shows a back side Suppose that In this case, the subject surface α represented by the depth values of the target pixel P C and the neighboring pixels P R and P L is inclined with respect to the camera C such that the right side is close to the camera C and the left side is far from the camera C. Yes. Thus, the pixel of interest P C and the neighboring pixel P R, the CPU recognizes the direction of the subject surface alpha from the depth values of the P L, it can be obtained in the normal direction β of the object surface alpha. The normal direction β of the subject surface α is based on the geometric position of the camera C.

このように、奥行き値換算部110は、注目画素Pを被写体の各部位に移動させながら、被写体の各部位ごとに表面の法線方向βを求めること繰り返す。この図7では、被写体の一部に注目しているが、被写体は、図8に示すように、3次元で撮像されることが多い。 Thus, the depth value conversion unit 110, while moving the pixel of interest P C to each part of the subject to repeat it obtains the normal direction β of the surface for each site of the subject. Although attention is paid to a part of the subject in FIG. 7, the subject is often imaged three-dimensionally as shown in FIG.

このため、多面体を被写体として、この被写体表面の法線方向を算出する場合を考える。図8では、多面体の底面である面1を被写体表面する。また、この多面体は、各面に頂点P1〜P8を有しており、凸多角形とする。これら頂点P1〜P8は、多面体外部から見て右回りに与えられている。また、視点はカメラCの位置を示す。また、視線ベクトルはカメラCの視線(レンズ11の光軸)を示すベクトルである。また、法線ベクトルは面1の法線を示すベクトルである。この場合、奥行き値換算部110は、面1の法線Nを、下記の式(9)に示すように2線分の外積で算出することができる。   For this reason, consider a case where the normal direction of the surface of the subject is calculated using a polyhedron as the subject. In FIG. 8, a surface 1 that is the bottom surface of the polyhedron is the subject surface. The polyhedron has vertices P1 to P8 on each surface, and is a convex polygon. These vertices P1 to P8 are given clockwise when viewed from the outside of the polyhedron. The viewpoint indicates the position of the camera C. The line-of-sight vector is a vector indicating the line of sight of the camera C (the optical axis of the lens 11). The normal vector is a vector indicating the normal of the surface 1. In this case, the depth value conversion unit 110 can calculate the normal N of the surface 1 as an outer product of two lines as shown in the following equation (9).

Figure 2012173916
Figure 2012173916

ここでは、P=(x,y,z)、P=(x,y,z)、P=(x,y,z)で定義されている。従って、この図8では、この法線Nの方向が、被写体表面の法線方向となる。
なお、この手法は、例えば、ホームページ「http://nis-lab.is.s.u-tokyo.ac.jp/nis/CG/cgtxt/furoku/fu1.htm#Appendix%EF%BC%91」に記載されている。
Here, it is defined by P 1 = (x 1 , y 1 , z 1 ), P 2 = (x 2 , y 2 , z 2 ), P 3 = (x 3 , y 3 , z 3 ). Therefore, in FIG. 8, the direction of the normal line N is the normal direction of the subject surface.
This method is described, for example, on the homepage "http://nis-lab.is.su-tokyo.ac.jp/nis/CG/cgtxt/furoku/fu1.htm#Appendix%EF%BC%91" Has been.

図4に戻り、画像処理情報生成装置100の構成について説明を続ける。
カメラパラメータ算出部120は、奥行き値換算部110から奥行き情報が入力され、この奥行き情報が示す奥行き値に最適化処理を行って、カメラCの位置および方向を算出するものである。このカメラパラメータ算出部120は、例えば、最小二乗法などの最適化処理を行ってカメラCの位置および方向を、カメラパラメータとして算出する。そして、カメラパラメータ算出部120は、算出したカメラパラメータを、奥行き情報記憶部130および反射特性推定部140に出力する。
Returning to FIG. 4, the description of the configuration of the image processing information generation apparatus 100 will be continued.
The camera parameter calculation unit 120 receives the depth information from the depth value conversion unit 110, performs optimization processing on the depth value indicated by the depth information, and calculates the position and direction of the camera C. The camera parameter calculation unit 120 calculates the position and direction of the camera C as camera parameters by performing an optimization process such as a least square method, for example. Then, the camera parameter calculation unit 120 outputs the calculated camera parameters to the depth information storage unit 130 and the reflection characteristic estimation unit 140.

なお、カメラパラメータの算出手法は、例えば、文献「画像から復元された3次元特徴点マップ群の世界座標系への統合,社団法人 電子情報通信学会,2010年電子情報通信学会総合大会,http://www.kameda-lab.org/research/publication/2010/201003_IEICE/201003IEICE-d_12_077-HayashiM.pdf」に記載されている。
また、カメラパラメータ算出部120は、例えば、ニュートン法、Powell法、共役勾配法などの最適化手法を用いることも可能である。
The camera parameter calculation method is described in, for example, the document “Integration of 3D feature point maps restored from images into the world coordinate system, The Institute of Electronics, Information and Communication Engineers, 2010 IEICE General Conference, http: //www.kameda-lab.org/research/publication/2010/201003_IEICE/201003IEICE-d_12_077-HayashiM.pdf ”.
The camera parameter calculation unit 120 can also use an optimization method such as Newton's method, Powell's method, or conjugate gradient method.

奥行き情報記憶部130は、奥行き値換算部110から奥行き情報および被写体表面の法線方向が入力され、カメラパラメータ算出部120からカメラパラメータが入力され、この奥行き情報および法線方向を記憶するものである。このため、奥行き情報記憶部130は、記憶装置13aと、記憶装置制御部13bとを備える。この記憶装置13aは、奥行き情報を記憶する、例えば、メモリである。また、記憶装置制御部13bは、記憶装置13aへの書き込みおよび記憶装置13aからの読み出しを制御するものである。   The depth information storage unit 130 receives depth information and the normal direction of the subject surface from the depth value conversion unit 110, receives camera parameters from the camera parameter calculation unit 120, and stores the depth information and normal direction. is there. For this reason, the depth information storage unit 130 includes a storage device 13a and a storage device control unit 13b. The storage device 13a is, for example, a memory that stores depth information. The storage device control unit 13b controls writing to the storage device 13a and reading from the storage device 13a.

ここで、カメラパラメータ(カメラCの方向および位置)が入力されるため、記憶装置制御部13bは、奥行き情報、被写体表面の法線方向および撮像画像1,2の輝度値を、世界座標を基準に仮想空間内で位置合わせを行って記憶装置13aに記憶する。   Here, since the camera parameters (the direction and position of the camera C) are input, the storage device control unit 13b uses the world coordinates based on the depth information, the normal direction of the subject surface, and the luminance values of the captured images 1 and 2. Are aligned in the virtual space and stored in the storage device 13a.

なお、本実施形態では、記憶装置13aに設けられたボクセル空間上で、奥行き情報、被写体表面の法線方向および撮像画像1,2の輝度値を記憶した。また、奥行き情報は、奥行き値が得られたボクセル座標に対して投票処理(+1の投票処理)を行って、被写体表面の存在有無のラベルおよびポリゴン化の補助情報として記憶される。   In the present embodiment, the depth information, the normal direction of the subject surface, and the luminance values of the captured images 1 and 2 are stored on the voxel space provided in the storage device 13a. Further, the depth information is subjected to a voting process (+1 voting process) on the voxel coordinates from which the depth value is obtained, and is stored as a label indicating the presence / absence of the object surface and auxiliary information for polygonization.

反射特性推定部140は、カメラCから撮像画像1,2が入力され、カメラパラメータ算出部120からカメラパラメータが入力され、奥行き情報記憶部130が記憶する奥行き情報および被写体表面の法線方向を参照して、反射特性情報と、照明情報とを生成するものである。このため、反射特性推定部140は、拡散反射光成分画像生成部141と、鏡面反射光成分画像生成部142と、照明方向算出部(光源方向算出部)143と、照明情報生成部(光源情報生成部)144と、反射係数算出部145とを備える。   The reflection characteristic estimation unit 140 receives the captured images 1 and 2 from the camera C, receives camera parameters from the camera parameter calculation unit 120, and refers to the depth information stored in the depth information storage unit 130 and the normal direction of the subject surface. Thus, the reflection characteristic information and the illumination information are generated. Therefore, the reflection characteristic estimation unit 140 includes a diffuse reflection light component image generation unit 141, a specular reflection light component image generation unit 142, an illumination direction calculation unit (light source direction calculation unit) 143, and an illumination information generation unit (light source information). Generation section) 144 and a reflection coefficient calculation section 145.

拡散反射光成分画像生成部141は、撮像画像1,2での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、対応画素ごとの最小輝度値を示す拡散反射光成分画像を生成するものである。   The diffuse reflected light component image generation unit 141 selects the smaller luminance value of the corresponding pixels in the captured images 1 and 2 as the minimum luminance value, and the diffuse reflected light component image indicating the minimum luminance value for each corresponding pixel. Is generated.

ここで、撮像画像1には横方向の偏光成分が含まれておらず、撮像画像2には縦方向の偏光成分が含まれていない。また、前記したように、例えば、斜め45度方向に偏光した鏡面反射光が入射した場合、第1撮像素子13および第2撮像素子14では、鏡面反射光が同じ光量となるために、最小輝度値を選択しても、鏡面反射光成分の抑制を行うことが困難である。すなわち、鏡面反射光成分の抑制は、45度からずれた状態となることで、その効果が生じる。この影響を光学系で低減するには、構成が大規模、複雑化し、現実的でない。   Here, the captured image 1 does not include a horizontal polarization component, and the captured image 2 does not include a vertical polarization component. Further, as described above, for example, when specular reflection light polarized in an oblique 45 degree direction is incident, the first image sensor 13 and the second image sensor 14 have the same amount of specular reflection light. Even if the value is selected, it is difficult to suppress the specular reflection light component. That is, the effect of suppressing the specular reflection light component is brought about by shifting from 45 degrees. In order to reduce this influence by the optical system, the configuration becomes large and complicated, which is not practical.

さらに、一定時間、様々な偏光方向の鏡面反射光成分による輝度値を求めると、その中で、確率的に偏光フィルタ11a,11bと直交する、または、直交に近い状態となる可能性がある。この場合、鏡面反射光成分は、偏光フィルタ11a,11bの一方で遮蔽されることになる。このため、拡散反射光成分画像生成部141は、撮像画像1,2での対応画素のうち、各対応座標の最小輝度値を選択して集めることで、鏡面反射光成分を抑制した拡散反射光成分画像を生成する。これによって、拡散反射光成分画像生成部141は、拡散反射光成分と、鏡面反射光成分との分離精度が従来技術より向上させ、鏡面反射光成分が含まれにくく、精度の高い拡散反射光成分を抽出可能となる。   Further, when the luminance value by the specular reflection light component of various polarization directions is obtained for a certain time, there is a possibility that the state is probabilistically orthogonal to the polarization filters 11a and 11b or close to orthogonal. In this case, the specular reflection light component is shielded by one of the polarization filters 11a and 11b. For this reason, the diffuse reflection light component image generation unit 141 selects and collects the minimum luminance values of the corresponding coordinates among the corresponding pixels in the captured images 1 and 2 to thereby collect the diffuse reflection light that suppresses the specular reflection light component. Generate component images. As a result, the diffuse reflected light component image generation unit 141 improves the separation accuracy between the diffuse reflected light component and the specular reflected light component compared to the prior art, and the diffuse reflected light component is less likely to be included and highly accurate. Can be extracted.

図9の例では、拡散反射光成分画像生成部141は、撮像画像1,2で左上に位置する画素を対応画素とする。また、拡散反射光成分画像生成部141は、2つの対応画素のうち、輝度値が小さい方を最小輝度値として選択する。そして、拡散反射光成分画像生成部141は、選択した最小輝度値を、対応画素と同一位置にある画素(例えば、左上の画素)の輝度値とする。このような処理を、拡散反射光成分画像生成部141は、撮像画像1,2内で対応画素を移動させながら、全ての対応画素に前記した処理を繰り返し行って、拡散反射光成分画像を生成する。つまり、拡散反射光成分画像は、撮像画像1,2での対応画素のうち、輝度値が小さい方の画素で構成された画像であり、拡散反射光成分を示す。   In the example of FIG. 9, the diffuse reflected light component image generation unit 141 sets the pixel located at the upper left in the captured images 1 and 2 as the corresponding pixel. In addition, the diffuse reflected light component image generation unit 141 selects the smaller one of the two corresponding pixels as the minimum luminance value. Then, the diffuse reflected light component image generation unit 141 sets the selected minimum luminance value as the luminance value of the pixel (for example, the upper left pixel) at the same position as the corresponding pixel. The diffuse reflected light component image generation unit 141 performs such processing repeatedly on the corresponding pixels while moving the corresponding pixels in the captured images 1 and 2 to generate a diffuse reflected light component image. To do. That is, the diffuse reflected light component image is an image composed of pixels with smaller luminance values among the corresponding pixels in the captured images 1 and 2 and indicates the diffuse reflected light component.

鏡面反射光成分画像生成部142は、撮像画像1,2での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、対応画素ごとの最大輝度値と最小輝度値との差分を示す鏡面反射光成分画像を生成するものである。   The specular reflection light component image generation unit 142 selects the largest luminance value among the corresponding pixels in the captured images 1 and 2 as the maximum luminance value, and calculates the difference between the maximum luminance value and the minimum luminance value for each corresponding pixel. The specular reflection component image shown is generated.

この鏡面反射光成分画像生成部142は、拡散反射光成分画像生成部141と同様、撮像画像1,2で左上に位置する対応画素のうち、輝度値が大きい方を最大輝度値として選択する。また、拡散反射光成分画像生成部141は、拡散反射光成分画像生成部141が生成した拡散反射光成分画像を参照して、この対応画素の最小輝度値を取得する。そして、拡散反射光成分画像生成部141は、選択した最大輝度値と、拡散反射光成分画像から取得した最小輝度値との差分を、対応画素と同一位置にある画素(例えば、左上の画素)の輝度値とする。このような処理を、鏡面反射光成分画像生成部142は、撮像画像1,2内で対応画素を移動させながら、全ての対応画素に繰り返し行って、鏡面反射光成分画像を生成する。つまり、鏡面反射光成分画像は、最大輝度値と最小輝度値との差分が輝度値となる画素で構成された画像であり、鏡面反射光成分を示す。   Similar to the diffuse reflection light component image generation unit 141, the specular reflection light component image generation unit 142 selects, as the maximum luminance value, the larger luminance value among the corresponding pixels located in the upper left of the captured images 1 and 2. Further, the diffuse reflection light component image generation unit 141 refers to the diffuse reflection light component image generated by the diffuse reflection light component image generation unit 141 and acquires the minimum luminance value of the corresponding pixel. Then, the diffuse reflected light component image generation unit 141 determines the difference between the selected maximum brightness value and the minimum brightness value acquired from the diffuse reflected light component image as a pixel at the same position as the corresponding pixel (for example, the upper left pixel). Luminance value. The specular reflection component image generation unit 142 repeatedly performs such processing on all corresponding pixels while moving the corresponding pixels in the captured images 1 and 2 to generate a specular reflection component image. That is, the specular reflection component image is an image composed of pixels in which the difference between the maximum luminance value and the minimum luminance value becomes the luminance value, and indicates the specular reflection component.

照明方向算出部(光源方向算出部)143は、被写体表面の法線方向およびカメラCの位置から、被写体Aでの反射光の入射角を算出し、算出した入射角の方向を照明の方向として算出するものである。   The illumination direction calculation unit (light source direction calculation unit) 143 calculates the incident angle of the reflected light from the subject A from the normal direction of the subject surface and the position of the camera C, and uses the calculated direction of the incident angle as the illumination direction. Is to be calculated.

ここで、カメラCの位置と、被写体表面の法線方向とから、反射の法則により、被写体Aで反射された反射光の出射角が算出できる。言い換えるなら、カメラCの視線が反射光の出射角から外れるほど、鏡面反射光の強度が極端に小さくなる。このことから、照明方向算出部143は、鏡面反射であれば、入射角=反射角となるので、反射光の入射角が示す方向を、この反射光の元となる光を照射した照明Lの方向として算出する。   Here, from the position of the camera C and the normal direction of the subject surface, the emission angle of the reflected light reflected by the subject A can be calculated by the law of reflection. In other words, the intensity of the specular reflected light becomes extremely small as the line of sight of the camera C deviates from the reflected light emission angle. From this, if the illumination direction calculation unit 143 is specular reflection, the incident angle is equal to the reflection angle. Therefore, the direction indicated by the incident angle of the reflected light indicates the direction of the illumination L irradiated with the light that is the source of the reflected light. Calculate as direction.

照明情報生成部(光源情報生成部)144は、鏡面反射光成分画像生成部142が生成した鏡面反射光成分画像、および、照明方向算出部143が算出した照明Lの方向に基づいて照明Lの光量を算出し、算出した照明Lの光量および方向を照明情報として生成するものである。   The illumination information generation unit (light source information generation unit) 144 is based on the specular reflection component image generated by the specular reflection component image generation unit 142 and the direction of the illumination L calculated by the illumination direction calculation unit 143. The light quantity is calculated, and the calculated light quantity and direction of the illumination L are generated as illumination information.

<照明情報生成部による照明情報の生成>
図10を参照して、照明情報生成部144による照明情報の生成について説明する(適宜図4参照)。
ここで、照明情報生成部144は、最小輝度値と最大輝度値との差(=鏡面反射光成分画像が示す鏡面反射光成分の強度)と、照明Lの方向との関係より、被写体表面と照明Lの方向のなす線上における照明Lの光量を取得できる。計算を簡略化するため、図10に示すように、ある半径の仮想球Vbを予め設定し、その仮想球面を格子状に予め分割した場合を考える。この場合、照明情報生成部144は、各格子頂点に、取得した照明Lの光量を対応付けて記憶する。
<Generation of illumination information by illumination information generation unit>
With reference to FIG. 10, generation of illumination information by the illumination information generation unit 144 will be described (see FIG. 4 as appropriate).
Here, the illumination information generation unit 144 determines the difference between the minimum luminance value and the maximum luminance value (= intensity of the specular reflection light component indicated by the specular reflection light component image) and the surface of the subject based on the direction of the illumination L. The light quantity of the illumination L on the line formed by the direction of the illumination L can be acquired. In order to simplify the calculation, consider a case where a virtual sphere Vb having a certain radius is set in advance and the virtual sphere is previously divided into a lattice shape as shown in FIG. In this case, the illumination information generation unit 144 stores the acquired light amount of the illumination L in association with each lattice vertex.

このとき、各格子頂点には、被写体表面での反射により、複数の反射光が入射することがある。図10の例では、格子頂点Sp1に2本の反射光が入射している。このように、ある格子頂点に複数の反射光が入射した場合、これら反射光のうち、強度が最大となる反射光の入射角が示す方向に照明Lが存在する可能性が高くなる。従って、照明情報生成部144は、各格子頂点に入射した複数の反射光の中で強度が最大値となるものを、その格子頂点における照明Lの光量として選択する。そして、照明情報生成部144は、各格子位置における照明Lの光量を、ゼロから最大光量までの間で正規化して、照明Lの方向と共に照明情報として記憶する。つまり、照明情報は、正規化されることから、相対値で表されることになる。   At this time, a plurality of reflected lights may enter each lattice vertex due to reflection on the surface of the subject. In the example of FIG. 10, two reflected lights are incident on the lattice vertex Sp1. In this way, when a plurality of reflected lights are incident on a certain lattice vertex, there is a high possibility that the illumination L exists in the direction indicated by the incident angle of the reflected light having the maximum intensity among these reflected lights. Therefore, the illumination information generation unit 144 selects, as the light quantity of the illumination L at the lattice vertex, the one having the maximum intensity among the plurality of reflected lights incident on each lattice vertex. And the illumination information generation part 144 normalizes the light quantity of the illumination L in each lattice position from zero to the maximum light quantity, and memorize | stores it as illumination information with the direction of the illumination L. FIG. That is, since the illumination information is normalized, it is represented by a relative value.

この照明情報は、ハイクオリティなCGをレンダリングする際、一般的に利用されるHDR全方位画像と同等なものである。従って、照明情報は、別途CG部品をレンダリングして撮影中に合成する際、リアリティを向上させる有効な情報となる。
なお、照明情報は、例えば、ホームページ「http://ict.debevec.org/~debevec/Research/HDR/」に詳細に記載されている。
This illumination information is equivalent to an HDR omnidirectional image that is generally used when rendering a high-quality CG. Therefore, the illumination information is effective information for improving the reality when a separate CG component is rendered and combined during shooting.
The lighting information is described in detail on the homepage “http://ict.debevec.org/˜debevec/Research/HDR/”, for example.

図4に戻り、画像処理情報生成装置100の構成について説明を続ける。
反射係数算出部145は、照明情報生成部144が生成した照明情報と、鏡面反射光成分画像と、拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を反射特性情報として算出するものである。
Returning to FIG. 4, the description of the configuration of the image processing information generation apparatus 100 will be continued.
The reflection coefficient calculation unit 145 performs an optimization process that applies a reflection model to the illumination information generated by the illumination information generation unit 144, the specular reflection light component image, and the diffuse reflection light component image, to thereby obtain a specular reflection coefficient. The diffuse reflection coefficient is calculated as reflection characteristic information.

ここで、照明情報生成部144までの処理によって、カメラCの位置(つまり、レンズ11の主点位置)と、仮想空間における被写体Aの位置と、被写体表面の法線と、被写体に対する入射光とが既知である。ここで、入射光については仮想球面上に格子状に配列された格子位置に対応している。また、照明Lは、指向性を持たず、その格子位置から、全方位に光線を出射していると仮定している。つまり、照明Lは、スポットライトなどのような配光特性に偏りがあるものではないと仮定している。   Here, by the processing up to the illumination information generation unit 144, the position of the camera C (that is, the principal point position of the lens 11), the position of the subject A in the virtual space, the normal of the subject surface, and the incident light on the subject Is known. Here, the incident light corresponds to the lattice positions arranged in a lattice shape on the virtual spherical surface. Further, it is assumed that the illumination L has no directivity and emits light rays in all directions from the lattice position. That is, the illumination L is assumed to have no bias in light distribution characteristics such as a spotlight.

以上の条件から、反射係数算出部145は、反射モデルを適用した最適化処理を行うことで反射特性情報を算出できる。ここで、反射係数算出部145は、例えば、Phongモデルを適用したマーカート法によって、鏡面反射係数、拡散反射係数およびCos関数の次数を反射特性情報として算出している。   From the above conditions, the reflection coefficient calculation unit 145 can calculate the reflection characteristic information by performing an optimization process to which the reflection model is applied. Here, the reflection coefficient calculation unit 145 calculates the specular reflection coefficient, the diffuse reflection coefficient, and the order of the Cos function as the reflection characteristic information, for example, by the Markert method to which the Phong model is applied.

なお、反射係数算出部145は、反射モデルや最適化手法が制限されるものではない。例えば、反射係数算出部145は、BRDF(Bidirectional Reflectance Distribution Function)などの反射モデルや、ニュートン法、Powell法、共役勾配法などの最適化手法を用いることも可能である。   Note that the reflection coefficient calculation unit 145 is not limited to a reflection model or an optimization method. For example, the reflection coefficient calculation unit 145 can use a reflection model such as BRDF (Bidirectional Reflectance Distribution Function) or an optimization method such as a Newton method, a Powell method, or a conjugate gradient method.

パラメータ設定部150は、画像処理情報生成装置100に必要な設定パラメータが入力され、入力された設定パラメータを画像処理情報生成装置100の各手段に出力するものである。ここで、例えば、パラメータ設定部150は、後記する奥行き抽出範囲に加減算する所定の値が設定パラメータとして入力されるので、この所定の値を奥行き抽出範囲算出部160に出力する。   The parameter setting unit 150 receives necessary setting parameters for the image processing information generation apparatus 100 and outputs the input setting parameters to each unit of the image processing information generation apparatus 100. Here, for example, since a predetermined value to be added to or subtracted from the depth extraction range described later is input as the setting parameter, the parameter setting unit 150 outputs this predetermined value to the depth extraction range calculation unit 160.

奥行き抽出範囲算出部160は、カメラCから撮像画像2が入力され、パラメータ設定部150から所定の値が入力され、この撮像画像2から顔領域検出処理により顔領域を検出するものである。そして、奥行き抽出範囲算出部160は、検出した顔領域に含まれる全画素の奥行き値の平均値を算出し、算出した平均値に所定の値を加減算して奥行き抽出範囲を求める。より具体的には、奥行き抽出範囲算出部160は、算出した平均値に所定の値を加算した値を奥行き抽出範囲の上限とし、算出した平均値から所定の値を減算した値を奥行き抽出範囲の下限として算出する。その後、奥行き抽出範囲算出部160は、算出した奥行き抽出範囲を被写体領域抽出部170に出力する。
なお、奥行き抽出範囲算出部160は、例えば、顔領域検出処理として、肌色領域を抽出する手法を利用することができる。
The depth extraction range calculation unit 160 receives the captured image 2 from the camera C, receives a predetermined value from the parameter setting unit 150, and detects a face region from the captured image 2 by face region detection processing. Then, the depth extraction range calculation unit 160 calculates the average value of the depth values of all the pixels included in the detected face area, and calculates the depth extraction range by adding or subtracting a predetermined value to the calculated average value. More specifically, the depth extraction range calculation unit 160 sets a value obtained by adding a predetermined value to the calculated average value as an upper limit of the depth extraction range, and calculates a value obtained by subtracting the predetermined value from the calculated average value. Calculated as the lower limit of. Thereafter, the depth extraction range calculation unit 160 outputs the calculated depth extraction range to the subject region extraction unit 170.
Note that the depth extraction range calculation unit 160 can use a method of extracting a skin color region, for example, as face region detection processing.

被写体領域抽出部170は、カメラCから撮像画像2が入力され、奥行き抽出範囲算出部160から奥行き抽出範囲が入力され、奥行き情報記憶部130が記憶する奥行き情報を参照して、この撮像画像2から、奥行き値が奥行き抽出範囲に含まれる領域を被写体領域として抽出するものである。   The subject region extraction unit 170 receives the captured image 2 from the camera C, receives the depth extraction range from the depth extraction range calculation unit 160, and refers to the depth information stored in the depth information storage unit 130. Thus, an area whose depth value is included in the depth extraction range is extracted as a subject area.

つまり、被写体領域抽出部170は、撮像画像2のある画素に対応する奥行き値が、奥行き抽出範囲に含まれるか否かを判定する。そして、被写体領域抽出部170は、奥行き値が奥行き抽出範囲に含まれる場合、その画素を被写体領域の画素として抽出する。この処理を、被写体領域抽出部170は、撮像画像2の全ての画素に繰り返し行って被写体領域を抽出して出力する。   That is, the subject area extraction unit 170 determines whether or not a depth value corresponding to a certain pixel of the captured image 2 is included in the depth extraction range. Then, when the depth value is included in the depth extraction range, the subject region extraction unit 170 extracts the pixel as a pixel of the subject region. The subject area extraction unit 170 repeats this process for all the pixels of the captured image 2 to extract and output the subject area.

以上のように、被写体領域抽出部170は、奥行き値から撮像画像2の中で奥行き抽出範囲の奥行き値の領域を選択することで、撮像画像2の特定位置に配置された被写体を切り出すことが可能である。この被写体領域の抽出は、映像制作、特に、映像合成でニーズが高い処理である。   As described above, the subject region extraction unit 170 extracts a subject placed at a specific position in the captured image 2 by selecting a depth value region in the depth extraction range in the captured image 2 from the depth value. Is possible. This extraction of the subject area is a process that is highly needed in video production, particularly video synthesis.

なお、被写体領域抽出部170は、被写体領域の抽出方法が特に制限されない。例えば、画像処理情報生成装置100は、奥行き値の上限、下限を入力する2つの可変抵抗つまみを備える(不図示)。そして、被写体領域抽出部170は、これら可変抵抗つまみが操作されることで、奥行き値の上限、下限を手動で設定してもよい。   Note that the subject region extraction unit 170 is not particularly limited in the subject region extraction method. For example, the image processing information generation apparatus 100 includes two variable resistance knobs (not shown) for inputting an upper limit and a lower limit of the depth value. Then, the subject area extraction unit 170 may manually set the upper limit and the lower limit of the depth value by operating these variable resistance knobs.

なお、奥行き抽出範囲算出部160および被写体領域抽出部170は、撮像画像2に対して処理を行ったが、撮像画像1に処理を行ってもよい。この場合、撮像画像1,2の何れを対象とするか、パラメータ設定部150にパラメータとして入力してもよい。   Note that the depth extraction range calculation unit 160 and the subject region extraction unit 170 perform processing on the captured image 2, but may perform processing on the captured image 1. In this case, which of the captured images 1 and 2 is the target may be input to the parameter setting unit 150 as a parameter.

なお、本実施形態では、光源として照明Lを説明したが、本発明は、これに限定されない。つまり、本発明では、照明L以外の自然光(例えば、太陽光)を光源として、その光源情報を求めてもよい。   In addition, although this embodiment demonstrated the illumination L as a light source, this invention is not limited to this. That is, in the present invention, the light source information may be obtained using natural light (for example, sunlight) other than the illumination L as a light source.

なお、本実施形態では、カメラCが動画で撮像を行い、画像処理情報生成装置100がこの動画の各フレーム画像を処理することとして説明したが、本発明は、これに限定されない。つまり、カメラCが静止画で撮像を行い、画像処理情報生成装置100がこの静止画を処理してもよい。   In the present embodiment, it has been described that the camera C captures a moving image and the image processing information generation apparatus 100 processes each frame image of the moving image. However, the present invention is not limited to this. That is, the camera C may capture a still image, and the image processing information generation apparatus 100 may process the still image.

[画像処理情報生成装置の動作]
図11を参照して、図4の画像処理情報生成装置100の動作について説明する(適宜図4参照)。
ここで、画像処理情報生成装置100には、撮像画像1,2が入力されていることとする。
[Operation of Image Processing Information Generating Device]
The operation of the image processing information generation apparatus 100 in FIG. 4 will be described with reference to FIG. 11 (see FIG. 4 as appropriate).
Here, it is assumed that captured images 1 and 2 are input to the image processing information generation apparatus 100.

画像処理情報生成装置100は、視差量算出部101によって、対応画素ごとの視差量を算出する(ステップS1)。また、画像処理情報生成装置100は、奥行き値換算部110によって、視差量を換算式で対応画素ごとの奥行き値に換算し、被写体表面の法線方向を算出する(ステップS2)。   In the image processing information generation device 100, the parallax amount calculation unit 101 calculates the parallax amount for each corresponding pixel (step S1). Further, the image processing information generation apparatus 100 converts the parallax amount into a depth value for each corresponding pixel using a conversion formula by the depth value conversion unit 110, and calculates the normal direction of the subject surface (step S2).

画像処理情報生成装置100は、カメラパラメータ算出部120によって、最小二乗法などの最適化処理を行ってカメラCの位置および方向を、カメラパラメータとして算出する(ステップS3)。   In the image processing information generation apparatus 100, the camera parameter calculation unit 120 performs optimization processing such as a least square method to calculate the position and direction of the camera C as camera parameters (step S3).

画像処理情報生成装置100は、拡散反射光成分画像生成部141によって、撮像画像1,2での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、対応画素ごとの最小輝度値を示す拡散反射光成分画像を生成する(ステップS4)。   In the image processing information generation apparatus 100, the diffuse reflected light component image generation unit 141 selects the smaller luminance value of the corresponding pixels in the captured images 1 and 2 as the minimum luminance value, and the minimum luminance for each corresponding pixel A diffuse reflected light component image indicating the value is generated (step S4).

画像処理情報生成装置100は、鏡面反射光成分画像生成部142によって、撮像画像1,2での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、対応画素ごとの最大輝度値と最小輝度値との差分を示す鏡面反射光成分画像を生成する(ステップS5)。   In the image processing information generation apparatus 100, the specular reflection light component image generation unit 142 selects the larger luminance value of the corresponding pixels in the captured images 1 and 2 as the maximum luminance value, and the maximum luminance value for each corresponding pixel. A specular reflection light component image indicating the difference between the minimum luminance value and the minimum luminance value is generated (step S5).

画像処理情報生成装置100は、照明方向算出部143によって、被写体表面の法線方向およびカメラCの位置から、被写体での反射光の入射角を算出し、算出した入射角の方向を照明の方向として算出する(ステップS6)。   In the image processing information generation apparatus 100, the illumination direction calculation unit 143 calculates the incident angle of the reflected light from the subject from the normal direction of the subject surface and the position of the camera C, and the direction of the calculated incident angle is the direction of illumination. (Step S6).

画像処理情報生成装置100は、照明情報生成部144によって、鏡面反射光成分画像および照明Lの方向に基づいて照明Lの光量を算出し、算出した照明Lの光量および方向を照明情報として生成する(ステップS7)。   In the image processing information generation device 100, the illumination information generation unit 144 calculates the light amount of the illumination L based on the specular reflection component image and the direction of the illumination L, and generates the calculated light amount and direction of the illumination L as illumination information. (Step S7).

画像処理情報生成装置100は、反射係数算出部145によって、照明情報と、鏡面反射光成分画像と、拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を算出する(ステップS8)。   In the image processing information generation device 100, the reflection coefficient calculation unit 145 performs an optimization process that applies a reflection model to the illumination information, the specular reflection light component image, and the diffuse reflection light component image, and the specular reflection coefficient. Then, the diffuse reflection coefficient is calculated (step S8).

画像処理情報生成装置100は、奥行き抽出範囲算出部160によって、撮像画像2から顔領域検出処理により顔領域を検出し、検出した顔領域に含まれる全画素の奥行き値の平均値を算出し、算出した平均値に所定の値を加減算して奥行き抽出範囲を求める(ステップS9)。   The image processing information generating apparatus 100 detects a face area by the face area detection process from the captured image 2 by the depth extraction range calculation unit 160, calculates an average value of depth values of all pixels included in the detected face area, A depth extraction range is obtained by adding or subtracting a predetermined value to the calculated average value (step S9).

画像処理情報生成装置100は、被写体領域抽出部170によって、奥行き情報記憶部130が記憶する奥行き情報を参照して、撮像画像2から、奥行き値が奥行き抽出範囲に含まれる領域を被写体領域として抽出する(ステップS10)。   In the image processing information generation device 100, the subject region extraction unit 170 refers to the depth information stored in the depth information storage unit 130 and extracts, from the captured image 2, a region whose depth value is included in the depth extraction range as a subject region. (Step S10).

以上のように、本発明の実施形態に係る撮像装置1は、カメラCが簡素であると共に、このカメラCが撮像した撮像画像1,2を用いて、奥行き情報、反射特性情報および照明情報をまとめて生成できる。従って、撮像装置1は、奥行き情報、反射特性情報および光源情報ごとに、各情報を生成するための固有の装置を必要とせず、カメラCの構成を簡易にすることができる。さらに、撮像装置1は、カメラCで撮像を行う際に、パターン光を被写体に照射する必要がないため、光外乱の多い環境でも利用することができる。   As described above, in the imaging apparatus 1 according to the embodiment of the present invention, the camera C is simple, and the depth information, the reflection characteristic information, and the illumination information are obtained using the captured images 1 and 2 captured by the camera C. Can be generated together. Therefore, the imaging device 1 does not require a unique device for generating each piece of information for each of depth information, reflection characteristic information, and light source information, and can simplify the configuration of the camera C. Furthermore, since the imaging apparatus 1 does not need to irradiate the subject with pattern light when imaging with the camera C, the imaging apparatus 1 can be used even in an environment with a lot of light disturbance.

従来技術では、奥行き情報や反射特性情報を取得するには、大型の計測装置を用いる必要があった。しかし、撮像装置1は、カメラCを家庭用ハンディカメラ程度に小型化することができる。また、高精度で欠落のない奥行き情報の取得が困難な場合でも、撮像装置1は、画像処理情報生成装置100によって、映像制作に求められる品質で、被写体領域の切り出すことができる。さらに、撮像装置1は、カメラC自体が簡易な構成で動画撮像が可能なため、テレビ番組や映画などの映像制作に適している。   In the prior art, in order to acquire depth information and reflection characteristic information, it is necessary to use a large measuring device. However, the imaging apparatus 1 can reduce the size of the camera C to the same level as a home-use handy camera. In addition, even when it is difficult to acquire depth information that is highly accurate and has no omission, the imaging apparatus 1 can extract the subject area with the quality required for video production by the image processing information generation apparatus 100. Furthermore, the imaging device 1 is suitable for video production such as television programs and movies because the camera C itself can capture moving images with a simple configuration.

また、従来技術では、撮像後に、映像合成や照明条件の変更などの映像制作を行うには、多大な労力と、高いスキルとが要求される。これらは、撮像時に映像制作を想定して撮像を行っても、ある程度の労力の低減しか望めない。このため、利用者が映像制作を行うことは稀であり、映像制作のニーズはあるものの、また多大な労力や専門知識の必要性から、映像制作の動機付けが困難な状況である。しかし、撮像装置1は、通常のカメラ撮像と同程度の労力で画像処理情報の生成処理を格段に省力化して、かつ、映像制作の自由度を高めることができる。これによって、撮像装置1は、利用者が、映像制作の専門知識や多大な労力を要することなく、所望の映像制作を行うことができる。言い換えるなら、撮像装置1は、利用者のスキルやセンスに依存することなく、映像制作を可能とする。   Further, in the prior art, a great deal of labor and high skill are required to perform video production such as video synthesis and changing illumination conditions after imaging. These can only be expected to reduce labor to some extent even if imaging is performed assuming video production at the time of imaging. For this reason, although it is rare that a user performs video production and there is a need for video production, the motivation of video production is difficult due to the necessity of a great deal of labor and expertise. However, the imaging apparatus 1 can greatly save the generation processing of image processing information with the same level of effort as that of normal camera imaging, and can increase the degree of freedom of video production. As a result, the imaging apparatus 1 allows the user to perform desired video production without requiring specialized knowledge and great effort for video production. In other words, the imaging device 1 enables video production without depending on the skill and sense of the user.

本発明の実施形態に係る撮像装置1について説明したが、本発明は、前記した実施形態に限定されず、種々の変更を加えることができる。以下、本発明の変形例に係る撮像装置1について、第1実施形態と異なる点について説明する。   Although the imaging apparatus 1 according to the embodiment of the present invention has been described, the present invention is not limited to the above-described embodiment, and various modifications can be made. Hereinafter, the imaging device 1 according to the modification of the present invention will be described with respect to differences from the first embodiment.

(変形例:絶対値で表された照明情報)
図1に示すように、撮像装置1は、撮像のタイミングに合わせて、照明Lの点灯および消灯を繰り返す制御を行い、照明点灯時および照明消灯時の照明情報を用いて、相対値で表された照明情報を絶対値に変換する。
(Modification: Lighting information expressed in absolute values)
As shown in FIG. 1, the imaging apparatus 1 performs control to repeatedly turn on and off the illumination L in accordance with the timing of imaging, and is expressed as a relative value using illumination information when the illumination is on and when the illumination is off. Convert the lighting information into absolute values.

ここで、照明Lは、信号ケーブル9を介して、画像処理情報生成装置100に接続されている。そして、照明Lは、後記する照明制御部180から入力される同期信号に応じて、カメラCの撮像タイミングに同期させて、点灯と消灯とを繰り返す。 Here, the illumination L is connected to the image processing information generation apparatus 100 via the signal cable 9L . The illumination L is repeatedly turned on and off in synchronization with the imaging timing of the camera C in accordance with a synchronization signal input from the illumination control unit 180 described later.

図4の照明制御部(光源制御部)180は、照明Lを点灯および消灯させるものである。この照明制御部180は、照明Lの点灯および消灯と、カメラCの撮像とを同期させる同期信号を一定間隔(例えば、1フレーム秒)で照明LおよびカメラCに出力する。   The illumination control unit (light source control unit) 180 in FIG. 4 turns on and off the illumination L. The illumination control unit 180 outputs a synchronization signal that synchronizes lighting and extinguishing of the illumination L and imaging of the camera C to the illumination L and the camera C at regular intervals (for example, one frame second).

つまり、この同期信号が入力されたタイミングで、カメラCは、撮像を行う。また、この同期信号が入力されたタイミングで、照明Lは、点灯していれば消灯し、消灯していれば点灯する。   That is, at the timing when this synchronization signal is input, the camera C performs imaging. In addition, at the timing when the synchronization signal is input, the illumination L is turned off if it is turned on, and turned on if it is turned off.

反射特性推定部140は、カメラパラメータの他、カメラCから、照明点灯時の撮像画像1,2と、照明消灯時の撮像画像1,2とが入力される。そして、反射特性推定部140の各手段は、照明点灯時および照明消灯時の撮像画像1,2のそれぞれに対して、第1実施形態と同様の処理を施す。   In addition to the camera parameters, the reflection characteristic estimation unit 140 receives captured images 1 and 2 when the illumination is turned on and captured images 1 and 2 when the illumination is turned off from the camera C. Each means of the reflection characteristic estimation unit 140 performs the same processing as in the first embodiment on each of the captured images 1 and 2 when the illumination is turned on and when the illumination is turned off.

照明情報生成部144は、第1実施形態と同様、照明点灯時の照明情報(照明点灯時における照明Lの光量および方向)と、照明消灯時の照明情報(照明消灯時における照明Lの光量および方向)とを生成する。そして、照明情報生成部144は、照明点灯時および照明消灯時の光量から所定の算出式によってスケール(重み)を算出し、算出したスケールを照明消灯時の光量に乗算する。   Similarly to the first embodiment, the illumination information generation unit 144 includes illumination information when the illumination is turned on (light quantity and direction of the illumination L when the illumination is turned on), and illumination information when the illumination is turned off (the amount of light of the illumination L when the illumination is turned off and Direction). Then, the illumination information generation unit 144 calculates a scale (weight) from a light amount when the illumination is turned on and when the illumination is turned off using a predetermined calculation formula, and multiplies the calculated scale by the light amount when the illumination is turned off.

<照明情報生成部による照明情報の変換>
以下、照明情報生成部144による照明情報の変換について、具体的に説明する。
ここで、予め測定した照明Lの光量実測値をIとし、照明Lから被写体Aまでの距離をLgとし、被写体表面の法線に対する反射光の入射角をθとし、被写体表面で反射光を反射した反射部分の反射係数をKdとする。この入射角θは、照明方向算出部143が算出済みのため、既知である。
<Conversion of illumination information by illumination information generation unit>
Hereinafter, the conversion of the illumination information by the illumination information generation unit 144 will be specifically described.
Here, the actually measured light quantity value of the illumination L measured in advance is I, the distance from the illumination L to the subject A is Lg, the incident angle of the reflected light with respect to the normal of the subject surface is θ, and the reflected light is reflected on the subject surface. Let Kd be the reflection coefficient of the reflected portion. This incident angle θ is known because the illumination direction calculation unit 143 has already calculated it.

また、カメラCから被写体Aまでの距離(奥行き情報)が既知である。従って、撮像装置1は、照明Lを被写体として撮像して、カメラCから照明Lまでの距離(奥行き情報)を生成することで、カメラCと被写体Aと照明Lとの位置関係が明らかになり、距離Lgを求めることができる。   Further, the distance (depth information) from the camera C to the subject A is known. Therefore, the imaging device 1 captures the illumination L as a subject and generates a distance (depth information) from the camera C to the illumination L, so that the positional relationship among the camera C, the subject A, and the illumination L becomes clear. The distance Lg can be obtained.

この場合、反射光量Irは、照明点灯時の輝度と、照明消灯時の輝度との差であり、下記の式(10)で表すことができる。   In this case, the reflected light amount Ir is a difference between the luminance when the illumination is turned on and the luminance when the illumination is turned off, and can be expressed by the following equation (10).

Figure 2012173916
Figure 2012173916

ここで、照明消灯時の照明情報より、反射部分への照明消灯時の光量をIomniとする。また、照明点灯時の照明情報より、反射部分への照明点灯時の光量をItotalとする。この場合、拡散反射光成分については、照明点灯時の輝度Ionと、照明消灯時の輝度Ioffとを、下記の式(11)で表すことができる。 Here, from the illumination information when the illumination is extinguished, the amount of light when the illumination to the reflecting portion is extinguished is defined as I omni . Further, from the illumination information at the time of lighting, the amount of light at the time of lighting the reflecting portion is set to I total . In this case, for the diffuse reflected light component, the luminance I on when the illumination is turned on and the luminance I off when the illumination is turned off can be expressed by the following equation (11).

Figure 2012173916
Figure 2012173916

式(11)に式(10)を代入して、各項を反射係数Kdで除算すると、下記の式(12)となる。   Substituting equation (10) into equation (11) and dividing each term by the reflection coefficient Kd yields equation (12) below.

Figure 2012173916
Figure 2012173916

ここで、被写体表面に直交する法線のベクトルVAを(ax,ay,az)とし、レンズ11の中心から反射部分への直線のベクトルVBを(bx,by,bz)とすると、入射角θは、ベクトルVA,VBの内積である式(13)より、下記の式(14)で表すことができる。なお、sqrは、平方根を返す関数である。   Here, if the normal vector VA orthogonal to the subject surface is (ax, ay, az) and the straight vector VB from the center of the lens 11 to the reflection part is (bx, by, bz), the incident angle θ Can be expressed by the following equation (14) from equation (13), which is the inner product of the vectors VA and VB. Note that sqr is a function that returns a square root.

Figure 2012173916
Figure 2012173916

Figure 2012173916
Figure 2012173916

前記したように、照明情報生成部144は、相対値で表された照明情報を生成している。このため、式(11)の光量Iomni,Itotalには、何らかのスケール(重み)sが掛けられていることになる。つまり、式(12)は、下記の算出式(15)で表される。 As described above, the illumination information generation unit 144 generates illumination information represented by a relative value. For this reason, some scale (weight) s is applied to the light amounts I omni and I total in Expression (11). That is, Formula (12) is represented by the following calculation formula (15).

Figure 2012173916
Figure 2012173916

ここで、光量Iomni,Itotalと、光量実測値Iと、入射角θと、距離Lgとは、既知である。従って、照明情報生成部144は、算出式(15)を解いて、スケールsの値を求めることができる。そして、照明情報生成部144は、このスケールsを光量Iomniに乗算することで、相対値で表された照明情報を絶対値に変換できる。 Here, the light amounts I omni and I total , the light amount actual measurement value I, the incident angle θ, and the distance Lg are known. Therefore, the illumination information generation unit 144 can obtain the value of the scale s by solving the calculation formula (15). The illumination information generation unit 144 can convert the illumination information represented by a relative value into an absolute value by multiplying the light amount I omni by the scale s.

このとき、照明Lの点灯と消灯との間に時間差があるため、照明点灯時の撮像画像1,2と、照明消灯時の撮像画像1,2との間に位置ずれが生じることがある。従って、照明情報生成部144は、照明点灯時の撮像画像1,2と、照明消灯時の撮像画像1,2に対して、ブロックマッチングまたはオプティカルフローを行って、この位置ずれを修正することが好ましい。
なお、本変形例では、例えば、1フレーム秒(つまり、1/30秒)程度と、その時間差が極めて小さいため、この位置ずれが無いと仮定している。
At this time, since there is a time difference between lighting and extinguishing of the illumination L, a positional deviation may occur between the captured images 1 and 2 when the illumination is lit and the captured images 1 and 2 when the illumination is extinguished. Therefore, the illumination information generation unit 144 can correct this misalignment by performing block matching or optical flow on the captured images 1 and 2 when the illumination is turned on and the captured images 1 and 2 when the illumination is turned off. preferable.
In this modification, for example, it is assumed that there is no position shift because the time difference is as small as about 1 frame second (that is, 1/30 second).

また、相対値の照明情報を利用する場合、照明Lおよび照明制御部180が必要ないため、照明Lの着脱や、照明情報生成部144による処理の有無を選択可能な構成とすることが好ましい。
なお、照明情報生成部144および照明制御部180以外、第1実施形態と同様のため、詳細な説明を省略した。
Moreover, when using the illumination information of a relative value, since the illumination L and the illumination control part 180 are unnecessary, it is preferable to set it as the structure which can select the attachment or detachment of the illumination L, or the presence or absence of the process by the illumination information generation part 144.
In addition, since it is the same as that of 1st Embodiment except the illumination information generation part 144 and the illumination control part 180, detailed description was abbreviate | omitted.

以上のように、本発明の変形例に係る撮像装置1は、照明情報を絶対値に変換できる。これによって、撮像装置1は、前記した実施形態と同様、光外乱の多い環境でも利用可能で、簡易な構成を実現できる。さらに、撮像装置1は、照明情報が絶対値で表されているため、実際の照明Lの明るさを照明情報から知ることができる。さらに、撮像装置1では、この照明情報を用いて別の撮像環境で画像処理を行う際、この別の撮像環境用に照明情報を変換する必要がない。つまり、撮像装置1は、異なる撮影環境間で照明情報を共用する場合でも、この照明情報の整合性を容易に保つことができる。   As described above, the imaging device 1 according to the modification of the present invention can convert illumination information into an absolute value. As a result, the imaging apparatus 1 can be used in an environment with a lot of light disturbances as in the above-described embodiment, and a simple configuration can be realized. Furthermore, since the illumination information is represented by an absolute value, the imaging apparatus 1 can know the actual brightness of the illumination L from the illumination information. Furthermore, in the imaging device 1, when performing image processing in another imaging environment using the illumination information, it is not necessary to convert the illumination information for the other imaging environment. That is, the imaging apparatus 1 can easily maintain the consistency of the illumination information even when the illumination information is shared between different imaging environments.

なお、実施形態では、本発明に係る撮像装置の画像処理情報生成装置を独立した装置として説明したが、本発明では、一般的なコンピュータを、画像処理情報生成装置の各手段として機能させるプログラムによって動作させることもできる。このプログラムは、通信回線を介して配布しても良く、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布しても良い。 In the embodiment, the image processing information generation apparatus of the imaging apparatus according to the present invention has been described as an independent apparatus. However, in the present invention, a general computer is operated by a program that functions as each unit of the image processing information generation apparatus. It can also be operated. This program may be distributed via a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

1 撮像装置
11 レンズ(光透過素子)
11a,11b 偏光フィルタ(偏光素子)
12 偏光BS(分光素子)
13 第1撮像素子
14 第2撮像素子
100 画像処理情報生成装置
101 視差量算出部
110 奥行き値換算部
120 カメラパラメータ算出部(撮像手段位置算出部)
130 奥行き情報記憶部
140 反射特性推定部
141 拡散反射光成分画像生成部
142 鏡面反射光成分画像生成部
143 照明方向算出部(光源方向算出部)
144 照明情報生成部(光源情報生成部)
145 反射係数算出部
150 パラメータ設定部
160 奥行き抽出範囲算出部
170 被写体領域抽出部
180 照明制御部
C カメラ(撮像手段)
L 照明(光源)
1 Imaging device 11 Lens (light transmission element)
11a, 11b Polarizing filter (polarizing element)
12 Polarized BS (spectral element)
13 First imaging device 14 Second imaging device 100 Image processing information generation device 101 Parallax amount calculation unit 110 Depth value conversion unit 120 Camera parameter calculation unit (imaging means position calculation unit)
130 depth information storage unit 140 reflection characteristic estimation unit 141 diffuse reflection light component image generation unit 142 specular reflection light component image generation unit 143 illumination direction calculation unit (light source direction calculation unit)
144 Illumination information generation part (light source information generation part)
145 reflection coefficient calculation unit 150 parameter setting unit 160 depth extraction range calculation unit 170 subject region extraction unit 180 illumination control unit C camera (imaging means)
L Illumination (light source)

Claims (5)

光源で照らされる被写体を撮像して、前記被写体の奥行き値を示す奥行き情報と、前記被写体の反射特性を示す反射特性情報と、前記光源の方向および光量を示す光源情報とを生成する撮像装置であって、
偏光方向が互いに直交する2つの偏光素子からなる光透過素子と、前記偏光素子の一方からの入射光を透過させ、かつ、前記偏光素子の他方からの入射光を反射させる分光素子と、前記分光素子を透過した入射光を撮像する第1撮像素子と、前記分光素子で反射された入射光を撮像する第2撮像素子とを備える撮像手段と、
前記第1撮像素子および前記第2撮像素子で前記被写体を撮像した2つの撮像画像から、前記2つの撮像画像で対応する対応画素ごとの視差量を算出する視差量算出部と、
前記視差量算出部が算出した視差量を、予め設定された換算式で前記対応画素ごとの奥行き値に換算して前記奥行き情報を生成し、注目画素と当該注目画素の近傍画素との奥行き値で表される被写体表面に直交する法線方向を算出する奥行き値換算部と、
前記奥行き値換算部が算出した奥行き値に最適化処理を行って、前記撮像手段の位置を算出する撮像手段位置算出部と、
前記2つの撮像画像での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、前記対応画素ごとの前記最小輝度値を示す拡散反射光成分画像を生成する拡散反射光成分画像生成部と、
前記2つの撮像画像での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、前記対応画素ごとの前記最大輝度値と前記最小輝度値との差分を示す鏡面反射光成分画像を生成する鏡面反射光成分画像生成部と、
前記奥行き値換算部が算出した法線方向および前記撮像手段の位置から、前記被写体での反射光の入射角を算出し、算出した当該入射角が示す方向を前記光源の方向として算出する光源方向算出部と、
前記鏡面反射光成分画像生成部が生成した鏡面反射光成分画像および前記光源の方向に基づいて前記光源の光量を算出し、算出した前記光源の光量および方向を前記光源情報として生成する光源情報生成部と、
前記光源情報生成部が生成した光源情報と、前記鏡面反射光成分画像と、前記拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を前記反射特性情報として算出する反射係数算出部と、
を備えることを特徴とする撮像装置。
An imaging device that images a subject illuminated by a light source and generates depth information indicating a depth value of the subject, reflection characteristic information indicating a reflection characteristic of the subject, and light source information indicating a direction and a light amount of the light source. There,
A light transmitting element composed of two polarizing elements whose polarization directions are orthogonal to each other; a spectroscopic element that transmits incident light from one of the polarizing elements and reflects incident light from the other of the polarizing elements; and the spectroscopic element An imaging means comprising: a first imaging element that images incident light transmitted through the element; and a second imaging element that images incident light reflected by the spectroscopic element;
A parallax amount calculating unit that calculates a parallax amount for each corresponding pixel corresponding to the two captured images from two captured images obtained by capturing the subject with the first image sensor and the second image sensor;
The depth information is generated by converting the parallax amount calculated by the parallax amount calculation unit into a depth value for each corresponding pixel using a preset conversion formula, and the depth value between the target pixel and a neighboring pixel of the target pixel A depth value conversion unit that calculates a normal direction perpendicular to the subject surface represented by:
An imaging unit position calculation unit that performs optimization processing on the depth value calculated by the depth value conversion unit and calculates a position of the imaging unit;
A diffuse reflected light component image that generates a diffuse reflected light component image indicating the minimum brightness value for each of the corresponding pixels by selecting the smaller of the corresponding pixels in the two captured images as the minimum brightness value A generator,
A specular reflection component image indicating a difference between the maximum luminance value and the minimum luminance value for each of the corresponding pixels is selected as the maximum luminance value of the corresponding pixels in the two captured images. A specular reflection component image generation unit to generate,
A light source direction that calculates an incident angle of reflected light from the subject from the normal direction calculated by the depth value conversion unit and the position of the imaging unit, and calculates the direction indicated by the calculated incident angle as the direction of the light source A calculation unit;
Light source information generation for calculating the light amount of the light source based on the specular light component image generated by the specular light component image generation unit and the direction of the light source, and generating the calculated light amount and direction of the light source as the light source information And
The light source information generated by the light source information generation unit, the specular reflection light component image, and the diffuse reflection light component image are subjected to optimization processing using a reflection model, and the specular reflection coefficient and the diffuse reflection coefficient are calculated. A reflection coefficient calculation unit for calculating the reflection characteristic information;
An imaging apparatus comprising:
前記光源を点灯および消灯させる光源制御部をさらに備え、
前記光源情報生成部は、
光源点灯時および光源消灯時に前記光源の光量をそれぞれ算出し、当該光源点灯時および光源消灯時の光量から所定の算出式によって重みを算出し、算出した当該重みを前記光源消灯時の光量に乗算することで、絶対値で表された前記光源情報を算出することを特徴とする請求項1に記載の撮像装置。
A light source controller for turning on and off the light source;
The light source information generation unit
The light amount of the light source is calculated when the light source is turned on and the light source is turned off, the weight is calculated from the light amount when the light source is turned on and the light source is turned off by a predetermined calculation formula, and the calculated light weight is multiplied by the calculated light amount The imaging apparatus according to claim 1, wherein the light source information represented by an absolute value is calculated.
前記2つの撮像画像の一方から、前記対応画素の奥行き値が予め設定された奥行き抽出範囲に含まれる領域を被写体領域として抽出する被写体領域抽出部をさらに備えることを特徴とする請求項1または請求項2に記載の撮像装置。   The subject area extracting unit further extracts, as a subject area, an area included in a depth extraction range in which a depth value of the corresponding pixel is set in advance from one of the two captured images. Item 3. The imaging device according to Item 2. 前記2つの撮像画像の一方から顔領域検出処理により顔領域を検出し、検出した当該顔領域に含まれる全画素の奥行き値の平均値を算出し、算出した当該平均値に所定の値を加減算して前記奥行き抽出範囲を設定する奥行き抽出範囲算出部をさらに備えることを特徴とする請求項3に記載の撮像装置。   A face area is detected from one of the two captured images by a face area detection process, an average value of depth values of all pixels included in the detected face area is calculated, and a predetermined value is added to or subtracted from the calculated average value. The imaging apparatus according to claim 3, further comprising a depth extraction range calculation unit that sets the depth extraction range. 偏光方向が互いに直交する2つの偏光素子からなる光透過素子と、前記偏光素子の一方からの入射光を透過させ、かつ、前記偏光素子の他方からの入射光を反射させる分光素子と、前記分光素子を透過した入射光を撮像する第1撮像素子と、前記分光素子で反射された入射光を撮像する第2撮像素子とを備える撮像手段により、光源で照らされる被写体を撮像して、前記被写体の奥行き値を示す奥行き情報と、前記被写体の反射特性を示す反射特性情報と、前記光源の方向および光量を示す光源情報とを生成するために、コンピュータを、
前記第1撮像素子および前記第2撮像素子で前記被写体を撮像した2つの撮像画像から、前記2つの撮像画像で対応する対応画素ごとの視差量を算出する視差量算出部、
前記視差量算出部が算出した視差量を、予め設定された換算式で前記対応画素ごとの奥行き値に換算して前記奥行き情報を生成し、注目画素と当該注目画素の近傍画素との奥行き値で表される被写体表面に直交する法線方向を算出する奥行き値換算部、
前記奥行き値換算部が算出した奥行き値に最適化処理を行って、前記撮像手段の位置を算出する撮像手段位置算出部、
前記2つの撮像画像での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、前記対応画素ごとの前記最小輝度値を示す拡散反射光成分画像を生成する拡散反射光成分画像生成部、
前記2つの撮像画像での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、前記対応画素ごとの前記最大輝度値と前記最小輝度値との差分を示す鏡面反射光成分画像を生成する鏡面反射光成分画像生成部、
前記奥行き値換算部が算出した法線方向および前記撮像手段の位置から、前記被写体での反射光の入射角を算出し、算出した当該入射角が示す方向を前記光源の方向として算出する光源方向算出部、
前記鏡面反射光成分画像生成部が生成した鏡面反射光成分画像および前記光源の方向に基づいて前記光源の光量を算出し、算出した前記光源の光量および方向を前記光源情報として生成する光源情報生成部、
前記光源情報生成部が生成した光源情報と、前記鏡面反射光成分画像と、前記拡散反射光成分画像とに対して反射モデルを適用した最適化処理を行って、鏡面反射係数および拡散反射係数を前記反射特性情報として算出する反射係数算出部、
として機能させるための画像処理情報生成プログラム。
A light transmitting element composed of two polarizing elements whose polarization directions are orthogonal to each other; a spectroscopic element that transmits incident light from one of the polarizing elements and reflects incident light from the other of the polarizing elements; and the spectroscopic element The subject illuminated by a light source is imaged by an imaging means comprising a first imaging element that images incident light that has passed through the element and a second imaging element that images incident light reflected by the spectroscopic element, and the subject In order to generate depth information indicating the depth value of the object, reflection characteristic information indicating the reflection characteristic of the subject, and light source information indicating the direction and light amount of the light source,
A parallax amount calculation unit that calculates a parallax amount for each corresponding pixel corresponding to the two captured images from two captured images obtained by capturing the subject with the first imaging element and the second imaging element;
The depth information is generated by converting the parallax amount calculated by the parallax amount calculation unit into a depth value for each corresponding pixel using a preset conversion formula, and the depth value between the target pixel and a neighboring pixel of the target pixel Depth value conversion unit for calculating a normal direction orthogonal to the subject surface represented by
An imaging unit position calculation unit that performs optimization processing on the depth value calculated by the depth value conversion unit and calculates a position of the imaging unit;
A diffuse reflected light component image that generates a diffuse reflected light component image indicating the minimum brightness value for each of the corresponding pixels by selecting the smaller of the corresponding pixels in the two captured images as the minimum brightness value Generator,
A specular reflection component image indicating a difference between the maximum luminance value and the minimum luminance value for each of the corresponding pixels is selected as the maximum luminance value of the corresponding pixels in the two captured images. Specular reflection component image generation unit to generate,
A light source direction that calculates an incident angle of reflected light from the subject from the normal direction calculated by the depth value conversion unit and the position of the imaging unit, and calculates the direction indicated by the calculated incident angle as the direction of the light source Calculation part,
Light source information generation for calculating the light amount of the light source based on the specular light component image generated by the specular light component image generation unit and the direction of the light source, and generating the calculated light amount and direction of the light source as the light source information Part,
The light source information generated by the light source information generation unit, the specular reflection light component image, and the diffuse reflection light component image are subjected to optimization processing using a reflection model, and the specular reflection coefficient and the diffuse reflection coefficient are calculated. A reflection coefficient calculation unit for calculating the reflection characteristic information;
An image processing information generation program for functioning as
JP2011034309A 2011-02-21 2011-02-21 Imaging apparatus and image processing information generation program Active JP5503573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011034309A JP5503573B2 (en) 2011-02-21 2011-02-21 Imaging apparatus and image processing information generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011034309A JP5503573B2 (en) 2011-02-21 2011-02-21 Imaging apparatus and image processing information generation program

Publications (2)

Publication Number Publication Date
JP2012173916A true JP2012173916A (en) 2012-09-10
JP5503573B2 JP5503573B2 (en) 2014-05-28

Family

ID=46976783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011034309A Active JP5503573B2 (en) 2011-02-21 2011-02-21 Imaging apparatus and image processing information generation program

Country Status (1)

Country Link
JP (1) JP5503573B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068764A (en) * 2015-10-01 2017-04-06 日本放送協会 Illumination information acquisition device, illumination restoration device, and program of them
WO2017149608A1 (en) * 2016-02-29 2017-09-08 富士通フロンテック株式会社 Image capture device and image capture method
CN114731368A (en) * 2019-12-13 2022-07-08 索尼集团公司 Imaging apparatus, information processing apparatus, imaging method, and information processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200359A (en) * 1999-01-05 2000-07-18 Olympus Optical Co Ltd Processor and method for image processing and recording medium where image processing program is recorded
JP2001016610A (en) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd Parallax image input device and camera
JP2006031595A (en) * 2004-07-21 2006-02-02 Hiroshima Industrial Promotion Organization Image processing system
WO2007029446A1 (en) * 2005-09-01 2007-03-15 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing device, and image processing program
WO2008026518A1 (en) * 2006-08-31 2008-03-06 Panasonic Corporation Image processing device, image processing method, and image processing program
JP2009168995A (en) * 2008-01-15 2009-07-30 Nikon Corp Range-finding device and imaging apparatus
JP2011215545A (en) * 2010-04-02 2011-10-27 Nippon Hoso Kyokai <Nhk> Parallax image acquisition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200359A (en) * 1999-01-05 2000-07-18 Olympus Optical Co Ltd Processor and method for image processing and recording medium where image processing program is recorded
JP2001016610A (en) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd Parallax image input device and camera
JP2006031595A (en) * 2004-07-21 2006-02-02 Hiroshima Industrial Promotion Organization Image processing system
WO2007029446A1 (en) * 2005-09-01 2007-03-15 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing device, and image processing program
WO2008026518A1 (en) * 2006-08-31 2008-03-06 Panasonic Corporation Image processing device, image processing method, and image processing program
JP2009168995A (en) * 2008-01-15 2009-07-30 Nikon Corp Range-finding device and imaging apparatus
JP2011215545A (en) * 2010-04-02 2011-10-27 Nippon Hoso Kyokai <Nhk> Parallax image acquisition device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068764A (en) * 2015-10-01 2017-04-06 日本放送協会 Illumination information acquisition device, illumination restoration device, and program of them
WO2017149608A1 (en) * 2016-02-29 2017-09-08 富士通フロンテック株式会社 Image capture device and image capture method
US20180336655A1 (en) * 2016-02-29 2018-11-22 Fujitsu Frontech Limited Imaging device and imaging method
US10970802B2 (en) 2016-02-29 2021-04-06 Fujitsu Frontech Limited Imaging device and imaging method selecting a pixel having a lowest brightness
CN114731368A (en) * 2019-12-13 2022-07-08 索尼集团公司 Imaging apparatus, information processing apparatus, imaging method, and information processing method

Also Published As

Publication number Publication date
JP5503573B2 (en) 2014-05-28

Similar Documents

Publication Publication Date Title
US11869139B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
JP6456156B2 (en) Normal line information generating apparatus, imaging apparatus, normal line information generating method, and normal line information generating program
CN106595528B (en) A kind of micro- binocular stereo vision measurement method of telecentricity based on digital speckle
CA2931529C (en) 3d corrected imaging
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
CN104634276B (en) Three-dimension measuring system, capture apparatus and method, depth computing method and equipment
CN104335005B (en) 3D is scanned and alignment system
US9432655B2 (en) Three-dimensional scanner based on contours from shadow images
CN109069132A (en) System and method for auxiliary type 3D scanning
JP6112769B2 (en) Information processing apparatus and information processing method
CN105004324B (en) A kind of monocular vision sensor with range of triangle function
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
EP2990757B1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP2016528972A5 (en)
US11710289B2 (en) Information processing apparatus, information processing system, and material identification method
CN109668509A (en) Based on biprism single camera three-dimensional measurement industrial endoscope system and measurement method
CN106170086B (en) Method and device thereof, the system of drawing three-dimensional image
JP6556013B2 (en) PROCESSING DEVICE, PROCESSING SYSTEM, IMAGING DEVICE, PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
Ahmad et al. An improved photometric stereo through distance estimation and light vector optimization from diffused maxima region
JP5503573B2 (en) Imaging apparatus and image processing information generation program
Smithwick et al. Depth enhancement using a scanning fiber optical endoscope
WO2016035181A1 (en) Image pickup device, information processing device, and image pickup system
JP4213327B2 (en) Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium
CN208536839U (en) Image capture device
JP2009236696A (en) Three-dimensional image measurement method, measurement system, and measurement program for subject

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140314

R150 Certificate of patent or registration of utility model

Ref document number: 5503573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250