JP2017103578A - Control device, imaging device, imaging system, normal information acquisition system, image processing device, control method and program - Google Patents

Control device, imaging device, imaging system, normal information acquisition system, image processing device, control method and program Download PDF

Info

Publication number
JP2017103578A
JP2017103578A JP2015234531A JP2015234531A JP2017103578A JP 2017103578 A JP2017103578 A JP 2017103578A JP 2015234531 A JP2015234531 A JP 2015234531A JP 2015234531 A JP2015234531 A JP 2015234531A JP 2017103578 A JP2017103578 A JP 2017103578A
Authority
JP
Japan
Prior art keywords
light
subject
imaging
light source
invisible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015234531A
Other languages
Japanese (ja)
Inventor
智暁 井上
Tomoaki Inoue
智暁 井上
義明 井田
Yoshiaki Ida
義明 井田
祐一 楠美
Yuichi Kusumi
祐一 楠美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015234531A priority Critical patent/JP2017103578A/en
Publication of JP2017103578A publication Critical patent/JP2017103578A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve antiglare effect to a person and to maintain surface normal accuracy to objects other than the person.SOLUTION: A system controller 111 for sequentially irradiating light to a subject from a plurality of three or more mutually different positions to image the subject at each irradiation determines whether the face of the subject is detected before irradiating the light from the plurality of positions, selects invisible light without selecting visible light as light to be irradiated when the face of the subject is detected, and selects the visible light as the light to be irradiated when the face of the subject is not detected.SELECTED DRAWING: Figure 3

Description

本発明は、制御装置、撮像装置、撮像システム、法線情報取得システム、画像処理装置、制御方法およびプログラムに関する。   The present invention relates to a control device, an imaging device, an imaging system, a normal vector information acquisition system, an image processing device, a control method, and a program.

非特許文献1は、被写体の局所面の法線情報を取得する照度差ステレオ法において、複数の波長域の光源を設け、反射特性が最もランバート反射モデルに近くなる波長域の光源を選択する方法を提案している。特許文献1は、照度差ステレオ法に用いる3つ以上の光源の波長を夫々異ならせることで、人体の頭頸部表面の面法線を取得すると共に、被験者の眩しさを低減させるために、3以上の光源に赤外光を用いる方法を提案している。   Non-Patent Document 1 provides a method of selecting a light source in a wavelength range in which a light source in a plurality of wavelength ranges is provided and a reflection characteristic is closest to a Lambertian reflection model in an illuminance difference stereo method for acquiring normal information of a local surface of a subject Has proposed. In Patent Document 1, 3 or more light sources used for the illuminance difference stereo method have different wavelengths to obtain surface normals of the head and neck surface of the human body and reduce glare of the subject. A method using infrared light for the above light source has been proposed.

特開2013−31650号公報JP 2013-31650 A

高谷剛志、“多波長画像を用いた照度差ステレオ法の精度向上”、情報処理学会研究報告、Vol.2012−CVIM−183、No.12、pp.1−8、2012Takashi Takashi, “Improving the accuracy of photometric stereo using multiwavelength images”, Information Processing Society of Japan, Vol. 2012-CVIM-183, no. 12, pp. 1-8, 2012

照度差ステレオ法では、被写体が人物である場合、可視光を用いると当該人物は眩しいと感じてしまう(不快感を抱く)が、非特許文献1はかかる問題を考慮していない。そこで、特許文献1を適用して全ての被写体に対して赤外光光源を使用することが考えられるが、人物以外の被写体に対して取得する法線情報の精度が低下するおそれが生じる。   In the illuminance difference stereo method, when a subject is a person, the person feels dazzling when using visible light (has discomfort), but Non-Patent Document 1 does not consider such a problem. Thus, it is conceivable to apply the infrared light source to all subjects by applying Patent Document 1, but there is a risk that the accuracy of normal information acquired for subjects other than a person may be reduced.

本発明は、人物に対する防眩効果を向上させると共に人物以外の被写体に対する面法線精度を維持することが可能な制御装置、撮像装置、撮像システム、法線情報取得システム、画像処理装置、制御方法およびプログラムを提供することを目的とする。   The present invention provides a control device, an imaging device, an imaging system, a normal information acquisition system, an image processing device, and a control method capable of improving the anti-glare effect on a person and maintaining the surface normal accuracy with respect to a subject other than the person. And to provide a program.

本発明の制御装置は、3つ以上の互いに異なる複数の位置から光を被写体に順次照射させ、各照射時に前記被写体を撮像させる制御装置であって、前記複数の位置から前記光を照射させる前に、前記被写体の顔が検出されたかどうかを判定し、前記顔が検出された場合には、照射させる光として、可視光を選択せずに不可視光を選択し、前記顔が検出されなかった場合には、前記照射させる光として、前記可視光を選択することを特徴とする。   The control device according to the present invention is a control device that sequentially irradiates a subject with light from a plurality of different positions of three or more and images the subject at each irradiation, before the light is irradiated from the plurality of positions. In addition, it is determined whether or not the face of the subject has been detected. If the face is detected, invisible light is selected as the irradiation light without selecting visible light, and the face is not detected. In this case, the visible light is selected as the light to be irradiated.

本発明によれば、人物に対する防眩効果を向上させると共に人物以外の被写体に対して取得する法線情報の精度を維持することが可能な制御装置、撮像装置、撮像システム、法線情報取得システム、画像処理装置、制御方法およびプログラムを提供することができる。   According to the present invention, a control device, an imaging device, an imaging system, and a normal information acquisition system capable of improving the antiglare effect on a person and maintaining the accuracy of normal information acquired for a subject other than the person. An image processing apparatus, a control method, and a program can be provided.

本発明に係る撮像装置の外観斜視図である。(実施例1)1 is an external perspective view of an imaging apparatus according to the present invention. (Example 1) 図1に示す撮像装置のブロック図である。(実施例1)It is a block diagram of the imaging device shown in FIG. (Example 1) 図2に示すシステムコントローラが実行する画像処理方法(法線推定方法)を示すフローチャートである。It is a flowchart which shows the image processing method (normal line estimation method) which the system controller shown in FIG. 2 performs. 図3に示すS103の顔検出を説明するための図である。It is a figure for demonstrating the face detection of S103 shown in FIG. 本発明に係る撮像装置の外観斜視図である。(実施例2)1 is an external perspective view of an imaging apparatus according to the present invention. (Example 2) 図5に示す撮像部の構成を示す概略図である。(実施例2)It is the schematic which shows the structure of the imaging part shown in FIG. (Example 2) 図5に示す光源手段の構成を示す概略図である。(実施例2)It is the schematic which shows the structure of the light source means shown in FIG. (Example 2) 図2に示すシステムコントローラが実行する画像処理方法(法線推定方法)を示すフローチャートである。(実施例2)It is a flowchart which shows the image processing method (normal line estimation method) which the system controller shown in FIG. 2 performs. (Example 2) 簡略化されたTorrance−Sparrowモデルを示す図である。It is a figure which shows the simplified Torrance-Sparrow model.

撮像装置で被写体を撮像(静止画撮影)する際に、輝度情報と共に、被写体の形状情報、特に、面法線情報を取得することによって、撮像後の画像処理において、例えば、被写体の見えを変更した画像を生成することが可能となる。被写体の見えは、被写体の形状情報、被写体の反射率情報、光源情報などの要素で決定されるが、形状情報としては3次元形状ではなく面法線情報を用いることが特に有効である。なぜなら、光源から出た光が被写体によって反射される際の反射光の物理的な振る舞いは、局所的な面法線に依存するからである。   When capturing an image of a subject (still image shooting) with an imaging device, the shape information of the subject, in particular, surface normal information, is acquired along with luminance information, so that, for example, the appearance of the subject is changed in image processing after imaging. It is possible to generate an image. The appearance of the subject is determined by factors such as subject shape information, subject reflectance information, and light source information. It is particularly effective to use surface normal information instead of a three-dimensional shape as shape information. This is because the physical behavior of the reflected light when the light emitted from the light source is reflected by the subject depends on the local surface normal.

面法線情報を取得する一方法である照度差ステレオ法は、レーザ光を用いた三角測量や2眼ステレオなどの方法で距離情報を取得し、距離情報から求めた三次元形状を面法線情報へ変換する方法よりも、装置が小型になり、取得する法線情報の精度も高くなる。照度差ステレオ法は、被写体の面法線と光源方向に基づいた反射特性を仮定し、複数の光源位置での被写体の輝度情報と、仮定した反射特性から面法線を決定する。被写体の反射特性としてはランバートの余弦則に従うランバート反射モデルが用いられることが多い。仮定する反射特性はある面法線と光源位置が与えられたときに反射率が一意に定まればよいが、被写体の反射特性が未知の場合はランバートの余弦則に従うランバート反射モデルで近似すればよい。   The illuminance-difference stereo method, which is a method for acquiring surface normal information, acquires distance information by a method such as triangulation using a laser beam or binocular stereo, and obtains a three-dimensional shape obtained from the distance information as a surface normal. Compared to the method of converting to information, the apparatus becomes smaller and the accuracy of the normal information to be acquired becomes higher. The illuminance difference stereo method assumes reflection characteristics based on the surface normal of the subject and the light source direction, and determines the surface normal from the luminance information of the subject at a plurality of light source positions and the assumed reflection characteristics. A Lambertian reflection model that follows Lambert's cosine law is often used as the reflection characteristic of the subject. Assuming that the reflectance is uniquely determined when a certain surface normal and light source position are given, if the subject's reflectance is unknown, it can be approximated by a Lambert reflection model that follows Lambert's cosine law. Good.

図9は、簡略化されたTorrance−Sparrowモデルを示す図である。鏡面反射成分の反射率は、光源ベクトルsと視線方向ベクトルvの2等分線と面法線nのなす角αに依存するため、反射特性は視線方向に基づく。照度差ステレオ法では、既知の光源が点灯している場合と消灯している場合のそれぞれの画像を撮像し、これらの差分をとることで環境光等、既知の光源以外の光源による影響を除いてもよい。以下では、ランバート反射モデルを仮定した場合について説明する。   FIG. 9 is a diagram illustrating a simplified Torrance-Sparrow model. Since the reflectance of the specular reflection component depends on the angle α formed by the bisector of the light source vector s and the line-of-sight vector v and the surface normal n, the reflection characteristic is based on the line-of-sight direction. In the illuminance difference stereo method, images taken when a known light source is turned on and off are taken, and the difference between these images is taken to eliminate the influence of light sources other than known light sources such as ambient light. May be. Hereinafter, a case where a Lambertian reflection model is assumed will be described.

反射光の輝度をi、物体のランバート拡散反射率をρd、入射光の強さをE、物体から光源への方向を示す単位ベクトル(光源方向ベクトル)をs、物体の単位面法線ベクトルをnとする。このとき、ランバートの余弦則から、次式が成立する。   The luminance of the reflected light is i, the Lambertian diffuse reflectance of the object is ρd, the intensity of the incident light is E, the unit vector (light source direction vector) indicating the direction from the object to the light source is s, and the unit surface normal vector of the object is Let n. At this time, the following equation is established from Lambert's cosine law.

ここで、異なるM個(Mは3以上(M≧3))の光源方向s1、s2、・・・、sMで得られた輝度値をi1、i2、・・・iMとすると(1)式から次式が成立する。   Here, if the luminance values obtained in different M (M is 3 or more (M ≧ 3)) light source directions s1, s2,..., SM are i1, i2,. From this, the following equation is established.

ここで、左辺はM行1列の輝度ベクトル、右辺の[s1T、・・・sMT]はM行3列の光源方向を示す入射光行列S、nは3行1列の単位面法線ベクトルである。M=3の場合は入射光行列Sの逆行列を左からかけることでEρdnが下記のように求まる。   Here, the left side is a luminance vector of M rows and 1 column, the right side [s1T,... SMT] is an incident light matrix S indicating the light source direction of M rows and 3 columns, and n is a unit surface normal vector of 3 rows and 1 column. It is. In the case of M = 3, Eρdn is obtained as follows by multiplying the inverse matrix of the incident light matrix S from the left.

左辺のベクトルのノルムがEとρdの積であり、正規化したベクトルが物体の面法線ベクトルとして求まる。Eとρdは積の形でのみ条件式に現れるので、Eρdを1つの変数として見ると、単位面法線ベクトルの2自由度と合わせて未知の3変数を決定する連立方程式とみなせる。よって3つの光源条件で輝度情報を取得することで方程式が3つ得られ、解を決定することができる。   The norm of the vector on the left side is the product of E and ρd, and the normalized vector is obtained as the surface normal vector of the object. Since E and ρd appear in the conditional expression only in the form of a product, when Eρd is viewed as one variable, it can be regarded as a simultaneous equation that determines three unknown variables together with the two degrees of freedom of the unit surface normal vector. Therefore, three equations are obtained by acquiring luminance information under three light source conditions, and a solution can be determined.

入射光行列Sが正則でない場合は逆行列が存在しないため、光源方向s1〜s3をSが正則となるように選択する必要がある。つまり、s3をs1とs2に対して線形独立に選ぶことが望ましい。一方、M>3の場合は求める未知変数より多い条件式が得られる。このときは任意に選択した3つの条件式から上記と同様の方法で面法線ベクトルを求めることができる。4つ以上の条件式を用いる場合は入射光行列Sが正方行列ではなくなるため、例えば、Moore−Penrose疑似逆行列を使って近似解を求めればよい。また、行列計算を用いなくとも、既知のフィッティング手法や最適化手法によって解を求めてもよい。   When the incident light matrix S is not regular, there is no inverse matrix, so it is necessary to select the light source directions s1 to s3 so that S is regular. That is, it is desirable to select s3 linearly independent of s1 and s2. On the other hand, when M> 3, more conditional expressions are obtained than the unknown variable to be obtained. In this case, the surface normal vector can be obtained from three arbitrarily selected conditional expressions by the same method as described above. When four or more conditional expressions are used, the incident light matrix S is not a square matrix. For example, an approximate solution may be obtained using a Moore-Penrose pseudo inverse matrix. Further, the solution may be obtained by a known fitting method or optimization method without using matrix calculation.

被写体の反射特性をランバート反射モデル以外のモデルで仮定した場合は条件式が単位面法線ベクトルnの各成分に対する線形方程式でなくなることがある。その場合でも、未知変数に対して未知変数以上の方程式が得られれば、既知のフィッティング手法や最適化手法を用いることができる。また、M>3の場合には3以上M−1以下の条件式の組み合わせが複数得られるため、複数の面法線候補を求めることもできる。この場合は、後述の方法によって解を選択するとよい。   When the reflection characteristic of the object is assumed by a model other than the Lambertian reflection model, the conditional expression may not be a linear equation for each component of the unit surface normal vector n. Even in such a case, if an equation equal to or greater than the unknown variable is obtained for the unknown variable, a known fitting method or optimization method can be used. Further, when M> 3, a plurality of combinations of conditional expressions of 3 or more and M−1 or less are obtained, so that a plurality of surface normal candidates can be obtained. In this case, a solution may be selected by a method described later.

面法線ベクトルの解の候補が複数求まる場合、更に別の条件から解を選択してもよい。例えば、面法線ベクトルの連続性を条件として用いることができる。面法線を撮像装置の1画素ごとに算出する場合、画素(x、y)での面法線n(x、y)として、n(x−1、y)が既知であれば、次式で表される評価関数が最小となる解を選択すればよい。   When a plurality of surface normal vector solution candidates are obtained, a solution may be selected from yet another condition. For example, continuity of surface normal vectors can be used as a condition. When calculating the surface normal for each pixel of the imaging device, if n (x−1, y) is known as the surface normal n (x, y) at the pixel (x, y), A solution that minimizes the evaluation function represented by can be selected.

n(x+1、y)やn(x、y±1)も既知であれば、次式で表される評価関数が最小となる解を選択すればよい。   If n (x + 1, y) and n (x, y ± 1) are also known, a solution that minimizes the evaluation function expressed by the following equation may be selected.

既知の面法線がなく、全画素位置で面法線の不定性があるとすれば、次式で表される全画素での総和が最小となるように解を選択してもよい。   If there is no known surface normal and the surface normal is indefinite at all pixel positions, the solution may be selected so that the sum of all the pixels expressed by the following equation is minimized.

上記は一例であり、最近傍以外の画素での面法線情報を用いたり、注目する画素位置からの距離に応じて重みをつけた評価関数としたりしてもよい。   The above is an example, and surface normal information at pixels other than the nearest neighbor may be used, or an evaluation function weighted according to the distance from the pixel position of interest may be used.

また、任意の光源位置での輝度情報を用いてもよい。ランバート反射モデルに代表される拡散反射モデルでは、面法線ベクトルと光源方向が近いほど反射光の輝度が大きくなる。よって、複数の光源方向での輝度値から、輝度が大きい方向により近くなるような面法線ベクトルを選択することができる。また、鏡面反射モデルでは物体からカメラへの方向の単位ベクトル(カメラの視線ベクトル)をvとして滑らかな表面では次式が成り立つ。   In addition, luminance information at an arbitrary light source position may be used. In the diffuse reflection model typified by the Lambert reflection model, the brightness of the reflected light increases as the surface normal vector and the light source direction are closer. Therefore, it is possible to select a surface normal vector that is closer to the direction in which the luminance is larger from the luminance values in a plurality of light source directions. In the specular reflection model, the following equation holds for a smooth surface where the unit vector (camera line-of-sight vector) in the direction from the object to the camera is v.

このため、光源方向ベクトルsとカメラの視線ベクトルvが既知であれば、面法線nを算出できる。表面に粗さがある一般の場合は鏡面反射も射出角の広がりを持つが、平滑面として求めた解の付近に広がるため、複数の解候補から最も平滑面に対する解に近い候補を選択することができる。   Therefore, if the light source direction vector s and the camera line-of-sight vector v are known, the surface normal n can be calculated. In general, when the surface is rough, the specular reflection also has an emission angle spread, but it spreads in the vicinity of the solution obtained as a smooth surface, so select the candidate closest to the solution for the smooth surface from multiple solution candidates Can do.

また、複数の解候補の平均によって真の解を決めてもよい。   Further, the true solution may be determined by the average of a plurality of solution candidates.

図1は、本発明の実施例1に係る撮像装置1の外観斜視図である。撮像装置1は、デジタルカメラ、テレビカメラなどを含む。また、撮像装置1は、レンズ一体型であってもよいし、一眼レフカメラやノンリフレックスカメラ(ミラーレスカメラ)のようなレンズ交換式であってもよい。   FIG. 1 is an external perspective view of an imaging apparatus 1 according to Embodiment 1 of the present invention. The imaging device 1 includes a digital camera, a television camera, and the like. The imaging device 1 may be a lens-integrated type, or may be a lens interchangeable type such as a single-lens reflex camera or a non-reflex camera (mirrorless camera).

撮像装置1は、撮像部100、光源手段200、レリーズボタン300を有する。   The imaging device 1 includes an imaging unit 100, a light source unit 200, and a release button 300.

撮像部100は、不図示の被写体を撮像する。   The imaging unit 100 images a subject (not shown).

光源手段200は、可視光と不可視光のそれぞれを、3つ以上の互いに異なる複数の位置から照射する。光源手段200は、人の目で見える可視光を照射する可視光光源手段210と、可視光光源手段210とは異なる位置に設けられ、人の目では見えない不可視光である近赤外光を照射する不可視光光源手段220と、を有する。可視光光源手段210は、それぞれが可視光を照射する8つの可視光光源212を備える。不可視光光源手段220は、それぞれが不可視光を照射する8つの不可視光光源222を備える。可視光光源212と不可視光光源222は、夫々同じ大きさを有し、撮像部100の周りに同心円状に設けられている。   The light source means 200 irradiates each of visible light and invisible light from a plurality of three or more different positions. The light source means 200 is provided with a visible light source means 210 that emits visible light that can be seen by human eyes, and near-infrared light that is invisible light that cannot be seen by human eyes. And an invisible light source means 220 for irradiating. The visible light source means 210 includes eight visible light sources 212 that each emit visible light. The invisible light source means 220 includes eight invisible light sources 222 that each emit invisible light. The visible light source 212 and the invisible light source 222 have the same size, and are provided concentrically around the imaging unit 100.

可視光光源手段210の外側に不可視光光源手段220が設けられ、対応する可視光光源212と不可視光光源222は、撮像光軸に垂直な面において撮像光軸から放射方向に延びる線上に位置している。撮像光軸から光源手段200を離せば離すほど被写体の表面の面法線取得精度(推定精度)が高くなる。また、光源手段200の光量が高いほど、または、撮像素子の感度が高いほど、被写体の表面の法線情報取得精度が高くなる。不可視光に対する撮像素子の感度は可視光に対するそれよりも低いので、図1に示すように、不可視光光源手段220を可視光光源手段210の外側に配置している。   The invisible light source unit 220 is provided outside the visible light source unit 210, and the corresponding visible light source 212 and invisible light source 222 are located on a line extending in the radial direction from the imaging optical axis in a plane perpendicular to the imaging optical axis. ing. The further away the light source means 200 is from the imaging optical axis, the higher the surface normal acquisition accuracy (estimation accuracy) of the surface of the subject. Further, the higher the light amount of the light source means 200 or the higher the sensitivity of the image sensor, the higher the accuracy of obtaining normal line information on the surface of the subject. Since the sensitivity of the image sensor to invisible light is lower than that to visible light, the invisible light source means 220 is arranged outside the visible light source means 210 as shown in FIG.

本実施例及び後述する実施例においては、可視光の波長は、400nm以上700nm以下として説明する。不可視光光源は、近赤外光(波長700nm〜2500nm)、赤外光(波長2500nm〜1mm)、紫外光(波長250nm〜400nm)を含む。また、本実施例及び後述する実施例においては、不可視光を近赤外光の一例として説明する。   In the present embodiment and the embodiments described later, the wavelength of visible light will be described as 400 nm to 700 nm. The invisible light source includes near infrared light (wavelength 700 nm to 2500 nm), infrared light (wavelength 2500 nm to 1 mm), and ultraviolet light (wavelength 250 nm to 400 nm). In this embodiment and the embodiments described later, invisible light will be described as an example of near infrared light.

また、光源数は夫々8個に限定されず、照度差ステレオ法に必要な、3つ以上の互いに異なる複数の位置に光源が設けられていれば足りる。撮像装置がレンズ交換式の場合、撮像装置本体と、被写体の光学像を形成し、撮像装置本体に装着可能なレンズ装置は撮像システム(カメラシステム)を構成する。   Further, the number of light sources is not limited to eight, and it is sufficient if light sources are provided at a plurality of three or more different positions necessary for the illuminance difference stereo method. When the imaging device is an interchangeable lens type, a lens device that forms an optical image of a subject with the imaging device body and can be attached to the imaging device body constitutes an imaging system (camera system).

この場合、可視光と不可視光のそれぞれを、3つ以上の互いに異なる複数の位置から照射する光源手段200は、撮像装置本体に設けられてもよいし、レンズ装置に設けられてもよい。また、光源手段200は、撮像装置とは別体の光源装置として設けられてもよい。この場合、光源装置は、撮像装置と、有線または無線を介して、通信可能に接続されていて、撮像装置によって制御される。   In this case, the light source means 200 that irradiates each of visible light and invisible light from a plurality of three or more different positions may be provided in the imaging apparatus main body or may be provided in the lens apparatus. Further, the light source means 200 may be provided as a light source device that is separate from the imaging device. In this case, the light source device is communicably connected to the imaging device via a wired or wireless connection, and is controlled by the imaging device.

レリーズボタン300は、ユーザによる半押しに応じてSW1信号を後述するシステムコントローラ111に送信し、ユーザによる全押しに応じてSW2信号をシステムコントローラ111に送信する。レリーズボタン300は、撮影準備および撮影を指示する指示手段として機能する。本実施例では、レリーズボタン300の半押しは撮影準備の指示に相当し、レリーズボタン300の全押しは撮影の指示に相当する。   The release button 300 transmits a SW1 signal to the system controller 111 described later in response to the half press by the user, and transmits a SW2 signal to the system controller 111 in response to the full press by the user. The release button 300 functions as an instruction means for instructing shooting preparation and shooting. In this embodiment, half-pressing the release button 300 corresponds to a shooting preparation instruction, and full-pressing the release button 300 corresponds to a shooting instruction.

図2は、撮像装置1のブロック図である。撮像装置1は、撮像部100、A/Dコンバータ103、画像処理手段104、表示手段105、光源制御手段106、撮像制御手段107、情報入力手段108、反射特性モデル記録手段109、画像記録手段110、システムコントローラ111を有する。また、上述したように、撮像装置1は、光源手段200を有する。   FIG. 2 is a block diagram of the imaging apparatus 1. The imaging apparatus 1 includes an imaging unit 100, an A / D converter 103, an image processing unit 104, a display unit 105, a light source control unit 106, an imaging control unit 107, an information input unit 108, a reflection characteristic model recording unit 109, and an image recording unit 110. The system controller 111 is included. Further, as described above, the imaging apparatus 1 includes the light source means 200.

本実施例では、撮像部100は、撮像光学系101、撮像素子102及び各種の駆動手段(または移動手段)を有する。   In the present embodiment, the imaging unit 100 includes an imaging optical system 101, an imaging element 102, and various driving means (or moving means).

撮像光学系101は、撮像素子102の撮像面に被写体の光学像(被写体像)を形成し、ズームレンズ(変倍レンズ)101a、絞り101b、フォーカスレンズ101c、波長選択性撮像フィルターFL101dを有する。なお、図2における楕円は、これらのレンズのいずれかを概略的に示すものであり、これは後述する実施例でも同様である。   The imaging optical system 101 forms an optical image (subject image) of a subject on the imaging surface of the image sensor 102, and includes a zoom lens (magnification lens) 101a, a diaphragm 101b, a focus lens 101c, and a wavelength selective imaging filter FL101d. Note that the ellipse in FIG. 2 schematically shows one of these lenses, and this is the same in the examples described later.

ズームレンズ(変倍レンズ)101aは、不図示の駆動手段によって光軸方向に移動されて焦点距離を変更する。絞り101bは、撮像光学系101の射出瞳位置に配置され、不図示の駆動手段によって駆動され、撮像素子102に入射する光量を調節する。フォーカスレンズ101cは、不図示の駆動手段によって光軸方向に移動されて焦点調節を行う。波長選択性撮像フィルターFL101dは、不可視光の透過率を変化(低下)させる手段として機能し、移動手段101eによって撮像光学系101の光路に挿抜可能に移動される。システムコントローラ111は、可視光を照射させる場合には波長選択性撮像フィルターFL101dを光路に挿入させ、不可視光を照射させる場合には光路から退避させるように、撮像制御手段107を介して移動手段101eを制御する。即ち、不可視光を照射させる場合には可視光を照射させる場合よりも不可視光の透過率を上昇させる。   The zoom lens (magnification lens) 101a is moved in the optical axis direction by a driving unit (not shown) to change the focal length. The diaphragm 101b is disposed at the exit pupil position of the imaging optical system 101, is driven by a driving unit (not shown), and adjusts the amount of light incident on the imaging element 102. The focus lens 101c is moved in the optical axis direction by a driving unit (not shown) to perform focus adjustment. The wavelength selective imaging filter FL101d functions as means for changing (decreasing) the transmittance of invisible light, and is moved by the moving means 101e so as to be inserted into and removed from the optical path of the imaging optical system 101. When irradiating visible light, the system controller 111 inserts the wavelength-selective imaging filter FL101d into the optical path, and when irradiating invisible light, the system controller 111 moves the moving means 101e via the imaging control means 107. To control. That is, in the case of irradiating invisible light, the transmittance of invisible light is increased more than in the case of irradiating visible light.

撮像素子102は、CCDセンサやCMOSセンサ等の光電変換素子により構成され、撮像光学系101が形成した光学像を光電変換することによって被写体を撮像する。撮像素子102は、例えば、ベイヤー配列を有するカラーフィルタを光電変換素子群上に備えているが、カラーフィルタの配列はこれに限定されるものではない。ベイヤー配列では、2×2の4画素にR(赤)1画素、G(緑)2画素、B(青)1画素を1セットにして規則的に並べたものである。2つのG画素は対角方向に配置され、R画素とB画素はこれに直交する対角方向に設けられている。   The image pickup element 102 is configured by a photoelectric conversion element such as a CCD sensor or a CMOS sensor, and picks up an object by photoelectrically converting an optical image formed by the image pickup optical system 101. The image sensor 102 includes, for example, a color filter having a Bayer array on the photoelectric conversion element group, but the color filter array is not limited to this. In the Bayer array, 1 pixel of R (red), 2 pixels of G (green), and 1 pixel of B (blue) are regularly arranged in 4 pixels of 2 × 2. The two G pixels are arranged in a diagonal direction, and the R pixel and the B pixel are provided in a diagonal direction orthogonal thereto.

本発明の法線情報取得方法では、3つ以上の位置が異なる複数の光源から順次光を被写体に照射することによって被写体を撮像し、輝度情報を取得する。被写体は撮像素子102によって撮像されて撮像画像となるが、輝度情報の取得は、画像処理手段104によって被写体の撮像画像から取得される。ここで、「輝度情報」とは、RGBの各画素の画素値(輝度値)である。   In the normal line information acquisition method of the present invention, the subject is imaged by sequentially irradiating the subject with light from a plurality of light sources having three or more different positions, and luminance information is acquired. The subject is picked up by the image sensor 102 to become a picked-up image, and the luminance information is acquired from the picked-up image of the subject by the image processing means 104. Here, “luminance information” is a pixel value (luminance value) of each pixel of RGB.

本発明では、光源として、可視光光源手段と不可視光光源手段を使用するが、RGBの各画素は、不可視光(例えば、近赤外光)にも感度を有する。照度差ステレオ方式では、輝度情報自体ではなく複数の位置における輝度情報の変化(輝度差)が必要であるため、撮像素子102が不可視光のみに感度を有する専用画素を備えなくても照度差ステレオ方式で必要とされる輝度情報を取得することができる。もちろん、撮像素子102は、可視光に感度を有さず不可視光に感度を有する画素を備えてもよい。   In the present invention, visible light source means and invisible light source means are used as light sources, but each pixel of RGB has sensitivity to invisible light (for example, near infrared light). In the illuminance difference stereo method, changes in luminance information (luminance differences) are required at a plurality of positions instead of the luminance information itself. Therefore, even if the image sensor 102 does not include a dedicated pixel sensitive only to invisible light, the illuminance difference stereo. Luminance information required by the method can be acquired. Needless to say, the image sensor 102 may include pixels that are not sensitive to visible light but sensitive to invisible light.

本発明は、撮影後の画像処理において、被写体の見えを変更した画像を生成することを可能にする。このためには、被写体の表面の法線情報を取得するだけでなく、可視光に対する被写体の撮像画像を取得する必要がある。撮像素子102が通常のベイヤー配列のカラーフィルタを有する場合に近赤外光のみを用いて被写体を照明すると、RGBの各画素は、近赤外光にも感度を有するため、撮影画像は赤みがかった画像となってしまう。撮像素子102が、近赤外光にのみ感度を有する専用画素を備えている場合、当該専用画素の画素値をRGB画素の各画素値から引くことによって被写体画像を補正することができる。もちろん、後述するように、この方法を使用しなくてもよい。   The present invention makes it possible to generate an image in which the appearance of a subject is changed in image processing after shooting. For this purpose, it is necessary to acquire not only the normal information of the surface of the subject but also the captured image of the subject with respect to visible light. When the image sensor 102 has a normal Bayer color filter and illuminates the subject using only near infrared light, each pixel of RGB has sensitivity to near infrared light, so the photographed image is reddish. It becomes an image. When the imaging element 102 includes a dedicated pixel that has sensitivity only to near-infrared light, the subject image can be corrected by subtracting the pixel value of the dedicated pixel from each pixel value of the RGB pixel. Of course, as will be described later, this method need not be used.

A/Dコンバータ103は、撮像素子102によって生成されたアナログ電気信号を、デジタル信号に変換して画像処理手段104に出力する。   The A / D converter 103 converts the analog electrical signal generated by the image sensor 102 into a digital signal and outputs the digital signal to the image processing unit 104.

画像処理手段104は、デジタル信号に対して色変換、ホワイトバランス、ガンマ補正等の画像処理、解像度変換処理、画像圧縮処理等を行う。また、画像処理手段104は、被写体の局所面の法線情報を推定(取得)する。画像処理手段104は、撮像素子102によって得られた被写体の撮像画像において顔を検出する顔検出手段104aと、被写体の撮像画像から得られる輝度情報に基づいて、被写体の表面の法線情報を取得する法線情報取得手段104bと、を有する。   The image processing unit 104 performs color conversion, white balance, gamma correction and other image processing, resolution conversion processing, image compression processing, and the like on the digital signal. Further, the image processing unit 104 estimates (acquires) normal line information of the local surface of the subject. The image processing unit 104 obtains normal information on the surface of the subject based on the face detection unit 104a that detects a face in the captured image of the subject obtained by the imaging element 102 and the luminance information obtained from the captured image of the subject. Normal information acquisition means 104b.

法線情報取得手段104bは、画像処理手段104に設けられずに、独立した専用画像処理装置(法線情報取得装置)またはパーソナルコンピュータ(PC)として構成されてもよい。この場合、PCには、本発明の法線情報取得方法や画像の見せを変更する画像処理方法を実行するソフトウェアがインストールされる。このソフトウェアは、コンピュータにこれらの方法を実行させるためのプログラムとして具現化が可能であり、このようなプログラムは、記憶手段(例えば、非一時的なコンピュータ可読記憶媒体)に記憶可能である。   The normal line information acquisition unit 104b may be configured as an independent dedicated image processing apparatus (normal line information acquisition apparatus) or a personal computer (PC) without being provided in the image processing unit 104. In this case, software for executing the normal information acquisition method and the image processing method for changing the appearance of the image of the present invention is installed in the PC. This software can be embodied as a program for causing a computer to execute these methods, and such a program can be stored in a storage means (for example, a non-transitory computer-readable storage medium).

撮像装置または上述した撮像システムと、法線情報取得装置と、は法線情報取得システムを構成する。   The imaging device or the imaging system described above and the normal information acquisition device constitute a normal information acquisition system.

表示手段105は、画像処理手段104で処理された出力画像、各種の制御情報、法線情報、見えが変更される前後の画像を表示し、液晶ディスプレイ、各種ランプ等から構成される。光源制御手段106は、システムコントローラ111からの情報に基づいて、光源手段200の発光制御(発光のオンオフと発光量)を行う。   The display unit 105 displays the output image processed by the image processing unit 104, various control information, normal information, and images before and after the appearance is changed, and includes a liquid crystal display, various lamps, and the like. The light source control means 106 performs light emission control (light emission on / off and light emission amount) of the light source means 200 based on information from the system controller 111.

撮像制御手段107は、システムコントローラ111からの情報に基づいて、撮像光学系101と撮像素子102の動作を制御する。より具体的には、撮像制御手段107は、フォーカスレンズや変倍レンズの移動、絞り101bによる絞り値、露出時間、移動手段101eによる波長選択性撮像フィルターFL101dの挿脱、撮像素子102への通電などを制御する。なお、撮像光学系101がレンズ装置に設けられる場合には、レンズ装置のレンズ制御手段が撮像制御手段107の一部の機能を有することになり、レンズ制御手段は、撮像装置本体のカメラ制御手段によって制御される。   The imaging control unit 107 controls the operations of the imaging optical system 101 and the imaging element 102 based on information from the system controller 111. More specifically, the imaging control unit 107 moves the focus lens and the zoom lens, the aperture value by the aperture 101b, the exposure time, the insertion / removal of the wavelength selective imaging filter FL101d by the moving unit 101e, and the energization to the imaging element 102. Control etc. When the imaging optical system 101 is provided in the lens apparatus, the lens control unit of the lens apparatus has a partial function of the imaging control unit 107, and the lens control unit is a camera control unit of the imaging apparatus body. Controlled by.

情報入力手段108は、ユーザが所望の撮影条件(絞り値や露出時間、焦点距離など)を選択して入力する情報を表すデータをシステムコントローラ111に出力スイッチ、ダイヤル、ボタン、レバー、タッチスクリーンなどを含む入力手段である。   The information input means 108 outputs data representing information input by the user selecting desired photographing conditions (aperture value, exposure time, focal length, etc.) to the system controller 111, such as an output switch, dial, button, lever, touch screen, etc. It is the input means containing.

本実施例では、システムコントローラ111が光源手段200の発光を自動的に切り替えているが、本発明はユーザが手動で切り替えることも許容する。この場合、3つ以上の互いに異なる複数の位置から光を被写体に順次照射し、各照射時に前記被写体を撮像する撮像装置は、可視光および不可視光のそれぞれを、3つ以上の互いに異なる複数の位置から照射する光源手段200と、情報入力手段108を有する。そして、情報入力手段108は、ユーザが、可視光と不可視光の照射を手動で切り替えることを可能にする操作手段として機能する。   In the present embodiment, the system controller 111 automatically switches the light emission of the light source means 200, but the present invention also allows the user to switch manually. In this case, an imaging apparatus that sequentially irradiates light from a plurality of different positions at three or more and images the subject at the time of each irradiation, each of visible light and invisible light is converted into a plurality of three or more different light. A light source means 200 for irradiating from a position and an information input means 108 are provided. The information input unit 108 functions as an operation unit that allows a user to manually switch between irradiation of visible light and invisible light.

反射特性モデル記録手段109は、不可視光による被写体の反射特性モデルデータや上述したランバート反射モデルを記憶する記憶手段であり、半導体メモリや光ディスク等から構成される。   The reflection characteristic model recording means 109 is a storage means for storing the reflection characteristic model data of the subject by invisible light and the Lambertian reflection model described above, and is constituted by a semiconductor memory, an optical disk, or the like.

画像記録手段110は、画像処理手段104で処理された出力画像、面法線情報、輝度情報などの各種の情報を記録する記憶手段であり、半導体メモリや光ディスク等から構成される。   The image recording unit 110 is a storage unit that records various types of information such as an output image processed by the image processing unit 104, surface normal information, and luminance information, and includes a semiconductor memory, an optical disk, and the like.

システムコントローラ111は、撮像装置1の各部の動作を制御する制御手段であり、マイクロコンピュータから構成される。特に、システムコントローラ111は、3つ以上の互いに異なる複数の位置から光を被写体に順次照射させ、各照射時に被写体を撮像させる制御装置として機能する。システムコントローラ111は、レリーズボタン300によって生成されるSW1信号に応じて、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理、顔検出等の撮影準備動作を開始する。また、システムコントローラ111は、レリーズボタン300によって生成されるSW2信号に応じて、不図示のシャッター駆動回路を駆動し、撮影光束を撮像素子102に導き、露光(撮影)を行う。また、システムコントローラ111は、SW2信号に応じて、撮像素子102からの信号読み出しから画像記録手段110に画像データを書き込むまでの一連の撮影処理の動作を制御する。また、システムコントローラ111は、図3に示す制御方法を実行する。   The system controller 111 is a control unit that controls the operation of each unit of the imaging apparatus 1 and includes a microcomputer. In particular, the system controller 111 functions as a control device that sequentially irradiates the subject with light from a plurality of different positions of three or more and images the subject at each irradiation. The system controller 111 starts shooting preparation operations such as AWB (auto white balance) processing, EF (flash pre-flash) processing, face detection, etc., in accordance with the SW1 signal generated by the release button 300. Further, the system controller 111 drives a shutter drive circuit (not shown) in accordance with the SW2 signal generated by the release button 300, guides the photographing light flux to the image sensor 102, and performs exposure (photographing). Further, the system controller 111 controls a series of photographing processing operations from reading a signal from the image sensor 102 to writing image data in the image recording unit 110 according to the SW2 signal. Further, the system controller 111 executes the control method shown in FIG.

図3は、システムコントローラ111が実行する画像処理方法(法線推定方法)を示すフローチャートであり、「S」はステップ(工程)を表している。図3に示すフローチャートは、コンピュータに各ステップの処理を実行させるためのプログラムと具現化が可能であり、このようなプログラムは、画像記録手段110やその他の記憶手段(例えば、非一時的なコンピュータ可読記憶媒体)に記憶可能である。Yは「はい(Yes)」を表し、Nは「いいえ(No)」を表している。   FIG. 3 is a flowchart showing an image processing method (normal line estimation method) executed by the system controller 111, and “S” represents a step (process). The flowchart shown in FIG. 3 can be embodied as a program for causing a computer to execute the processing of each step. Such a program can be stored in the image recording unit 110 or other storage unit (for example, a non-transitory computer). A readable storage medium). Y represents “Yes”, and N represents “No”.

S101では、システムコントローラ111は、使用者が情報入力手段108から入力した所望の撮影条件(絞り値や露出時間、焦点距離など)を設定する。   In S101, the system controller 111 sets desired shooting conditions (aperture value, exposure time, focal length, etc.) input from the information input unit 108 by the user.

S102では、システムコントローラ111は、レリーズボタン300が半押しされたかどうかを、SW1信号を受信したかどうかに基づいて判定する。半押しされた場合は、撮像装置は撮影準備状態となり、プリ撮影を行い、画像記録手段110または不図示の記憶手段に、プリ撮影画像を保存する。プリ撮影では、可視光光源手段210と不可視光光源手段220のいずれも発光させない状態で被写体を撮像することによって被写体の撮像画像を取得する。撮像素子102が、不可視光のみに感度を有する画素(つまり、可視光に感度を有さず不可視光に感度を有する画素)を有しない場合、画像処理手段104は、このときのRGB画素の各画素値を画像記録手段110に記録しておく。この情報は、被写体に顔が含まれる場合の画像を補正するのに使用することができる。   In S102, the system controller 111 determines whether or not the release button 300 is half-pressed based on whether or not the SW1 signal is received. When half-pressed, the imaging apparatus enters a shooting preparation state, performs pre-shooting, and stores the pre-shot image in the image recording unit 110 or a storage unit (not shown). In pre-photographing, a captured image of a subject is acquired by capturing the subject in a state where neither the visible light source unit 210 nor the invisible light source unit 220 emits light. When the image sensor 102 does not have a pixel that is sensitive only to invisible light (that is, a pixel that is not sensitive to visible light and sensitive to invisible light), the image processing unit 104 performs each of the RGB pixels at this time. The pixel value is recorded in the image recording unit 110. This information can be used to correct an image when the subject includes a face.

S103では、システムコントローラ111は、と顔検出手段104aの検出結果に基づいて、S102で得られたプリ撮影画像に被写体の顔が検出されたかどうかを判定する。顔検出手段104aは、プリ撮影画像データに対して水平方向バンドパスフィルタ処理を行い、水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これにより、画像データからエッジ成分が検出される。   In S103, the system controller 111 determines whether the face of the subject is detected in the pre-captured image obtained in S102 based on the detection result of the face detection unit 104a. The face detection unit 104a performs horizontal bandpass filter processing on the pre-captured image data, and performs vertical bandpass filter processing on the image data that has been subjected to the horizontal bandpass filter processing. Thereby, an edge component is detected from the image data.

次に、顔検出手段104aは、検出されたエッジ成分に関してパターンマッチングを行って、目、鼻、口および耳の候補群を抽出する。次に、顔検出手段104aは、抽出された目の候補群の中から予め設定された条件(例えば、2つの目の距離および傾きなどの条件)を満たす候補を目の対と判定し、目の対をなさない候補群を除外して目の候補群を絞り込む。   Next, the face detection unit 104a performs pattern matching on the detected edge component to extract a candidate group of eyes, nose, mouth, and ears. Next, the face detection unit 104a determines a candidate satisfying a preset condition (for example, conditions such as the distance and inclination of two eyes) from the extracted eye candidate group as an eye pair. Narrow down the candidate group of eyes by excluding the candidate group that does not make a pair.

次に、顔検出手段104aは、絞り込んだ目の候補群と当該目に対応して顔を形成する他のパーツ(鼻、口、耳)とを対応づけて顔領域候補を決定し、顔領域候補に対して予め設定された非顔条件フィルター処理を行う。顔検出手段104aは、顔条件を満たさないと判定した顔領域候補を除外し、残りの顔領域候補を顔領域として検出し、顔領域の検出結果を示す顔情報をシステムコントローラ111に出力する。   Next, the face detection unit 104a associates the narrowed-down eye candidate group with other parts (nose, mouth, ears) that form a face corresponding to the eye, and determines a face area candidate. A preset non-face condition filtering process is performed on the candidate. The face detection unit 104a excludes face area candidates determined not to satisfy the face condition, detects the remaining face area candidates as face areas, and outputs face information indicating the detection result of the face area to the system controller 111.

図4は、検出された人物の顔領域1001の一例を示す図である。システムコントローラ111は、顔情報を、画像記録手段110または不図示の記憶手段に記憶する。顔検出手段104aにより顔が検出されなかった場合にはフローはS104へ、顔が検出された場合にはフローはS105へ移行する。   FIG. 4 is a diagram illustrating an example of a detected human face area 1001. The system controller 111 stores the face information in the image recording unit 110 or a storage unit (not shown). If no face is detected by the face detection unit 104a, the flow proceeds to S104, and if a face is detected, the flow proceeds to S105.

S104では、システムコントローラ111は、光源制御手段106に、照射させる光として(照度差ステレオ法を実施する光源として)全光源(可視光光源手段210と不可視光光源手段220の計16個)を選択するように命令する。S104では、可視光光源手段210のみを選択して不可視光光源手段220を選択しなくてもよいが、可視光光源手段210を選択せずに不可視光光源手段220を選択することはない。後者の場合には、法線情報取得精度が低下するおそれがあるからである。両方を選択する理由は、選択される光源数が増加するほど、法線情報取得精度は向上するからである。   In S104, the system controller 111 selects all light sources (a total of 16 visible light source means 210 and invisible light source means 220) as light to be emitted to the light source control means 106 (as light sources for performing the illuminance difference stereo method). Order to do. In S104, only the visible light source unit 210 need not be selected and the invisible light source unit 220 need not be selected. However, the invisible light source unit 220 is not selected without selecting the visible light source unit 210. This is because in the latter case, there is a risk that the normal information acquisition accuracy may be reduced. The reason for selecting both is that the normal information acquisition accuracy improves as the number of selected light sources increases.

S105では、システムコントローラ111は、光源制御手段106に、照射させる光として可視光光源手段210を選択せずに不可視光光源手段220を選択するように命令する。顔が検出された場合、被写体に人物が含まれており、可視光光源手段210を点灯させると人物は眩しいと感じてしまう(不快感を抱いてしまう)からである。これにより、被写体人物の法線情報を推定する際に眩しさによる不快感を低減させることができる。   In S105, the system controller 111 instructs the light source control means 106 to select the invisible light source means 220 without selecting the visible light source means 210 as the light to be irradiated. This is because when a face is detected, the subject includes a person, and when the visible light source means 210 is turned on, the person feels dazzling (has discomfort). Thereby, it is possible to reduce discomfort due to glare when estimating the normal information of the subject person.

S106では、システムコントローラ111は、レリーズボタン300が全押しされたかどうかを、SW2信号を受信したかどうかに基づいて判定する。全押しされた場合は、撮像装置1は撮影状態となり、本撮影を開始する。   In S106, the system controller 111 determines whether the release button 300 is fully pressed based on whether the SW2 signal is received. When fully pressed, the imaging apparatus 1 enters a shooting state and starts actual shooting.

S107では、システムコントローラ111は、撮像制御手段107と光源制御手段106を制御することによって、3つ以上の異なる複数の位置にある光源を順次発光させることによって被写体を撮像して複数の撮像画像を取得する。   In step S107, the system controller 111 controls the imaging control unit 107 and the light source control unit 106 to sequentially illuminate light sources at three or more different positions, thereby imaging a subject and generating a plurality of captured images. get.

S104からS107のフローを経た場合には、16個の光源が順次発光し、S105からS107のフローを経た場合には、8個の光源が順次発光する。各発光に同期して、撮像素子102は、被写体を撮像して複数の撮像画像を生成し、画像処理手段104は各撮像画像について輝度情報を取得する。そのタイミングに合わせて撮像素子102に撮像させることによって複数の光源位置で被写体を撮像させる。   When the flow from S104 to S107 is performed, 16 light sources sequentially emit light, and when the flow from S105 to S107 is performed, 8 light sources sequentially emit light. In synchronization with each light emission, the image sensor 102 images a subject to generate a plurality of captured images, and the image processing unit 104 acquires luminance information for each captured image. The subject is imaged at a plurality of light source positions by causing the image sensor 102 to image in accordance with the timing.

不可視光光源手段220が点灯される場合、撮像制御手段107は、波長選択性撮像フィルターFL101dを退避させることで撮像素子102へ不可視光を透過させる。つまり、システムコントローラ111は、可視光を照射させる場合には前記フィルターを光路に挿入させ、不可視光を照射させる場合には前記フィルターを光路から退避させるように、撮像制御手段107を介して移動手段101eを制御する。   When the invisible light source unit 220 is turned on, the imaging control unit 107 transmits the invisible light to the imaging element 102 by retracting the wavelength selective imaging filter FL101d. That is, the system controller 111 moves the moving unit via the imaging control unit 107 so as to insert the filter into the optical path when irradiating visible light, and retract the filter from the optical path when irradiating invisible light. 101e is controlled.

本実施例は、波長選択性撮像フィルターFL101dを移動させているが、電気的制御によってフィルターの組成を変化させて透過率や反射率を低下させて撮像素子102へ不可視光の透過を調節してもよい。また、撮像素子102が、近赤外光にのみ感度を有する画素を備える場合、解像度は低下するが、波長選択性フィルターを用いずに波長分離して(近赤外光による赤みを補正によって除去することによって)適正な被写体の画像を得ることも可能である。   In this embodiment, the wavelength-selective imaging filter FL101d is moved, but the transmittance and reflectance are reduced by changing the filter composition by electrical control to adjust the transmission of invisible light to the imaging element 102. Also good. In addition, when the image sensor 102 includes pixels that are sensitive only to near-infrared light, the resolution is reduced, but wavelength separation is performed without using a wavelength selective filter (redness due to near-infrared light is removed by correction). It is also possible to obtain an appropriate subject image.

S108では、システムコントローラ111は、画像処理手段104の法線情報取得手段104bに、撮像素子102から出力されてA/Dコンバータ103にてA/D変換されたデジタル信号を用いて、法線情報を推定(取得)させる。このとき、画像処理手段104は、画像生成のために、通常の現像処理や各種の画像補正処理を実施してもよい。法線情報取得手段104bは、照度差ステレオ法を用いて、光源位置による輝度情報の変化に基づいて法線を推定する。   In S <b> 108, the system controller 111 uses the digital signal output from the image sensor 102 and A / D converted by the A / D converter 103 to the normal information acquisition unit 104 b of the image processing unit 104 to use the normal information. Is estimated (acquired). At this time, the image processing means 104 may perform normal development processing and various image correction processing for image generation. The normal line information acquisition unit 104b estimates a normal line based on a change in luminance information depending on a light source position using an illuminance difference stereo method.

S104からS107のフローを経た場合には、一般被写体の反射特性を反射特性モデル記録手段109に記録されたランバート反射モデルと仮定し、各波長域の輝度情報の変化に基づいて照度差ステレオ法により個別に面法線を算出する。非特許文献1に示されているように、被写体の材質や色により反射特性が照射する波長によって異なるため、各波長域で算出された面法線は誤差を含み異なっているが、その平均値をとることで誤差を軽減することができる。また、非特許文献1に示される手法により、反射特性が最もランバート反射モデルに近くなる波長域の光源を判定し選択することで面法線取得精度を向上させることも可能である。このように、一般的な被写体(人物以外の被写体)を対象とする場合にも、複数の波長域での輝度情報の変化に基づくことで面法線の取得精度の低下を抑制することが可能となる。   When the flow from S104 to S107 is performed, the reflection characteristic of the general subject is assumed to be a Lambertian reflection model recorded in the reflection characteristic model recording unit 109, and the illuminance difference stereo method is used based on the change in the luminance information in each wavelength region. The surface normal is calculated individually. As shown in Non-Patent Document 1, since the reflection characteristic varies depending on the wavelength of irradiation depending on the material and color of the subject, the surface normal calculated in each wavelength range is different including an error, but the average value thereof is different. By taking the error can be reduced. Further, by using the method shown in Non-Patent Document 1, it is possible to improve the surface normal acquisition accuracy by determining and selecting a light source in a wavelength region where the reflection characteristic is closest to the Lambertian reflection model. In this way, even when a general subject (subject other than a person) is targeted, it is possible to suppress a decrease in surface normal acquisition accuracy based on changes in luminance information in a plurality of wavelength ranges. It becomes.

S105からS107のフローを経た場合には、不可視光領域の人物の顔や肌の反射特性はランバート反射モデルとは異なっているため、ランバート反射モデルを仮定して人物の法線情報を推定すると大きな推定誤差が生じ得る。そこで、本実施例では、事前に不可視光に対する人物の反射特性データを取得しておき、その反射特性データに基づいて人物用反射特性モデルを作成し、反射特性モデル記録手段109に保存しておく。この人物用反射特性モデルと照度差ステレオ法に基づいて人物の法線情報を推定することにより、人物の面法線を精度良く算出することが可能となる。   When the flow from S105 to S107 is performed, the reflection characteristics of the human face and skin in the invisible light region are different from those of the Lambert reflection model. An estimation error can occur. Therefore, in this embodiment, human reflection characteristic data for invisible light is acquired in advance, a human reflection characteristic model is created based on the reflection characteristic data, and stored in the reflection characteristic model recording means 109. . By estimating the normal information of the person based on the reflection characteristic model for a person and the illuminance difference stereo method, the surface normal of the person can be accurately calculated.

本実施例によれば、顔が検出された場合に、可視光光源手段210を選択せずに不可視光光源手段220を選択することによって、人物の法線情報を推定する際の眩しさを低減することができる。更に、照度差ステレオ法に使用する不可視光に対する人物用反射特性モデルを備えることによって、人物の面法線を精度良く推定することが可能となる。また、一般被写体に対しては複数の波長領域の光源を使用することで、一般のより広範囲の被写体に対してロバストな法線情報の推定を行うことができる。   According to the present embodiment, when a face is detected, the dullness in estimating the normal information of the person is reduced by selecting the invisible light source means 220 without selecting the visible light source means 210. can do. Furthermore, by providing a human reflection characteristic model for invisible light used in the illuminance difference stereo method, it is possible to accurately estimate the human surface normal. In addition, by using a light source in a plurality of wavelength regions for a general subject, it is possible to estimate normal information that is robust to a general wider range of subjects.

図5は、本発明の実施例2に係る撮像装置2の外観斜視図である。撮像装置2は、レリーズボタン300、被写体を撮像する2つの撮像部400、500、8つの光源手段600を有する。光源手段600は、複数の位置のそれぞれから可視光と不可視光を照射することが可能な広帯域光源である。   FIG. 5 is an external perspective view of the imaging apparatus 2 according to the second embodiment of the present invention. The imaging device 2 includes a release button 300, two imaging units 400 and 500 that image a subject, and eight light source means 600. The light source means 600 is a broadband light source capable of emitting visible light and invisible light from each of a plurality of positions.

図6(a)は、撮像部400の構成を示す概略図である。撮像部400は、可視光領域撮影用の撮像部であり、被写体の光学像を形成する第1の撮像光学系401と、第1の撮像光学系401が形成した被写体の光学像を光電変換する第1の撮像素子402と、を有する。第1の撮像光学系401は、可視光領域の波長の光を透過させ、第1の撮像素子402上に結像させるが、不可視光を透過させない。第1の撮像光学系401は、ズームレンズ(変倍レンズ)401a、絞り401b、フォーカスレンズ401c、波長選択性撮像フィルターFL401dを有し、これらの機能は実施例1と同様である。   FIG. 6A is a schematic diagram illustrating the configuration of the imaging unit 400. The imaging unit 400 is an imaging unit for photographing a visible light region, and photoelectrically converts a first imaging optical system 401 that forms an optical image of the subject and an optical image of the subject formed by the first imaging optical system 401. A first imaging element 402. The first imaging optical system 401 transmits light having a wavelength in the visible light region and forms an image on the first imaging element 402, but does not transmit invisible light. The first imaging optical system 401 includes a zoom lens (magnification lens) 401a, a diaphragm 401b, a focus lens 401c, and a wavelength selective imaging filter FL401d, and these functions are the same as those in the first embodiment.

図6(b)は、撮像部500の構成を示す概略図である。撮像部500は、被写体の光学像を形成する第2の撮像光学系501と、第2の撮像光学系402が形成した被写体の光学像を光電変換する第2の撮像素子502と、を有する。第2の撮像光学系501は、ズームレンズ(変倍レンズ)501a、絞り501b、フォーカスレンズ501cを有し、これらの機能は実施例1と同様であるが、波長選択性撮像フィルターを備えていない。つまり、第2の撮像光学系501は、可視光領域の波長の光と不可視光を透過させ、第2の撮像素子502上に結像させる。即ち、第2の撮像光学系501は、第1の撮像光学系401よりも不可視光の透過率が高い。このため、撮像部500は、不可視光領域撮影用の撮像部として機能する。   FIG. 6B is a schematic diagram illustrating the configuration of the imaging unit 500. The imaging unit 500 includes a second imaging optical system 501 that forms an optical image of the subject, and a second imaging element 502 that photoelectrically converts the optical image of the subject formed by the second imaging optical system 402. The second imaging optical system 501 includes a zoom lens (magnification lens) 501a, a diaphragm 501b, and a focus lens 501c. These functions are the same as those in the first embodiment, but do not include a wavelength-selective imaging filter. . That is, the second imaging optical system 501 transmits light having a wavelength in the visible light region and invisible light, and forms an image on the second imaging element 502. That is, the second imaging optical system 501 has a higher transmittance for invisible light than the first imaging optical system 401. For this reason, the imaging unit 500 functions as an imaging unit for invisible light region imaging.

図7は、光源手段600の構成を示す概略図である。光源手段600は、発光部610の撮像素子側に配置された、不可視光の透過を低下させる波長選択性光源フィルターFL620と、該フィルターを光軸に着脱可能に移動させる移動手段630と、を備えている。移動手段630による駆動は、光源制御手段106によって制御される。システムコントローラ111は、可視光を照射させる場合には波長選択性光源フィルターFL620を光路に挿入させ、不可視光を照射させる場合にはフィルターを光路から退避させるように、光源制御手段106を介して移動手段630を制御する。   FIG. 7 is a schematic diagram showing the configuration of the light source means 600. The light source means 600 includes a wavelength-selective light source filter FL620 that is disposed on the image sensor side of the light emitting unit 610 and reduces transmission of invisible light, and a moving means 630 that removably moves the filter on the optical axis. ing. The driving by the moving unit 630 is controlled by the light source control unit 106. The system controller 111 moves through the light source control means 106 so that the wavelength selective light source filter FL620 is inserted into the optical path when irradiating visible light, and the filter is retracted from the optical path when irradiating invisible light. Control means 630.

なお、各光源手段の発光部の数は1つに限定されない。LED光源のようにR(波長620nm〜750nm、例えば、700nm)、G(波長495nm〜570nm、例えば、546.1nm)B(波長430nm〜495nm、例えば、435.8nm)、近赤外の発光部を複数備えたものでもよい。その場合、発光部610を選択することで照射波長を選択することができるため、波長選択性光源フィルターFL620を用いなくても照射波長の制御が可能となる。撮像部400、500、光源手段600の構成以外は実施例1の図2に示すブロック図と同様の構成であるため説明を省略する。   In addition, the number of the light emission parts of each light source means is not limited to one. R (wavelength 620 nm to 750 nm, for example, 700 nm), G (wavelength 495 nm to 570 nm, for example, 546.1 nm) B (wavelength 430 nm to 495 nm, for example, 435.8 nm), near infrared light emitting part It may be provided with a plurality. In that case, since the irradiation wavelength can be selected by selecting the light emitting unit 610, the irradiation wavelength can be controlled without using the wavelength selective light source filter FL620. Except for the configuration of the imaging units 400 and 500 and the light source unit 600, the configuration is the same as the block diagram shown in FIG.

図8は、システムコントローラ111が実行する画像処理方法(法線推定方法)を示すフローチャートであり、「S」はステップ(工程)を表している。図3に示すフローチャートは、コンピュータに各ステップの処理を実行させるためのプログラムと具現化が可能であり、このようなプログラムは、画像記録手段110やその他の記憶手段(例えば、非一時的なコンピュータ可読記憶媒体)に記憶可能である。Yは「はい(Yes)」を表し、Nは「いいえ(No)」を表している。以下、図3と異なるステップについてのみ説明する。   FIG. 8 is a flowchart showing an image processing method (normal line estimation method) executed by the system controller 111, and “S” represents a step (process). The flowchart shown in FIG. 3 can be embodied as a program for causing a computer to execute the processing of each step. Such a program can be stored in the image recording unit 110 or other storage unit (for example, a non-transitory computer). A readable storage medium). Y represents “Yes”, and N represents “No”. Only steps different from those in FIG. 3 will be described below.

S201からS203まではS101からS103と同様である。S204では、システムコントローラ111は、光源制御手段106に、S103において顔が検出されなかった場合に、照射させる光として(照度差ステレオ法を実施する光源として)全波長領域の光を選択させる。「全波長領域」とは、光源手段600が照射可能な全波長領域を意味する。これに応答して、光源制御手段106は、不図示の駆動手段を制御して、波長選択性光源フィルターFL620を光路から退避させる。   S201 to S203 are the same as S101 to S103. In S204, the system controller 111 causes the light source control unit 106 to select light in the entire wavelength region as light to be irradiated (as a light source for performing the illuminance difference stereo method) when a face is not detected in S103. “Full wavelength region” means the full wavelength region that the light source means 600 can irradiate. In response to this, the light source control means 106 controls a driving means (not shown) to retract the wavelength selective light source filter FL620 from the optical path.

S205では、システムコントローラ111は、S103において顔が検出された場合に、光源制御手段106に、照射させる光として不可視光(近赤外光)を選択させ、可視光を選択させない。これに応答して、光源制御手段106は、不図示の駆動手段を制御して、波長選択性光源フィルターFL620を光路に挿入させる。顔が検出された場合、被写体に人物が含まれており、可視光を照射すると人物は眩しいと感じてしまうからである。これにより、被写体人物の法線情報を推定する際に眩しさによる不快感を低減させることができる。   In S205, when a face is detected in S103, the system controller 111 causes the light source control unit 106 to select invisible light (near infrared light) as light to be irradiated, and does not select visible light. In response to this, the light source control means 106 controls a driving means (not shown) to insert the wavelength selective light source filter FL620 into the optical path. This is because when a face is detected, a person is included in the subject and the person feels dazzling when irradiated with visible light. Thereby, it is possible to reduce discomfort due to glare when estimating the normal information of the subject person.

なお、波長選択性光源フィルターFL620を挿脱させる代わりに、電気的制御によってフィルターの組成を変化させ、透過率や反射率を変化させて照射する波長を制御する構成としてもよい。   Instead of inserting / removing the wavelength selective light source filter FL620, the composition of the filter may be changed by electrical control, and the wavelength to be irradiated may be controlled by changing the transmittance or reflectance.

S206はS106と同様である。S207では、システムコントローラ111は、撮像制御手段107と光源制御手段106を制御することによって、複数の光源位置において被写体を撮像し、画像処理手段104に輝度情報を取得させる。特に、不可視光が照射される場合は、撮像制御手段107は、不可視光撮影用の撮像部500を制御し、輝度情報を取得させる。本実施例では撮像部を可視光用、不可視光用の2つの光学系で構成することによって、波長選択性撮像フィルターを退避させることなしに、両波長域での輝度情報の取得を同時に実行することができ、制御の簡易化を実現することができる。S208はS108と同様である。   S206 is the same as S106. In S207, the system controller 111 controls the imaging control unit 107 and the light source control unit 106 to image a subject at a plurality of light source positions, and causes the image processing unit 104 to acquire luminance information. In particular, when invisible light is irradiated, the imaging control unit 107 controls the imaging unit 500 for invisible light imaging to acquire luminance information. In this embodiment, the imaging unit is configured with two optical systems for visible light and invisible light, thereby simultaneously obtaining luminance information in both wavelength regions without retracting the wavelength selective imaging filter. Therefore, simplification of control can be realized. S208 is the same as S108.

本実施例によれば、顔が検出された場合に、可視光を選択せずに不可視光を選択することによって、人物の法線情報を推定する際の眩しさを低減することができる。更に、照度差ステレオ法に使用する不可視光に対する人物用反射特性モデルを備えることによって、人物の面法線を精度良く推定することが可能である。また、一般被写体に対しては複数の波長領域の光源を使用することで、一般のより広範囲の被写体に対してロバストな法線情報の推定を行うことができる。   According to the present embodiment, when a face is detected, glare when estimating normal information of a person can be reduced by selecting invisible light without selecting visible light. Further, by providing a human reflection characteristic model for invisible light used in the illuminance difference stereo method, it is possible to accurately estimate the surface normal of the person. In addition, by using a light source in a plurality of wavelength regions for a general subject, it is possible to estimate normal information that is robust to a general wider range of subjects.

以上、本発明の実施例について説明したが、本発明はその要旨の範囲内で種々の変形及び変更が可能である。本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   Although the embodiments of the present invention have been described above, the present invention can be variously modified and changed within the scope of the gist thereof. The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本発明は、法線情報を取得する方法、装置、システムなどに適用することができる。   The present invention can be applied to a method, an apparatus, a system, and the like that acquire normal information.

111…システムコントローラ(制御手段、制御装置)、210…可視光光源手段、220…不可視光光源手段 111 ... System controller (control means, control device), 210 ... Visible light source means, 220 ... Invisible light source means

Claims (27)

3つ以上の互いに異なる複数の位置から光を被写体に順次照射させ、各照射時に前記被写体を撮像させる制御装置であって、
前記複数の位置から前記光を照射させる前に、前記被写体の顔が検出されたかどうかを判定し、
前記顔が検出された場合には、照射させる光として、可視光を選択せずに不可視光を選択し、
前記顔が検出されなかった場合には、前記照射させる光として、前記可視光を選択することを特徴とする制御装置。
A control device that sequentially irradiates a subject with light from a plurality of three or more different positions and images the subject at the time of each irradiation,
Before irradiating the light from the plurality of positions, determine whether the face of the subject is detected,
If the face is detected, select invisible light as the light to irradiate without selecting visible light,
When the face is not detected, the visible light is selected as the irradiation light.
前記制御装置は、前記被写体の顔が検出されなかった場合には、前記照射させる光として、前記不可視光を更に選択することを特徴とする請求項1に記載の制御装置。   The control device according to claim 1, wherein when the face of the subject is not detected, the control device further selects the invisible light as the light to be irradiated. 3つ以上の互いに異なる複数の位置から光を被写体に順次照射し、各照射時に前記被写体を撮像する撮像装置であって、
可視光および不可視光のそれぞれを、3つ以上の互いに異なる複数の位置から照射する光源手段と、
前記可視光と前記不可視光の照射を手動で切り替えることを可能にする操作手段と、
を有することを特徴とする撮像装置。
An imaging device that sequentially irradiates a subject with light from three or more different positions and images the subject at each irradiation,
Light source means for irradiating each of visible light and invisible light from a plurality of three or more different positions;
An operation means for enabling manual switching between irradiation of the visible light and the invisible light;
An imaging device comprising:
被写体を撮像する撮像素子と、
該撮像素子によって得られた前記被写体の撮像画像において顔を検出する顔検出手段と、
3つ以上の互いに異なる複数の位置から光を前記被写体に順次照射させ、各照射時に前記被写体を前記撮像素子に撮像させる制御手段と、
を有し、
前記制御手段は、
前記複数の位置から前記光を照射させる前に、前記顔検出手段が前記被写体の顔を検出したかどうかを判定し、
前記顔検出手段が前記顔を検出した場合には、照射させる光として、可視光を選択せずに不可視光を選択し、
前記顔検出手段が前記顔を検出しなかった場合には、前記照射させる光として、前記可視光を選択することを特徴とすることを特徴とする撮像装置。
An image sensor for imaging a subject;
Face detection means for detecting a face in the captured image of the subject obtained by the image sensor;
Control means for sequentially irradiating the subject with light from a plurality of three or more different positions, and causing the imaging device to image the subject at each irradiation;
Have
The control means includes
Before irradiating the light from the plurality of positions, determine whether the face detection means has detected the face of the subject,
When the face detection means detects the face, select invisible light without selecting visible light as light to be irradiated,
When the face detection unit does not detect the face, the visible light is selected as the light to be irradiated.
前記可視光と前記不可視光のそれぞれを、3つ以上の互いに異なる複数の位置から照射する光源手段を有することを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, further comprising a light source unit that irradiates each of the visible light and the invisible light from a plurality of three or more different positions. 前記光源手段は、前記可視光を照射する可視光光源手段と、当該可視光光源手段とは異なる位置に設けられ、前記不可視光を照射する不可視光光源手段と、を備えることを特徴とする請求項5に記載の撮像装置。   The light source means comprises: a visible light source means for irradiating the visible light; and an invisible light source means for irradiating the invisible light provided at a position different from the visible light source means. Item 6. The imaging device according to Item 5. 前記不可視光光源手段は、前記可視光光源手段の外側に設けられていることを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the invisible light source unit is provided outside the visible light source unit. 前記被写体の光学像を形成する光学系を有し、該光学系は前記不可視光の透過率を変化させる手段を備え、
前記制御手段は、前記不可視光を照射させる場合には、前記可視光を照射させる場合よりも前記光学系における前記不可視光の透過率を高くすることを特徴とする請求項4乃至7のうちいずれか1項に記載の撮像装置。
An optical system for forming an optical image of the subject, the optical system comprising means for changing the transmittance of the invisible light;
The said control means makes the transmittance | permeability of the said invisible light in the said optical system higher when irradiating the said invisible light than when irradiating the said visible light. The imaging apparatus of Claim 1.
前記光学系は、
前記不可視光の透過率を低下させるフィルターと、
前記フィルターを前記光学系の光路に対して挿抜可能に移動させる移動手段と、
を有し、
前記制御手段は、前記可視光を照射させる場合には前記フィルターを前記光路に挿入させ、前記不可視光を照射させる場合には前記フィルターを前記光路から退避させるように、前記移動手段を制御することを特徴とする請求項8に記載の撮像装置。
The optical system is
A filter that reduces the transmittance of the invisible light;
Moving means for moving the filter so that it can be inserted into and removed from the optical path of the optical system;
Have
The control means controls the moving means to insert the filter into the optical path when irradiating the visible light, and to retract the filter from the optical path when irradiating the invisible light. The imaging device according to claim 8.
前記光学系は、前記不可視光の透過率を変化させるフィルターを備え、
前記制御手段は、前記可視光を照射させる場合と前記不可視光を照射させる場合との間で、前記フィルターによる前記不可視光の透過率または反射率を電気的制御によって変化させることを特徴とする請求項8に記載の撮像装置。
The optical system includes a filter that changes the transmittance of the invisible light,
The said control means changes the transmittance | permeability or reflectance of the said invisible light by the said filter by electrical control between the case where the said visible light is irradiated, and the case where the said invisible light is irradiated. Item 9. The imaging device according to Item 8.
前記撮像素子は、前記可視光に感度を有さず前記不可視光に感度を有する画素を備えることを特徴とする請求項4乃至7のうちいずれか1項に記載の撮像装置。   The image pickup device according to claim 4, wherein the image pickup device includes a pixel having no sensitivity to the visible light and having a sensitivity to the invisible light. 前記光源手段は、前記複数の位置のそれぞれから前記可視光と前記不可視光を照射する広帯域光源を有することを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the light source unit includes a broadband light source that irradiates the visible light and the invisible light from each of the plurality of positions. 前記光源手段は、
前記不可視光の透過率を低下させるフィルターと、
前記フィルターを前記光源手段の光路に対して挿抜可能に移動させる移動手段と、
を有し、
前記制御手段は、前記可視光を照射させる場合には前記フィルターを前記光路に挿入させ、前記不可視光を照射させる場合には前記フィルターを前記光路から退避させるように、前記移動手段を制御することを特徴とする請求項12に記載の撮像装置。
The light source means includes
A filter that reduces the transmittance of the invisible light;
Moving means for moving the filter so that it can be inserted into and removed from the optical path of the light source means;
Have
The control means controls the moving means to insert the filter into the optical path when irradiating the visible light, and to retract the filter from the optical path when irradiating the invisible light. The imaging apparatus according to claim 12.
前記光源手段は、波長620nm〜750nmの光、波長495nm〜570nmの光、波長430nm〜495nmの光、及び前記不可視光のそれぞれの発光部を備えていることを特徴とする請求項12に記載の撮像装置。   13. The light source unit according to claim 12, wherein the light source means includes light emitting units for light having a wavelength of 620 nm to 750 nm, light having a wavelength of 495 nm to 570 nm, light having a wavelength of 430 nm to 495 nm, and the invisible light. Imaging device. 前記被写体の光学像を形成する第1の光学系と、
前記第1の光学系よりも前記不可視光の透過率が高く、前記被写体の光学像を形成する第2の光学系と、
を更に有し、
前記撮像素子は、
前記第1の光学系が形成した前記光学像を光電変換する第1の撮像素子と、
前記第2の光学系が形成した前記光学像を光電変換する第2の撮像素子と、
を備えることを特徴とする請求項4乃至7、および12乃至14のうちいずれか1項に記載の撮像装置。
A first optical system for forming an optical image of the subject;
A second optical system having a higher transmittance of the invisible light than the first optical system and forming an optical image of the subject;
Further comprising
The image sensor is
A first image sensor that photoelectrically converts the optical image formed by the first optical system;
A second image sensor that photoelectrically converts the optical image formed by the second optical system;
The imaging apparatus according to any one of claims 4 to 7, and 12 to 14.
前記被写体の撮像画像から得られる輝度情報に基づいて、前記被写体の表面の法線情報を取得する法線情報取得手段を有することを特徴とする請求項4乃至15のうちいずれか1項に記載の撮像装置。   16. The normal line information acquisition unit for acquiring normal line information on the surface of the subject based on luminance information obtained from a captured image of the subject. Imaging device. 前記不可視光による前記被写体の反射特性モデルを記憶する記憶手段を有し、
前記法線情報取得手段は、前記顔検出手段が前記顔を検出した場合には、前記記憶手段に記憶された前記反射特性モデルに基づいて前記法線情報を取得することを特徴とする請求項16に記載の撮像装置。
Storage means for storing a reflection characteristic model of the subject by the invisible light;
The normal line information acquisition unit acquires the normal line information based on the reflection characteristic model stored in the storage unit when the face detection unit detects the face. 16. The imaging device according to 16.
3つ以上の互いに異なる複数の位置から不可視光を被写体に順次照射させ、各照射時に前記被写体を撮像させる撮像装置であって、
前記不可視光による前記被写体の反射特性モデルを記憶する記憶手段と、
前記被写体の撮像画像から得られる輝度情報と前記記憶手段に記憶された前記反射特性モデルに基づいて、前記被写体の表面の法線情報を取得する法線情報取得手段と、
を有することを特徴とする撮像装置。
An imaging device that sequentially irradiates a subject with invisible light from three or more different positions, and images the subject at each irradiation,
Storage means for storing a reflection characteristic model of the subject by the invisible light;
Normal information acquisition means for acquiring normal information of the surface of the subject based on luminance information obtained from the captured image of the subject and the reflection characteristic model stored in the storage means;
An imaging device comprising:
請求項4に記載の撮像装置と、
前記可視光と前記不可視光のそれぞれを、3つ以上の互いに異なる複数の位置から照射する光源装置と、
を有することを特徴とする撮像システム。
An imaging device according to claim 4,
A light source device that irradiates each of the visible light and the invisible light from a plurality of three or more different positions;
An imaging system comprising:
前記被写体の光学像を形成し、前記撮像装置に装着可能なレンズ装置を有することを特徴とする請求項19に記載の撮像システム。   The imaging system according to claim 19, further comprising a lens device that forms an optical image of the subject and is attachable to the imaging device. 前記レンズ装置は、前記不可視光の透過率を変化させる手段を備え、
前記制御手段は、前記不可視光を照射させる場合には、前記可視光を照射させる場合よりも前記被写体の光学像を形成する光学系における前記不可視光の透過率を上昇させることを特徴とする請求項20に記載の撮像システム。
The lens device includes means for changing the transmittance of the invisible light,
The said control means raises the transmittance | permeability of the said invisible light in the optical system which forms the optical image of the said subject, when irradiating the said invisible light rather than the case where the said visible light is irradiated. Item 21. The imaging system according to Item 20.
請求項4乃至14のうちいずれか1項に記載の撮像装置と、
前記被写体の撮像画像から得られる輝度情報に基づいて、前記被写体の表面の法線情報を取得する法線情報取得装置と、
を有することを特徴とする法線情報取得システム。
The imaging device according to any one of claims 4 to 14,
A normal information acquisition device for acquiring normal information of the surface of the subject based on luminance information obtained from a captured image of the subject;
A normal information acquisition system comprising:
請求項19乃至21に記載の撮像システムと、
前記被写体の撮像画像から得られる輝度情報に基づいて、前記被写体の表面の法線情報を取得する法線情報取得装置と、
を有することを特徴とする法線情報取得システム。
An imaging system according to claim 19 to 21,
A normal information acquisition device for acquiring normal information of the surface of the subject based on luminance information obtained from a captured image of the subject;
A normal information acquisition system comprising:
被写体の光学像を形成し、請求項4に記載の撮像装置に装着可能なレンズ装置であって、
該レンズ装置は、前記可視光と前記不可視光のそれぞれを、3つ以上の互いに異なる複数の位置から照射する光源手段を有することを特徴とするレンズ装置。
A lens device that forms an optical image of a subject and is attachable to the imaging device according to claim 4,
The lens apparatus has light source means for irradiating each of the visible light and the invisible light from a plurality of three or more different positions.
被写体の撮像画像から前記被写体の表面の法線情報を取得する画像処理装置であって、
不可視光による前記被写体の反射特性モデルを記憶する記憶手段と、
前記撮像画像から得られる輝度情報と前記記憶手段に記憶された前記反射特性モデルに基づいて、前記被写体の表面の法線情報を取得する法線情報取得手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus for obtaining normal information of a surface of a subject from a captured image of the subject,
Storage means for storing a reflection characteristic model of the subject by invisible light;
Normal information acquisition means for acquiring normal information of the surface of the subject based on luminance information obtained from the captured image and the reflection characteristic model stored in the storage means;
An image processing apparatus comprising:
3つ以上の互いに異なる複数の位置から光を被写体に順次照射させ、各照射時に前記被写体を撮像させる制御方法であって、
前記複数の位置から前記光を照射させる前に、前記被写体の顔が検出されたかどうかを判定するステップと、
前記被写体の顔が検出された場合には、照射させる光として、可視光を選択せずに不可視光を選択するステップと、
前記被写体の顔が検出されなかった場合には、前記照射させる光として、前記可視光を選択するステップと、
を有することを特徴とする制御方法。
A control method for sequentially irradiating a subject with light from a plurality of different positions from three or more, and imaging the subject at each irradiation,
Determining whether a face of the subject is detected before irradiating the light from the plurality of positions;
If the face of the subject is detected, the step of selecting invisible light without selecting visible light as the irradiation light;
If the face of the subject is not detected, selecting the visible light as the light to irradiate;
A control method characterized by comprising:
コンピュータに請求項26に記載の制御方法を実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 26.
JP2015234531A 2015-12-01 2015-12-01 Control device, imaging device, imaging system, normal information acquisition system, image processing device, control method and program Pending JP2017103578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015234531A JP2017103578A (en) 2015-12-01 2015-12-01 Control device, imaging device, imaging system, normal information acquisition system, image processing device, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015234531A JP2017103578A (en) 2015-12-01 2015-12-01 Control device, imaging device, imaging system, normal information acquisition system, image processing device, control method and program

Publications (1)

Publication Number Publication Date
JP2017103578A true JP2017103578A (en) 2017-06-08

Family

ID=59017067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015234531A Pending JP2017103578A (en) 2015-12-01 2015-12-01 Control device, imaging device, imaging system, normal information acquisition system, image processing device, control method and program

Country Status (1)

Country Link
JP (1) JP2017103578A (en)

Similar Documents

Publication Publication Date Title
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
JP7179472B2 (en) Processing device, processing system, imaging device, processing method, program, and recording medium
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
JP2019106045A (en) Image processing device, method, and program
JP2017123020A (en) Image processor and imaging apparatus, control method thereof and program
JP2017102637A (en) Processing apparatus, processing system, imaging device, processing method, program, and recording medium
CN108289170B (en) Photographing apparatus, method and computer readable medium capable of detecting measurement area
JP6425571B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2015046019A (en) Image processing device, imaging device, imaging system, image processing method, program, and storage medium
JP6877936B2 (en) Processing equipment, processing systems, imaging equipment, processing methods, programs, and recording media
CN110324529B (en) Image processing apparatus and control method thereof
JP6671915B2 (en) Processing device, processing system, imaging device, processing method, program, and recording medium
JP7106259B2 (en) Image processing device, imaging device, and image processing method
WO2016203536A1 (en) Calculation method, calculation program, and imaging device
WO2016052052A1 (en) Image-processing apparatus, image-capturing apparatus, and image-processing method
JP6679289B2 (en) Processing device, processing system, imaging device, processing method, processing program, and recording medium
JP2018107741A (en) Image processing system, image processing method, and program
JP6550827B2 (en) Image processing apparatus, image processing method and program
JP6827782B2 (en) Image processing equipment, imaging equipment, image processing methods, image processing programs, and recording media
US9906705B2 (en) Image pickup apparatus
JP2017103578A (en) Control device, imaging device, imaging system, normal information acquisition system, image processing device, control method and program
JP2018009858A (en) Processor, processing system, imaging apparatus, processing method, program, and record medium
JP6910763B2 (en) Processing equipment, processing systems, imaging equipment, processing methods, programs, and recording media
JP2016024482A (en) Image processing device, image processing method and image processing program
JP7210170B2 (en) Processing device, processing system, imaging device, processing method, program, and recording medium