JP2012022309A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2012022309A
JP2012022309A JP2011130327A JP2011130327A JP2012022309A JP 2012022309 A JP2012022309 A JP 2012022309A JP 2011130327 A JP2011130327 A JP 2011130327A JP 2011130327 A JP2011130327 A JP 2011130327A JP 2012022309 A JP2012022309 A JP 2012022309A
Authority
JP
Japan
Prior art keywords
subject
image
unit
structured
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011130327A
Other languages
Japanese (ja)
Inventor
Hironori Yazawa
洋紀 矢澤
Yuji Kunigome
祐司 國米
Kazuhiro Yano
和弘 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011130327A priority Critical patent/JP2012022309A/en
Publication of JP2012022309A publication Critical patent/JP2012022309A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which: in the distance calculation of a subject image by a coded aperture, the distance cannot be accurately calculated if there is no contrast on the surface of a subject for which distance information is desired, for example, it was difficult to calculate a distance to a single colored smooth surface or the like.SOLUTION: In order to solve the above problems, an imaging device comprises structured apertures which are disposed in an optical system and apply amplitude modulation to at least a part of the wavelength range of a subject luminous flux, a pattern light projecting part for projecting pattern light to a subject and an imaging element for receiving the subject luminous flux from the subject to which the pattern light is projected through the structured apertures.

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

レンズ光学系の一部に複雑な開口形状を有するマスクを設けた撮影レンズを介して撮影されたデジタル画像データから、被写体の距離情報を算出して、任意の深さに焦点を合わせた画像データを再構成する技術が知られている(例えば非特許文献1)。   Image data focused on an arbitrary depth by calculating distance information of the subject from digital image data taken through a taking lens provided with a mask having a complex aperture shape in a part of the lens optical system Is known (for example, Non-Patent Document 1).

また、それぞれ異なる開口形状を有するマスクを入れ替えて複数枚のデジタル画像を取得することで、距離情報の高精度化を図る技術が知られている(例えば非特許文献2)。
[先行技術文献]
[特許文献]
[非特許文献1]A. Levin, R. Fergus, F. Durand and W. Freeman "Image and Depth from a conventional Camera with a Coded Aperture", SIGGRAPH 2007
[非特許文献2]C. Zhou, S. Lin and S. Nayar "Coded Aperture Pairs for Depth from Defocus", ICCV 2009
In addition, there is known a technique for improving the accuracy of distance information by replacing a plurality of masks having different opening shapes and acquiring a plurality of digital images (for example, Non-Patent Document 2).
[Prior art documents]
[Patent Literature]
[Non-Patent Document 1] A. Levin, R. Fergus, F. Durand and W. Freeman "Image and Depth from a conventional Camera with a Coded Aperture", SIGGRAPH 2007
[Non-Patent Document 2] C. Zhou, S. Lin and S. Nayar "Coded Aperture Pairs for Depth from Defocus", ICCV 2009

上述の手法を用いる場合、距離情報を取得したい被写体の表面にコントラストが存在しないと精度良く距離を算出することができない。例えば、単一色の平滑な壁面などについては距離算出が困難であった。   When the above-described method is used, the distance cannot be accurately calculated unless there is contrast on the surface of the subject for which distance information is to be acquired. For example, it has been difficult to calculate the distance for a smooth wall surface of a single color.

上記課題を解決するために、本発明の態様における撮像装置は、光学系に配設され、被写体光束の少なくとも一部の波長帯に振幅変調を与える構造化開口と、被写体に対してパターン光を投光するパターン投光部と、パターン光を投影された被写体からの被写体光束を、構造化開口を介して受光する撮像素子とを備える。   In order to solve the above-described problems, an imaging apparatus according to an aspect of the present invention is provided in an optical system, and has a structured aperture that applies amplitude modulation to at least a part of a wavelength band of a subject luminous flux, and pattern light to the subject. A pattern light projecting unit that projects light and an image sensor that receives a subject light flux from a subject onto which the pattern light is projected via a structured aperture.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

従来の構造化開口を説明する説明図である。It is explanatory drawing explaining the conventional structured opening. 本実施形態に係る一眼レフカメラの要部断面図である。It is principal part sectional drawing of the single-lens reflex camera which concerns on this embodiment. 本実施形態に係る構造化開口を説明する説明図である。It is explanatory drawing explaining the structured opening which concerns on this embodiment. 本実施形態に係る構造化開口ユニットの外観図である。It is an external view of the structured opening unit concerning this embodiment. 構造化開口ユニットをレンズユニットに装着する様子を示す図である。It is a figure which shows a mode that a structured opening unit is attached to a lens unit. 撮像素子の画素上に配置された画素フィルタの説明図である。It is explanatory drawing of the pixel filter arrange | positioned on the pixel of an image pick-up element. 撮像素子の画素が感度を有する波長帯と、構造化開口の赤外遮断フィルタ部が遮断する波長帯の関係を示す図である。It is a figure which shows the relationship between the wavelength band which the pixel of an image pick-up element has a sensitivity, and the wavelength band which the infrared cutoff filter part of structured opening cuts off. 一眼レフカメラのシステム構成を概略的に示すブロック図である。1 is a block diagram schematically showing a system configuration of a single-lens reflex camera. 補助撮影画像の取得から距離情報の算出までの処理フローを示す図である。It is a figure which shows the processing flow from acquisition of an auxiliary captured image to calculation of distance information. 光学ファインダから観察される被写体像および焦点検出領域を示す図である。It is a figure which shows the to-be-photographed image observed from an optical finder, and a focus detection area. 焦点検出領域の配置と赤外光受光素子の配置の関係を示す図である。It is a figure which shows the relationship between arrangement | positioning of a focus detection area | region, and arrangement | positioning of an infrared light receiving element. 赤外光用撮像素子と可視光用撮像素子を配置したレンズ交換式カメラの断面図である。It is sectional drawing of the interchangeable lens camera which has arrange | positioned the image sensor for infrared light, and the image sensor for visible light. パターン投光の様子を示す説明図である。It is explanatory drawing which shows the mode of pattern light projection. 本撮影画像と補助撮影画像の取得から、距離画像を算出するまでの処理の概念を示す図である。It is a figure which shows the concept of the process from acquisition of a main image and an auxiliary image to calculation of a distance image. 構造化開口の他の例である。Figure 5 is another example of a structured aperture.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、従来の構造化開口を説明する説明図である。図1の(a)は、複雑な開口形状を有する構造化開口の正面図である。構造化開口は、保持枠101にフィルタ102が支持されて構成されている。フィルタ102は、被写体光束を遮断する遮断フィルタ部103と、被写体光束を透過させる透過フィルタ部104を有する。図示するように、透過フィルタ部104は2次元的に複雑な形状を有しており、これにより、被写体空間において深さ方向に異なる位置から入射する点像を、撮像素子の受光面上で特徴的な形状をもって結像させる。すなわち、このような開口形状を有する構造化開口を撮影レンズの瞳近傍に配置すれば、深さ方向である各距離に応じた点像分布関数(PSF)を大きく異ならせることができる。各距離に応じた点像分布関数を大きく異ならせることができれば、被写体画像の各領域における被写体までの距離を精度良く算出することができる。なおここでは、ひとつの開口形状に対応して各距離に応じたPSFが1セット用意される場合の構造化開口を、シングルコーデッドアパーチャと呼ぶ。   FIG. 1 is an explanatory view for explaining a conventional structured opening. FIG. 1A is a front view of a structured opening having a complicated opening shape. The structured opening is configured with a filter 102 supported by a holding frame 101. The filter 102 includes a blocking filter unit 103 that blocks the subject light beam and a transmission filter unit 104 that transmits the subject light beam. As shown in the figure, the transmission filter unit 104 has a two-dimensionally complicated shape, and this allows point images incident from different positions in the depth direction in the subject space to be featured on the light receiving surface of the image sensor. An image is formed with a specific shape. That is, if a structured aperture having such an aperture shape is arranged in the vicinity of the pupil of the photographing lens, the point spread function (PSF) corresponding to each distance in the depth direction can be greatly varied. If the point spread function corresponding to each distance can be varied greatly, the distance to the subject in each region of the subject image can be calculated with high accuracy. Here, a structured opening when one set of PSFs corresponding to each distance is prepared corresponding to one opening shape is referred to as a single coded aperture.

シングルコーデッドアパーチャを用いた被写体画像から距離情報を算出する具体的な手法について説明する。被写体画像の距離情報は、被写体画像に写る各々の被写体に対するカメラからの距離を含む。算出によって得られる推定画像は、いわゆる距離画像に類する。   A specific method for calculating distance information from a subject image using a single coded aperture will be described. The distance information of the subject image includes the distance from the camera to each subject appearing in the subject image. The estimated image obtained by the calculation is similar to a so-called distance image.

シングルコーデッドアパーチャを介して撮影された撮影画像をy、オリジナルの被写体画像をx、PSFをfとすると、結像方程式は式(1)として表される。

Figure 2012022309
The image captured through the single coded aperture y, the original subject image x, when the PSF and f d, the imaging equation is expressed as Equation (1).
Figure 2012022309

するとPSFであるfdが既知であれば、撮影画像yを利用して式(1)を満たすようなオリジナル被写体画像xを推定することができる。   Then, if the PSF fd is known, the original subject image x satisfying the expression (1) can be estimated using the captured image y.

そして、PSFの構造は、被写体の深さである基準ピント位置からのずれによって変化する。したがって、被写体の深さと、推定に使用するPSFの深さが一致しているときに、最も良好なオリジナル被写体画像を推定できる。推定プロセスは、式(2)で表現することができる。

Figure 2012022309
The PSF structure changes depending on the deviation from the reference focus position, which is the depth of the subject. Therefore, the best original subject image can be estimated when the depth of the subject matches the depth of the PSF used for estimation. The estimation process can be expressed by equation (2).
Figure 2012022309

Figure 2012022309
Figure 2012022309

以上のプロセスを各深さのPSFに対して全て行い、エラーが最小となるPSFを見つけ、そのPSFに対応した深さをマップにすれば距離情報が得られる。   The above process is performed for all the depth PSFs to find the PSF with the smallest error, and the depth corresponding to the PSF is mapped to obtain the distance information.

しかし、ステップS2の解である、デコンボリュージョンエラーを最小にする推定被写体画像はひとつではないという問題がある。したがって、デコンボリュージョンエラーを最小にする推定被写体画像が、真の被写体と近似する画像とはならない場合がある。また、被写体の深さとPSFの深さが一致していなくとも、そのような特殊解を見つけてデコンボリュージョンエラーを最小にしてしまう場合がある。   However, there is a problem that there is not one estimated subject image that minimizes the deconvolution error, which is the solution of step S2. Therefore, the estimated subject image that minimizes the deconvolution error may not be an image that approximates the true subject. Even if the depth of the subject does not match the depth of the PSF, such a special solution may be found and the deconvolution error may be minimized.

このような問題を解決すべく、推定被写体画像に「画像らしさ」を評価する制約項を加える。この場合、式(2)は以下の式(3)のように表現される。

Figure 2012022309
In order to solve such a problem, a constraint term for evaluating “image quality” is added to the estimated subject image. In this case, the expression (2) is expressed as the following expression (3).
Figure 2012022309

関数g(x)が制約項である。λは制約項の重み係数である。例えば、一般的に画像は滑らかな構図を持つので、その微分値はゼロに近い。したがって、制約項に画像の微分値を示す関数を設定することにより、デコンボリュージョンエラーを最小にし、かつその微分値も小さいという「画像らしさ」を有するオリジナル被写体画像のみが推定され、深さを精度良く推定することができる。微分値を示す関数の例としては、式(4)が挙げられる。

Figure 2012022309
以上の処理手順により深さ測定を行うことができる。 The function g (x) is a constraint term. λ is a weighting factor of the constraint term. For example, since an image generally has a smooth composition, its differential value is close to zero. Therefore, by setting a function indicating the differential value of the image in the constraint term, only the original subject image having an “image quality” that minimizes the deconvolution error and has a small differential value is estimated, and the depth is set. It can be estimated with high accuracy. As an example of the function indicating the differential value, there is the formula (4).
Figure 2012022309
The depth can be measured by the above processing procedure.

図1の(b−1)は、円形の開口形状を有する構造化開口の正面図である。構造化開口は、保持枠111にフィルタ112が支持されて構成されている。フィルタ112は、被写体光束を遮断する遮断フィルタ部113と、被写体光束を透過させる透過フィルタ部114を有する。保持枠111は円形枠であり、その中心は撮影レンズの光軸と一致するが、円形を成す透過フィルタ部114は、光軸に対して偏心している。   FIG. 1B-1 is a front view of a structured opening having a circular opening shape. The structured opening is configured with a filter 112 supported by a holding frame 111. The filter 112 includes a blocking filter unit 113 that blocks the subject light beam and a transmission filter unit 114 that transmits the subject light beam. The holding frame 111 is a circular frame, the center of which coincides with the optical axis of the photographing lens, but the circular transmission filter unit 114 is eccentric with respect to the optical axis.

このように単純な円形開口を持つ構造化開口では、深さの変化に対するPSFの変化が小さいので、シングルコーデッドアパーチャとして深さを算出すると推定誤差が大きくなる。図1の(a)では、複雑な開口形状とすることにより推定誤差の低減を図ったが、ここでは、(b−1)の状態で第1の撮影画像を取得し、(b−1)の構造化開口を反転させた(b−2)の状態で第2の撮影画像を取得することにより、推定誤差の低減を図る。つまり、(b−1)の開口形状に対応して各距離に応じたPSFを1セットと、(b−2)の開口形状に対応して各距離に応じたPSFを1セット用意する。このような場合の構造化開口を、コーデッドアパーチャペアと呼ぶ。   In such a structured opening having a simple circular opening, the change in PSF with respect to the change in depth is small. Therefore, if the depth is calculated as a single coded aperture, the estimation error increases. In FIG. 1A, the estimation error is reduced by using a complicated aperture shape, but here, the first captured image is acquired in the state of (b-1), and (b-1) By obtaining the second photographed image in the state of (b-2) with the structured aperture inverted, the estimation error is reduced. That is, one set of PSF corresponding to each distance corresponding to the opening shape of (b-1) and one set of PSF corresponding to each distance corresponding to the opening shape of (b-2) are prepared. A structured aperture in such a case is called a coded aperture pair.

コーデッドアパーチャペアを用いた被写体画像から距離情報を算出する具体的な手法について、説明する。コーデッドアパーチャペアの場合、開口形状が単純であるので、シングルコーデッドアパーチャにおける処理を空間周波数領域において展開することができる。   A specific method for calculating distance information from a subject image using a coded aperture pair will be described. In the case of a coded aperture pair, since the aperture shape is simple, processing in a single coded aperture can be developed in the spatial frequency domain.

異なる2つの開口によりそれぞれ撮影された第1画像と第2画像のフーリエ変換をF、F、各深さdについて取得したPSFのフーリエ変換をK 、K 、オリジナル被写体画像xのフーリエ変換をFとすると、結像方程式は式(5)として表される。

Figure 2012022309
The Fourier transforms of the first image and the second image captured by two different apertures are F 1 and F 2 , the Fourier transform of the PSF acquired for each depth d is K 1 d , K 2 d , and the original subject image x If the Fourier transform of is F 0 , the imaging equation is expressed as equation (5).
Figure 2012022309

式(5)によれば、式(1)と比較して、畳み込み積分が単純な掛け算となることがわかる。このとき、式(3)に対応するデコンボリュージョンエラーを記述すると式(6)のようになる。

Figure 2012022309
According to equation (5), it can be seen that the convolution integral is a simple multiplication as compared with equation (1). At this time, when a deconvolution error corresponding to Equation (3) is described, Equation (6) is obtained.
Figure 2012022309

Figure 2012022309
Figure 2012022309
Figure 2012022309
Figure 2012022309

深さマップの構築プロセスは以下の処理による。   The depth map construction process is as follows.

Figure 2012022309
Figure 2012022309

この手法では、シングルコーデッドアパーチャの場合とは異なり、推定プロセスを繰り返す必要がなく、かつ単純な計算式によって導き出されるので、計算速度が非常に速い。なお、シングルコーデッドアパーチャにおいてこのような手法を適用できない理由は、シングルコーデッドアパーチャのPSFは非常に複雑な形状をしているので、そのフーリエ変換もエラーが大きいからである。   In this method, unlike the case of the single coded aperture, it is not necessary to repeat the estimation process, and the calculation speed is very fast because it is derived by a simple calculation formula. The reason why such a method cannot be applied to the single coded aperture is that the PSF of the single coded aperture has a very complicated shape, and the Fourier transform has a large error.

以上の従来の手法においては、いずれにおいても遮断フィルタ部を有する構造化開口介して撮影画像を取得するので、観賞用等としての通常の撮影画像に対しては画質が低下する。そこで、距離情報を取得するために構造化開口を介して撮影する補助撮影画像の撮影と、構造化開口を介さずに撮影する通常の撮影画像の撮影を分けて行わなければならなかった。すなわち、補助撮影画像の撮影時と通常の撮影画像の撮影時で、構造化開口を挿抜する作業を要していた。すると、両画像を取得するタイムラグにより、被写体にずれが生じる。したがって、構造化開口を挿抜して撮影動作を二度繰り返す手間に加え、本来距離情報を取得したい観賞用等の撮影画像に対して正確な距離情報が得られないという問題を抱えていた。   In any of the conventional methods described above, since the photographed image is acquired through the structured opening having the cutoff filter portion, the image quality is deteriorated with respect to a normal photographed image for viewing. Therefore, in order to acquire distance information, it has been necessary to separately perform shooting of an auxiliary shooting image shot through the structured aperture and shooting of a normal shot image shot without passing through the structured aperture. In other words, it is necessary to insert and remove the structured opening when the auxiliary captured image is captured and when the normal captured image is captured. Then, the subject is displaced due to the time lag for acquiring both images. Therefore, there is a problem that accurate distance information cannot be obtained for an ornamental image or the like for which distance information is originally intended to be acquired, by adding the trouble of repeating the photographing operation twice by inserting and removing the structured aperture.

そこで、本実施形態においては、このような問題に対処すべく、構造化開口と撮像素子に改良を加えて一眼レフカメラに適用する。以下に本実施形態について説明する。   Therefore, in the present embodiment, in order to cope with such a problem, the structured aperture and the image sensor are improved and applied to a single-lens reflex camera. This embodiment will be described below.

図2は、本実施形態に係る一眼レフカメラ200の要部断面図である。一眼レフカメラ200は、撮影レンズであるレンズユニット210とカメラボディであるカメラユニット230が組み合わされて撮像装置として機能する。   FIG. 2 is a cross-sectional view of a main part of the single-lens reflex camera 200 according to the present embodiment. The single-lens reflex camera 200 functions as an imaging device by combining a lens unit 210 that is a photographing lens and a camera unit 230 that is a camera body.

レンズユニット210は、光軸201に沿って配列されたレンズ群211を備える。レンズ群211には、フォーカスレンズ212、ズームレンズ213が含まれる。また、光軸201に沿って、絞り214および構造化開口ユニット300も配列される。構造化開口ユニット300は、被写体光束に対して挿抜することができる。構造化開口ユニット300が被写体光束に対して挿入されると、構造化開口は、光軸201に交差して配設される。アクチュエータ215は、構造化開口ユニット300が被写体光束に対して挿入されたときに構造化開口を回転させる。   The lens unit 210 includes a lens group 211 arranged along the optical axis 201. The lens group 211 includes a focus lens 212 and a zoom lens 213. An aperture 214 and a structured aperture unit 300 are also arranged along the optical axis 201. The structured aperture unit 300 can be inserted into and removed from the subject light flux. When the structured aperture unit 300 is inserted into the subject light beam, the structured aperture is disposed so as to intersect the optical axis 201. The actuator 215 rotates the structured aperture when the structured aperture unit 300 is inserted into the subject light beam.

レンズユニット210は、フォーカスレンズ212、絞り214およびアクチュエータ215の駆動などレンズユニット210の制御および演算を司るレンズシステム制御部216を備える。レンズユニット210を構成する各要素は、レンズ鏡筒217に支持されている。   The lens unit 210 includes a lens system control unit 216 that controls and calculates the lens unit 210 such as driving of the focus lens 212, the diaphragm 214, and the actuator 215. Each element constituting the lens unit 210 is supported by the lens barrel 217.

また、レンズユニット210は、カメラユニット230との接続部にレンズマウント218を備え、カメラユニット230が備えるカメラマウント231と係合して、カメラユニット230と一体化する。レンズマウント218およびカメラマウント231はそれぞれ、機械的な係合部の他に電気的な接続部も備え、カメラユニット230からレンズユニット210への電力の供給および相互の通信を実現している。   The lens unit 210 includes a lens mount 218 at a connection portion with the camera unit 230, and engages with the camera mount 231 included in the camera unit 230 to be integrated with the camera unit 230. Each of the lens mount 218 and the camera mount 231 includes an electrical connection portion in addition to a mechanical engagement portion, and realizes power supply from the camera unit 230 to the lens unit 210 and mutual communication.

カメラユニット230は、レンズユニット210から入射される被写体像を反射するメインミラー232と、メインミラー232で反射された被写体像が結像するピント板234を備える。メインミラー232は、回転軸233周りに回転して、光軸201を中心とする被写体光束中に斜設される状態と、被写体光束から退避する状態を取り得る。ピント板234側へ被写体像を導く場合は、メインミラー232は被写体光束中に斜設される。また、ピント板234は、撮像素子243の受光面と共役の位置に配置されている。   The camera unit 230 includes a main mirror 232 that reflects a subject image incident from the lens unit 210 and a focus plate 234 on which the subject image reflected by the main mirror 232 is formed. The main mirror 232 rotates around the rotation axis 233 and can take a state of being obliquely provided in the subject light flux centered on the optical axis 201 and a state of being retracted from the subject light flux. When the subject image is guided to the focus plate 234 side, the main mirror 232 is provided obliquely in the subject light flux. Further, the focus plate 234 is disposed at a position conjugate with the light receiving surface of the image sensor 243.

ピント板234で結像した被写体像は、ペンタプリズム235で正立像に変換され、接眼光学系236を介してユーザに観察される。また、ペンタプリズム235の射出面上方にはAEセンサ237が配置されており、被写体像の輝度分布を検出する。   The subject image formed on the focusing screen 234 is converted into an erect image by the pentaprism 235 and observed by the user via the eyepiece optical system 236. An AE sensor 237 is disposed above the exit surface of the pentaprism 235, and detects the luminance distribution of the subject image.

斜設状態におけるメインミラー232の光軸201の近傍領域は、ハーフミラーとして形成されており、入射される光束の一部が透過する。透過した光束は、メインミラー232と連動して動作するサブミラー238で反射されて、AF光学系239へ導かれる。AF光学系239を通過した被写体光束は、AFセンサ240へ入射される。AFセンサ240は、受光した被写体光束から位相差信号を検出する。なお、サブミラー238は、メインミラー232が被写体光束から退避する場合は、メインミラー232に連動して被写体光束から退避する。   The region near the optical axis 201 of the main mirror 232 in the oblique state is formed as a half mirror, and a part of the incident light beam is transmitted. The transmitted light beam is reflected by the sub mirror 238 that operates in conjunction with the main mirror 232, and is guided to the AF optical system 239. The subject luminous flux that has passed through the AF optical system 239 enters the AF sensor 240. The AF sensor 240 detects a phase difference signal from the received subject light beam. The sub mirror 238 retracts from the subject light beam in conjunction with the main mirror 232 when the main mirror 232 retracts from the subject light beam.

斜設されたメインミラー232の後方には、光軸201に沿って、フォーカルプレーンシャッタ241、光学ローパスフィルタ242、撮像素子243が配列されている。フォーカルプレーンシャッタ241は、撮像素子243へ被写体光束を導くときに開放状態を取り、その他のときに遮蔽状態を取る。光学ローパスフィルタ242は、撮像素子243の画素ピッチに対する被写体像の空間周波数を調整する役割を担う。そして、撮像素子243は、例えばCMOSセンサなどの光電変換素子であり、受光面で結像した被写体像を電気信号に変換する。   A focal plane shutter 241, an optical low-pass filter 242, and an image sensor 243 are arranged along the optical axis 201 behind the oblique main mirror 232. The focal plane shutter 241 takes an open state when the subject light flux is guided to the image sensor 243, and takes a shielding state at other times. The optical low-pass filter 242 plays a role of adjusting the spatial frequency of the subject image with respect to the pixel pitch of the image sensor 243. The image sensor 243 is a photoelectric conversion element such as a CMOS sensor, for example, and converts the subject image formed on the light receiving surface into an electric signal.

撮像素子243で光電変換された電気信号は、メイン基板244に搭載されたDSPである画像処理部246で画像データに処理される。メイン基板244には、画像処理部246の他に、カメラユニット230のシステムを統合的に制御するMPUであるカメラシステム制御部245が搭載されている。カメラシステム制御部245は、カメラシーケンスを管理すると共に、各構成要素の入出力処理等を行う。   The electrical signal photoelectrically converted by the image sensor 243 is processed into image data by the image processing unit 246 which is a DSP mounted on the main board 244. In addition to the image processing unit 246, a camera system control unit 245, which is an MPU that integrally controls the system of the camera unit 230, is mounted on the main board 244. The camera system control unit 245 manages the camera sequence and performs input / output processing of each component.

カメラユニット230の背面には液晶モニタ等による表示部247が配設されており、画像処理部246で処理された被写体画像が表示される。表示部247は、撮影後の静止画像に限らず、ビューファインダとしてのEVF画像、各種メニュー情報、撮影情報等を表示する。また、カメラユニット230には、着脱可能な二次電池248が収容され、カメラユニット230に限らず、レンズユニット210にも電力を供給する。   A display unit 247 such as a liquid crystal monitor is disposed on the back surface of the camera unit 230, and a subject image processed by the image processing unit 246 is displayed. The display unit 247 displays not only a still image after shooting, but also an EVF image as a viewfinder, various menu information, shooting information, and the like. The camera unit 230 houses a detachable secondary battery 248 and supplies power to the lens unit 210 as well as the camera unit 230.

また、ペンタプリズム235の近傍には使用状態と収納状態を取り得るフラッシュ249を備えており、使用状態においてカメラシステム制御部245の制御により被写体を照射する。フラッシュ249の近傍には、被写体を照射するパターン投光部250を備えており、被写体に対して幾何的模様等であるパターンを投光する。   A flash 249 that can be used and stored is provided near the pentaprism 235, and the subject is irradiated under the control of the camera system controller 245 in the used state. In the vicinity of the flash 249, a pattern light projecting unit 250 that irradiates the subject is provided, and a pattern such as a geometric pattern is projected onto the subject.

図3は、本実施形態に係る構造化開口を説明する説明図である。図3(a)は、図1(a)に示したシングルコーデッドアパーチャの構造化開口に対応する構造化開口360の正面図である。構造化開口360は、保持枠351にフィルタ352が支持されて構成されている。具体的には、保持枠351は、中心部分が中空の円筒形を成し、フィルタ352は、保持枠351の中空部分に張設されて固定されている。フィルタ352は、被写体光束のうち可視光を透過させ赤外光を遮断する赤外遮断フィルタ部353と、被写体光束のうち可視光および赤外光を透過させる透過フィルタ部354を有する。透過フィルタ部354は、図示するような複雑な開口形状を有する。   FIG. 3 is an explanatory diagram for explaining the structured opening according to the present embodiment. FIG. 3 (a) is a front view of the structured opening 360 corresponding to the structured opening of the single coded aperture shown in FIG. 1 (a). The structured opening 360 is configured by a filter 352 supported by a holding frame 351. Specifically, the holding frame 351 has a cylindrical shape with a hollow center portion, and the filter 352 is stretched and fixed to the hollow portion of the holding frame 351. The filter 352 includes an infrared blocking filter unit 353 that transmits visible light and blocks infrared light in the subject light beam, and a transmission filter unit 354 that transmits visible light and infrared light in the subject light beam. The transmission filter unit 354 has a complicated opening shape as illustrated.

図3(b−1)は、図1(b−1)に示したコーデッドアパーチャペアの構造化開口に対応する構造化開口310の正面図である。構造化開口310は、保持枠301にフィルタ302が支持されて構成されている。具体的には、保持枠301は、中心部分が中空の円筒形を成し、フィルタ302は、保持枠301の中空部分に張設されて固定されている。フィルタ302は、被写体光束のうち可視光を透過させ赤外光を遮断する赤外遮断フィルタ部303と、被写体光束のうち可視光および赤外光を透過させる透過フィルタ部304を有する。保持枠301の中心は撮影レンズの光軸と一致するが、円形を成す透過フィルタ部304は、光軸に対して偏心している。(b−1)の状態で第1の撮影画像を取得し、(b−1)の構造化開口310を反転させた(b−2)の状態で第2の撮影画像を取得することにより、推定誤差の低減を図ることができる。   FIG. 3 (b-1) is a front view of the structured opening 310 corresponding to the structured opening of the coded aperture pair shown in FIG. 1 (b-1). The structured opening 310 is configured such that the filter 302 is supported on the holding frame 301. Specifically, the holding frame 301 has a cylindrical shape with a hollow center portion, and the filter 302 is stretched and fixed to the hollow portion of the holding frame 301. The filter 302 includes an infrared blocking filter unit 303 that transmits visible light and blocks infrared light in the subject light beam, and a transmission filter unit 304 that transmits visible light and infrared light in the subject light beam. The center of the holding frame 301 coincides with the optical axis of the photographing lens, but the circular transmission filter unit 304 is eccentric with respect to the optical axis. By acquiring the first captured image in the state of (b-1) and acquiring the second captured image in the state of (b-2) with the structured opening 310 of (b-1) inverted, The estimation error can be reduced.

本実施形態においては、構造化開口360を構造化開口ユニット300としてレンズユニット210に配設することができる。または、構造化開口310を構造化開口ユニット300としてレンズユニット210に配設することもできる。そこで、ここではまず構造化開口310を構造化開口ユニット300としてレンズユニット210に配設する場合について説明する。図4は、構造化開口310を組み込んだ構造化開口ユニット300の外観図である。図4(a)は光軸201方向から見た正面図であり、図4(b)は側面図である。   In the present embodiment, the structured opening 360 can be disposed in the lens unit 210 as the structured opening unit 300. Alternatively, the structured opening 310 may be disposed in the lens unit 210 as the structured opening unit 300. Therefore, here, a case where the structured opening 310 is disposed in the lens unit 210 as the structured opening unit 300 will be described first. FIG. 4 is an external view of a structured opening unit 300 incorporating the structured opening 310. 4A is a front view seen from the direction of the optical axis 201, and FIG. 4B is a side view.

構造化開口ユニット300は、構造化開口310、ベース部307、外周部308および把持部309を主な構成要素とする。保持枠301の外周部にはギア306が全周にわたって設けられている。保持枠301は、ベース部307に回転機構を介して連結され、図示する矢印方向へ回転自在に支持されている。ベース部307は、保持枠301の中空部分と同様に、被写体光束範囲に中空部分を有する。したがって、保持枠301にフィルタ302が張設されていなければ、構造化開口ユニット300をレンズユニット210へ装着しても、被写体光束に何ら影響を与えない。   The structured opening unit 300 includes the structured opening 310, the base portion 307, the outer peripheral portion 308, and the grip portion 309 as main components. A gear 306 is provided on the entire outer periphery of the holding frame 301. The holding frame 301 is connected to the base portion 307 via a rotation mechanism, and is supported so as to be rotatable in the direction of the arrow shown in the drawing. Similarly to the hollow portion of the holding frame 301, the base portion 307 has a hollow portion in the subject light flux range. Therefore, if the filter 302 is not stretched on the holding frame 301, even if the structured aperture unit 300 is attached to the lens unit 210, the subject luminous flux is not affected at all.

ベース部307の端部には外周部308と把持部309が一体的に形成されている。ユーザは、把持部309を掴んで構造化開口ユニット300をレンズユニット210に対して挿抜する。なお、ここでは構造化開口ユニット300を挿抜できるように構成したが、後述するように、本実施形態においては構造化開口310が被写体光束の可視光に対しては作用しないので、挿抜機構を省いてレンズユニット210に内蔵されるように構成しても良い。構造化開口ユニット300は、例えば天体写真撮影など、後述の赤外光受光画素を用いて通常の撮影画像を取得したい場合などに挿抜機構を利用して抜出され得る。   An outer peripheral portion 308 and a grip portion 309 are integrally formed at the end of the base portion 307. The user inserts and removes the structured opening unit 300 with respect to the lens unit 210 by grasping the grip 309. Here, the structured aperture unit 300 is configured to be able to be inserted / removed. However, as will be described later, in this embodiment, the structured aperture 310 does not act on the visible light of the subject luminous flux, so the insertion / extraction mechanism is omitted. The lens unit 210 may be built in. The structured aperture unit 300 can be extracted by using an insertion / extraction mechanism when it is desired to acquire a normal captured image using infrared light receiving pixels, which will be described later, such as astronomical photography.

フィルタ302を固定する保持枠301は、上述のように矢印方向へ回転するので、透過フィルタ部304の光軸201に対する相対的な位置関係は、保持枠301の回転に伴って変化する。例えば、保持枠301が180度回転されると、図示する透過フィルタ部304と光軸201の位置関係が逆転する。   Since the holding frame 301 that fixes the filter 302 rotates in the direction of the arrow as described above, the relative positional relationship of the transmission filter unit 304 with respect to the optical axis 201 changes as the holding frame 301 rotates. For example, when the holding frame 301 is rotated 180 degrees, the positional relationship between the illustrated transmission filter unit 304 and the optical axis 201 is reversed.

図5は、構造化開口ユニット300をレンズユニット210に装着する様子を示す図である。図5(a)は、構造化開口ユニット300をレンズユニット210に挿し込む直前の様子を示し、図5(b)は、装着された様子を示す。   FIG. 5 is a diagram illustrating a state in which the structured aperture unit 300 is attached to the lens unit 210. FIG. 5A shows a state immediately before the structured aperture unit 300 is inserted into the lens unit 210, and FIG. 5B shows a state where the structured opening unit 300 is attached.

ユーザは、把持部309を把持して、構造化開口ユニット300をレンズ鏡筒217に設けられた装着スリット219へ挿し込む。すると、構造化開口ユニット300は、ベース部307の側面がレンズ鏡筒217の内部に設けられた挿抜ガイド220に案内されて、フィルタ302の中心が光軸201と一致する位置に到達する。フィルタ302の中心が光軸201と一致する位置に到達すると、外周部308が装着スリット219に嵌合し、外周部308の外面がレンズ鏡筒217の外観面と一致する。同時に、ギア306は、アクチュエータ215の駆動ギアと噛合する。このように、構造化開口ユニット300がレンズユニット210と一体化されると、レンズシステム制御部216は、アクチュエータ215により保持枠301を回転させることができ、光軸201周りに透過フィルタ部304と光軸201の位置関係を変更することができる。   The user grips the grip portion 309 and inserts the structured opening unit 300 into the mounting slit 219 provided in the lens barrel 217. Then, in the structured opening unit 300, the side surface of the base portion 307 is guided by the insertion / extraction guide 220 provided inside the lens barrel 217, and reaches the position where the center of the filter 302 coincides with the optical axis 201. When the center of the filter 302 reaches a position that coincides with the optical axis 201, the outer peripheral portion 308 is fitted into the mounting slit 219, and the outer surface of the outer peripheral portion 308 matches the outer appearance surface of the lens barrel 217. At the same time, the gear 306 meshes with the drive gear of the actuator 215. Thus, when the structured aperture unit 300 is integrated with the lens unit 210, the lens system control unit 216 can rotate the holding frame 301 by the actuator 215, and the transmission filter unit 304 around the optical axis 201. The positional relationship of the optical axis 201 can be changed.

なお、シングルコーデッドアパーチャを採用する構造化開口360を構造化開口ユニット300としてレンズユニット210に配設する場合は、開口位置を光軸201に対して変更することを要しないので、アクチュエータ215を省略して、構造化開口ユニット300をレンズ鏡筒内に固定配置すれば良い。もちろん、赤外光撮影に対応すべく挿抜機構を採用して、被写体光束から抜出できるように構成しても良い。   In the case where the structured opening 360 employing a single coded aperture is disposed in the lens unit 210 as the structured opening unit 300, the actuator 215 is omitted because it is not necessary to change the opening position with respect to the optical axis 201. Then, the structured aperture unit 300 may be fixedly disposed in the lens barrel. Of course, an insertion / extraction mechanism may be adopted so as to be able to extract from the subject luminous flux in order to cope with infrared light photography.

図6は、撮像素子243の画素上に配置された画素フィルタの説明図である。本実施例における画素フィルタの配列は、図示するように、4画素を1組として、各画素上にR画素フィルタ、G画素フィルタ、B画素フィルタおよびIR画素フィルタが設けられている。IR画素フィルタは、赤外光の波長帯を透過するフィルタである。したがって、各画素が感度を有する波長帯は、それぞれに設けられた画素フィルタによって規制される。撮像素子243の全体としては、2次元的に配列された画素のそれぞれが離散的にR画素フィルタ、G画素フィルタ、B画素フィルタおよびIR画素フィルタのいずれかを備えることになるので、撮像素子243は、入射する被写体光束をそれぞれの波長帯に分離して検出していると言える。換言すれば、撮像素子243は、受光面に結像する被写体像をRGB+IRの4つの波長帯に分離して光電変換する。   FIG. 6 is an explanatory diagram of pixel filters arranged on the pixels of the image sensor 243. As shown in the figure, the pixel filter array in this embodiment includes four pixels as a set, and an R pixel filter, a G pixel filter, a B pixel filter, and an IR pixel filter are provided on each pixel. The IR pixel filter is a filter that transmits the wavelength band of infrared light. Therefore, the wavelength band in which each pixel has sensitivity is regulated by the pixel filter provided for each pixel. As the entire image sensor 243, each of the two-dimensionally arranged pixels is discretely provided with one of an R pixel filter, a G pixel filter, a B pixel filter, and an IR pixel filter. It can be said that the incident subject luminous flux is detected separately for each wavelength band. In other words, the image sensor 243 separates the subject image formed on the light receiving surface into four wavelength bands of RGB + IR and performs photoelectric conversion.

なお、撮像素子243の画素の画素ピッチは、IR画素フィルタが設けられた赤外光受光画素の画素ピッチを基準に決定される。赤外光受光画素の画素ピッチは、合焦を表現するPSFを再現できるサンプリングピッチにより決定される。具体的には、レンズ群211を含む撮影光学系により合焦した点像を赤外光受光画素が受光したときに出力される像が、許容錯乱円によって規定される合焦との判定に対応するPSFの波形を表現できるように、赤外光受光画素の画素ピッチが決定される。   Note that the pixel pitch of the pixels of the image sensor 243 is determined based on the pixel pitch of the infrared light receiving pixels provided with the IR pixel filter. The pixel pitch of the infrared light receiving pixels is determined by the sampling pitch that can reproduce the PSF that expresses the focus. Specifically, the image output when the infrared light receiving pixel receives the point image focused by the photographing optical system including the lens group 211 corresponds to the determination that the focus is defined by the allowable circle of confusion. The pixel pitch of the infrared light receiving pixels is determined so that the waveform of the PSF to be expressed can be expressed.

図7は、撮像素子243の画素が感度を有する波長帯と、構造化開口の赤外遮断フィルタ部303、353が遮断する波長帯の関係を示す図である。図は、縦軸に透過率(%)を、横軸に波長(nm)を示す。透過率が高い波長の光ほど、画素を構成するフォトダイオードに到達することを表す。   FIG. 7 is a diagram illustrating the relationship between the wavelength band in which the pixel of the image sensor 243 has sensitivity and the wavelength band blocked by the infrared blocking filter units 303 and 353 of the structured aperture. In the figure, the vertical axis represents transmittance (%), and the horizontal axis represents wavelength (nm). It represents that the light having a higher transmittance reaches the photodiode constituting the pixel.

B曲線601は、B画素フィルタが設けられた画素の感度を示し、同様にG曲線602はG画素フィルタが設けられた画素の感度を、R曲線603はR画素フィルタが設けられた画素の感度を、IR曲線604はIR画素フィルタが設けられた画素の感度を示す。また、構造化開口310、360の赤外遮断フィルタ部303、353は、矢印611の波長帯を遮断する。一方、構造化開口310、360の透過フィルタ部304、354は、図示する波長帯のいずれも遮断することなく被写体光束を透過させる。   The B curve 601 indicates the sensitivity of the pixel provided with the B pixel filter, the G curve 602 indicates the sensitivity of the pixel provided with the G pixel filter, and the R curve 603 indicates the sensitivity of the pixel provided with the R pixel filter. The IR curve 604 indicates the sensitivity of a pixel provided with an IR pixel filter. In addition, the infrared blocking filter portions 303 and 353 of the structured openings 310 and 360 block the wavelength band indicated by the arrow 611. On the other hand, the transmission filter sections 304 and 354 of the structured openings 310 and 360 transmit the subject light flux without blocking any of the illustrated wavelength bands.

すなわち、IR画素フィルタが設けられた赤外光受光画素は、構造化開口310、360の開口部としての透過フィルタ部304、354を通過した被写体光束のみを受光する。一方で、R画素フィルタ、G画素フィルタ、B画素フィルタが設けられた画素は、透過フィルタ部304、354および赤外遮断フィルタ部303、353のいずれにも遮断されない被写体光束の可視光波長帯を受光する。   That is, the infrared light receiving pixel provided with the IR pixel filter receives only the subject luminous flux that has passed through the transmission filter sections 304 and 354 as the openings of the structured openings 310 and 360. On the other hand, a pixel provided with an R pixel filter, a G pixel filter, and a B pixel filter has a visible light wavelength band of a subject luminous flux that is not blocked by any of the transmission filter units 304 and 354 and the infrared blocking filter units 303 and 353. Receive light.

すると、赤外受光画素の出力のみを集めれば、構造化開口310、360を通過することにより振幅変調を受けた被写体画像を形成することができ、これを画像処理することによって補助撮影画像を取得することができる。構造化開口360を用いる場合は、この補助撮影画像からシングルコーデッドアパーチャの手法を採用して距離情報を算出できる。
構造化開口310を用いる場合は、透過フィルタ部304を光軸201に対して反転させ、もう一つの振幅変調を受けた被写体画像を形成し、二枚目の補助撮影画像を取得する。これらの補助撮影画像からコーデッドアパーチャペアの手法を採用してより精度の高い距離情報を算出できる。
Then, if only the outputs of the infrared light receiving pixels are collected, a subject image subjected to amplitude modulation can be formed by passing through the structured openings 310 and 360, and an auxiliary captured image is obtained by performing image processing on the subject image. can do. When the structured aperture 360 is used, distance information can be calculated from the auxiliary captured image using a single coded aperture technique.
When the structured aperture 310 is used, the transmission filter unit 304 is inverted with respect to the optical axis 201 to form another subject image subjected to amplitude modulation, and a second auxiliary captured image is acquired. By using a coded aperture pair method from these auxiliary captured images, it is possible to calculate distance information with higher accuracy.

同時に、R画素フィルタ、G画素フィルタ、B画素フィルタが設けられた画素の出力を集めれば、構造化開口310、360によっては何ら振幅変調を受けていない被写体画像を形成することができ、これを画像処理することによってカラーの被写体画像を形成することができる。つまり、観賞用等に耐え得る通常の被写体画像としての本撮影画像を取得することができる。   At the same time, by collecting the outputs of the pixels provided with the R pixel filter, the G pixel filter, and the B pixel filter, it is possible to form a subject image that is not subjected to any amplitude modulation by the structured openings 310 and 360. A color subject image can be formed by image processing. That is, it is possible to acquire a main photographic image as a normal subject image that can endure viewing.

したがって、シングルコーデッドアパーチャの手法を採用する構造化開口360を用いた場合であれば、一度の撮影動作により補助撮影画像と本撮影画像を共に取得することができる。コーデッドアパーチャペアの手法を採用する構造化開口310を用いた場合であれば、透過フィルタ部304を反転させて行う二度の撮影動作により異なる振幅変調を受けた二枚の補助撮影画像と、二枚の本撮影画像を共に取得することができる。   Therefore, if the structured aperture 360 employing the single coded aperture technique is used, both the auxiliary captured image and the actual captured image can be acquired by a single capturing operation. If the structured aperture 310 employing the coded aperture pair method is used, two auxiliary captured images that have undergone different amplitude modulations by two imaging operations performed by inverting the transmission filter unit 304, and two It is possible to acquire both of the main photographed images.

次に、本実施形態に係る一眼レフカメラ200のシステム構成を説明する。図8は、一眼レフカメラ200のシステム構成を概略的に示すブロック図である。一眼レフカメラ200のシステムは、レンズユニット210とカメラユニット230のそれぞれに対応して、レンズシステム制御部216を中心とするレンズ制御系と、カメラシステム制御部245を中心とするカメラ制御系により構成される。そして、レンズ制御系とカメラ制御系は、レンズマウント218とカメラマウント231によって接続される接続部を介して、相互に各種データ、制御信号の授受を行う。   Next, the system configuration of the single-lens reflex camera 200 according to the present embodiment will be described. FIG. 8 is a block diagram schematically showing the system configuration of the single-lens reflex camera 200. The system of the single-lens reflex camera 200 includes a lens control system centered on the lens system control unit 216 and a camera control system centered on the camera system control unit 245 corresponding to the lens unit 210 and the camera unit 230, respectively. Is done. The lens control system and the camera control system exchange various data and control signals with each other via a connection portion connected by the lens mount 218 and the camera mount 231.

カメラ制御系に含まれる画像処理部246は、カメラシステム制御部245からの指令に従って、撮像素子243で光電変換された撮像信号を画像データに処理する。本撮影画像として処理された画像データは、表示部247へ送られて、例えば撮影後の一定時間の間表示される。これに並行して、処理された画像データは、所定の画像フォーマットに加工され、外部接続IF254を介して外部メモリに記録される。また、画像処理部246は、赤外光受光素子の出力からなる撮像信号を処理して補助撮影画像を生成する。生成された補助撮影画像は距離情報算出部251へ引き渡され、距離情報算出部251は、上述の手法により距離情報を算出する。算出された距離情報は、カメラメモリ252へ記録される。   An image processing unit 246 included in the camera control system processes an imaging signal photoelectrically converted by the imaging element 243 into image data in accordance with a command from the camera system control unit 245. The image data processed as the actual captured image is sent to the display unit 247 and displayed for a certain period of time after shooting, for example. In parallel with this, the processed image data is processed into a predetermined image format and recorded in the external memory via the external connection IF 254. In addition, the image processing unit 246 processes an imaging signal formed from the output of the infrared light receiving element to generate an auxiliary captured image. The generated auxiliary captured image is transferred to the distance information calculation unit 251, and the distance information calculation unit 251 calculates distance information by the above-described method. The calculated distance information is recorded in the camera memory 252.

カメラメモリ252は、例えばフラッシュメモリなどの不揮発性メモリであり、生成された撮影画像の一時的な記録場所としての他に、一眼レフカメラ200を制御するプログラム、各種パラメータなどを記録する役割を担う。ワークメモリ253は、例えばRAMなどの高速アクセスできるメモリであり、処理中の画像データを一時的に保管する役割などを担う。   The camera memory 252 is a non-volatile memory such as a flash memory, for example, and plays a role of recording a program for controlling the single-lens reflex camera 200, various parameters, and the like in addition to a temporary recording place of the generated captured image. . The work memory 253 is a memory that can be accessed at high speed, such as a RAM, and has a role of temporarily storing image data being processed.

レリーズスイッチ255は押し込み方向に2段階のスイッチ位置を備えており、カメラシステム制御部245は、第1段階のスイッチであるSW1がONになったことを検出すると、AFセンサ240から位相差情報を取得する。そして、レンズシステム制御部216へフォーカスレンズ212の駆動情報を送信する。また、AEセンサ237から被写体像の輝度分布を取得して露出値を決定する。さらに、第2段階のスイッチであるSW2がONになったことを検出すると、予め定められた処理フローに従って撮影動作を実行する。   The release switch 255 has a two-step switch position in the push-in direction, and the camera system control unit 245 detects phase difference information from the AF sensor 240 when detecting that the first-stage switch SW1 is turned on. get. Then, the drive information of the focus lens 212 is transmitted to the lens system control unit 216. Also, the exposure value is determined by obtaining the luminance distribution of the subject image from the AE sensor 237. Further, when it is detected that SW2 which is the second stage switch is turned on, the photographing operation is executed according to a predetermined processing flow.

フラッシュ249は、カメラシステム制御部245の制御に従って被写体を照射する。また、同様にパターン投光部250は、カメラシステム制御部245の制御に従って投光パターンを被写体に投光する。   The flash 249 irradiates the subject under the control of the camera system control unit 245. Similarly, the pattern projector 250 projects the projection pattern onto the subject under the control of the camera system controller 245.

レンズシステム制御部216は、カメラシステム制御部245からの制御信号を受けて各種動作を実行する。レンズメモリ221は、レンズユニット210に固有であるPSFを保管している。距離情報算出部251は、カメラシステム制御部245およびレンズシステム制御部216を介して、レンズメモリ221からPSFを取得する。また、構造化開口駆動部222は、構造化開口310を用いる場合に、レンズシステム制御部216の指示に従ってアクチュエータ215を駆動する。   The lens system control unit 216 receives various control signals from the camera system control unit 245 and executes various operations. The lens memory 221 stores a PSF that is unique to the lens unit 210. The distance information calculation unit 251 acquires the PSF from the lens memory 221 via the camera system control unit 245 and the lens system control unit 216. Further, the structured aperture driving unit 222 drives the actuator 215 in accordance with an instruction from the lens system control unit 216 when the structured aperture 310 is used.

図9は、補助撮影画像の取得から距離情報の算出までの処理フローを示す図である。本フローにおける一連の処理は、カメラシステム制御部245が操作部材を介してユーザから指示を受け付けたとき、または、予め定められた制御プログラムに距離算出処理が組み込まれているとき等に開始される。   FIG. 9 is a diagram illustrating a processing flow from acquisition of an auxiliary captured image to calculation of distance information. A series of processes in this flow is started when the camera system control unit 245 receives an instruction from the user via the operation member or when a distance calculation process is incorporated in a predetermined control program. .

ステップS801では、画像処理部246が処理対象となる補助撮影画像を取得する。画像処理部246は、処理対象の補助撮影画像として、撮像素子243から出力された画像信号をそのまま取得しても良いし、撮影後に距離情報を算出しないまま記録部に記録されている補助撮影画像を読み出して取得しても良い。したがって、本実施形態においてはカメラユニット230を画像処理装置として距離情報の算出を実行するが、距離情報の算出は、カメラとは別個の独立した画像処理装置で実行することもできる。例えば、PCを例にすれば、カメラとの間に記録媒体を介在させ、記録媒体に記録された補助撮影画像を読み出して処理することもできるし、有線、無線によりカメラと接続した状態を確立すれば、補助撮影画像の撮影と連動して処理することもできる。そして、補助撮影画像を生成すると距離情報算出部251へ引き渡す。   In step S801, the image processing unit 246 acquires an auxiliary captured image to be processed. The image processing unit 246 may acquire the image signal output from the image sensor 243 as the auxiliary captured image to be processed as it is, or the auxiliary captured image recorded in the recording unit without calculating the distance information after shooting. May be read and acquired. Therefore, in the present embodiment, the distance information is calculated using the camera unit 230 as the image processing apparatus, but the distance information can be calculated by an independent image processing apparatus separate from the camera. For example, taking a PC as an example, a recording medium can be interposed between the camera and an auxiliary captured image recorded on the recording medium can be read and processed, or a state where the camera is connected to the camera by wire or wirelessly can be established. If so, processing can be performed in conjunction with the shooting of the auxiliary captured image. Then, when the auxiliary captured image is generated, it is delivered to the distance information calculation unit 251.

距離情報算出部251は、補助撮影画像を受け取ると、ステップS802で、レンズメモリ221に保管されているレンズユニット210のPSFを取得する。なお、距離情報の算出処理が補助撮影画像の撮影動作と連続しない場合には、レンズユニット210が他のレンズユニット210に交換されている場合もあるので、距離情報算出部251は、他の保管場所からPSFを取得するように構成しても良い。   When receiving the auxiliary captured image, the distance information calculation unit 251 acquires the PSF of the lens unit 210 stored in the lens memory 221 in step S802. Note that when the distance information calculation process is not continuous with the auxiliary image capturing operation, the lens unit 210 may be replaced with another lens unit 210, so the distance information calculation unit 251 stores other information. You may comprise so that PSF may be acquired from a place.

例えば、補助画像データは、撮影処理時にレンズメモリ221に記録されているPSFをEXIF情報などの付帯情報として取り込むこともできるし、カメラメモリ252は、レンズユニット210が装着されるタイミングでレンズメモリ221からPSFを取り込むこともできる。したがって、距離情報算出部251は、補助撮影画像の付帯情報、カメラメモリ252などからPSFを取得することもできる。なお、距離情報算出部251は、補助撮影画像の付帯情報として記録されているレンズユニット情報と構造化開口情報から、カメラメモリ252などの記録部に記録されているPSFから使用すべきPSFを特定することもできる。このような場合は、補助撮影画像の撮影時に用いられたレンズユニットの情報を取得するステップと、当該レンズユニットに対応するそれぞれのPSFを取得するステップとを分けて処理すると良い。   For example, the auxiliary image data can be taken in PSF recorded in the lens memory 221 at the time of shooting processing as supplementary information such as EXIF information, and the camera memory 252 has the lens memory 221 at the timing when the lens unit 210 is attached. PSF can also be imported from Therefore, the distance information calculation unit 251 can also acquire the PSF from the auxiliary information of the auxiliary captured image, the camera memory 252 and the like. The distance information calculation unit 251 specifies the PSF to be used from the PSF recorded in the recording unit such as the camera memory 252 from the lens unit information and the structured aperture information recorded as supplementary information of the auxiliary captured image. You can also In such a case, it is preferable to separately process the step of acquiring information on the lens unit used at the time of capturing the auxiliary captured image and the step of acquiring each PSF corresponding to the lens unit.

距離情報算出部251は、このように取得した補助撮影画像とこれに対応したPSFを用いて、ステップS803で、距離情報を算出する。距離情報は、上述のようにシングルコーデッドアパーチャまたはコーデッドアパーチャペアの手法を用いて算出される。なお、算出された距離情報は、距離画像データとして別途独立したファイルを生成しても良いし、補助撮影画像に付帯して記録しても良い。別途独立したファイルを生成する場合には、補助撮影画像に対してリンク情報を記録する。算出された距離情報は、例えば、同一距離と判断された被写体が存在する画素領域情報と当該距離をセットとして、距離ごとに複数セット分リスト化されたテーブル形式のデータ構造を有する。算出できる距離の分解能は、PSFがどれだけの距離ピッチごとに用意されているかに依存するので、高い分解能を得たい場合には、細かい距離ピッチで刻んだPSFを予め用意すれば良い。以上により一連の処理フローを終了する。   In step S803, the distance information calculation unit 251 calculates distance information using the auxiliary captured image acquired in this way and the PSF corresponding thereto. The distance information is calculated using the single coded aperture or the coded aperture pair method as described above. The calculated distance information may be generated as a separate image file as the distance image data, or may be recorded along with the auxiliary captured image. When a separate file is generated separately, link information is recorded for the auxiliary captured image. The calculated distance information has, for example, a data structure in a table format in which a plurality of sets are listed for each distance, with the pixel area information in which the subject determined to be the same distance exists and the distance as a set. Since the resolution of the distance that can be calculated depends on how many distance pitches the PSF is prepared, if a high resolution is desired, a PSF that is engraved with a fine distance pitch may be prepared in advance. A series of processing flow is complete | finished by the above.

次に、赤外光受光素子の配置についてのバリエーションを説明する。図10は、ファインダから観察される被写体像501および焦点検出領域502を示す図である。被写体像501の領域は撮像素子の有効画素領域にほぼ対応する。焦点検出領域502は二次元的に複数設けられており、ユーザの設定により、または、カメラシステム制御部245がシーンを判別して特定の一つの焦点検出領域502が選択されて、その領域でオートフォーカスが行われる。カメラシステム制御部245がシーンを判別する場合、例えば近点優先、顔検出優先等のアルゴリズムにより一つの焦点検出領域502が選択される。   Next, variations on the arrangement of the infrared light receiving elements will be described. FIG. 10 is a diagram showing a subject image 501 and a focus detection area 502 observed from the viewfinder. The area of the subject image 501 substantially corresponds to the effective pixel area of the image sensor. A plurality of focus detection areas 502 are provided two-dimensionally, and a specific one focus detection area 502 is selected by the user setting or by the camera system control unit 245 determining a scene, and auto-detection is performed in that area. Focus is performed. When the camera system control unit 245 determines a scene, for example, one focus detection area 502 is selected by an algorithm such as near point priority or face detection priority.

図11は、焦点検出領域502の配置と赤外光受光素子の配置の関係を示す図である。図6を用いて説明した撮像素子243においては、赤外光受光素子を全面に離散的に配置した。しかし、撮像素子643においては、焦点検出領域に対応する対応領域632を包含する焦点検出対応領域633を設定して、この領域内に赤外光受光素子を離散的に配置する。   FIG. 11 is a diagram showing the relationship between the arrangement of the focus detection areas 502 and the arrangement of the infrared light receiving elements. In the image sensor 243 described with reference to FIG. 6, infrared light receiving elements are discretely arranged on the entire surface. However, in the image sensor 643, a focus detection corresponding region 633 including a corresponding region 632 corresponding to the focus detection region is set, and the infrared light receiving elements are discretely arranged in this region.

具体的には、図示するように、焦点検出対応領域633内では、4画素を1組として、各画素上にR画素フィルタ、G画素フィルタ、B画素フィルタおよびIR画素フィルタを設ける。また、焦点検出対応領域633外では、4画素を1組として、いわゆるベイヤー配列に倣い各画素上にR画素フィルタ、G画素フィルタ、G画素フィルタおよびB画素フィルタを設ける。   Specifically, as shown in the figure, in the focus detection corresponding region 633, an R pixel filter, a G pixel filter, a B pixel filter, and an IR pixel filter are provided on each pixel as a set of four pixels. Further, outside the focus detection corresponding region 633, an R pixel filter, a G pixel filter, a G pixel filter, and a B pixel filter are provided on each pixel in accordance with a so-called Bayer array with four pixels as a set.

つまり、距離情報を取得したい領域は、焦点検出領域と一致する場合が多く、したがって、赤外光受光画素を限定的に配置すれば良い。これにより、距離情報を算出する領域を限定することができるので、算出時間を短縮できる。   That is, the region where distance information is desired to be acquired often coincides with the focus detection region, and therefore, infrared light receiving pixels may be arranged in a limited manner. Thereby, since the area | region which calculates distance information can be limited, calculation time can be shortened.

次に、撮像素子の配置についてのバリエーションを説明する。図12は、赤外光用撮像素子844と可視光用撮像素子843を配置したレンズ交換式カメラ800の断面図である。図示するように、赤外光波長帯を受光する専用の赤外光用撮像素子844と可視光波長帯を受光する可視光用撮像素子843を、被写体光束の赤外光波長帯と可視光波長帯を分割するダイクロイックミラー832を介して、それぞれ共役となる位置に独立に配置する。赤外光波長帯と可視光波長帯を分割する光学素子は、ダイクロイックミラー832に限らず、ダイクロイックプリズムなどの素子でも良い。なお、構造化開口801は撮影光学系の瞳位置またはその近傍に配置される。   Next, variations on the arrangement of the image sensor will be described. FIG. 12 is a cross-sectional view of an interchangeable lens camera 800 in which an infrared light imaging device 844 and a visible light imaging device 843 are arranged. As shown in the figure, a dedicated infrared light imaging device 844 that receives an infrared light wavelength band and a visible light imaging device 843 that receives a visible light wavelength band are combined with an infrared light wavelength band and a visible light wavelength of a subject light flux. The dichroic mirrors 832 that divide the band are arranged independently at conjugate positions. The optical element that divides the infrared light wavelength band and the visible light wavelength band is not limited to the dichroic mirror 832 and may be an element such as a dichroic prism. The structured aperture 801 is disposed at or near the pupil position of the photographing optical system.

また、撮影光学系によっては、赤外光波長帯の焦点面と可視光波長帯の焦点面がずれることがあるが、この場合、赤外光用撮像素子844は、可視光用撮像素子の焦点面と共役な位置にこのずれ量を加味した修正位置に配置すると良い。あるいは、このずれ量を打ち消すように、例えば赤外光用撮像素子844の近傍に補正レンズ833を配設しても良い。   In addition, depending on the photographing optical system, the focal plane of the infrared light wavelength band and the focal plane of the visible light wavelength band may be shifted. In this case, the infrared light imaging element 844 is the focal point of the visible light imaging element. It is preferable to arrange at a correction position in which this deviation amount is added to a position conjugate with the surface. Alternatively, for example, a correction lens 833 may be provided in the vicinity of the infrared light imaging device 844 so as to cancel out the shift amount.

次に、補助撮影画像の取得に対する支援動作について説明する。上述のようにシングルコーデッドアパーチャの手法であれ、コーデッドアパーチャの手法であれ、距離情報の算出はPSFを用いるので、被写体像として合焦状態と非合焦状態で差異がない領域が存在すると、当該領域において距離情報を取得することが困難となる。例えば、単一色の平滑な壁面など、被写体の表面にコントラストがない領域がこれに該当する。そこで、本実施形態においては、パターン投光部250を利用して、補助撮影画像の取得時に、被写体に格子状のパターンを投光する。   Next, a support operation for acquiring an auxiliary captured image will be described. As described above, whether the single coded aperture method or the coded aperture method is used, the PSF is used to calculate the distance information. Therefore, if there is a region where there is no difference between the focused state and the out-of-focus state as a subject image, It becomes difficult to acquire distance information in a region. For example, a region where there is no contrast on the surface of the subject such as a smooth wall surface of a single color corresponds to this. Therefore, in the present embodiment, the pattern light projecting unit 250 is used to project a grid-like pattern onto the subject when an auxiliary captured image is acquired.

図13は、パターン投光の様子を示す説明図である。図13(a)は、パターン投光する前の被写体の様子を示す。図示するように、物が置かれたテーブル901と、後方の壁面902および壁面902に設けられた窓を覆うブラインド903が被写体として存在する。このとき、特に、壁面902の表面にコントラストが存在せず、この領域の距離情報が抜け落ちる可能性がある。   FIG. 13 is an explanatory diagram showing the pattern projection. FIG. 13A shows the state of the subject before pattern projection. As illustrated, a table 901 on which an object is placed, a rear wall surface 902, and a blind 903 that covers a window provided on the wall surface 902 exist as subjects. At this time, in particular, there is no contrast on the surface of the wall surface 902, and there is a possibility that the distance information of this region may be lost.

図13(b)は、パターン投光部250によりパターン光が被写体に投光された様子を示す。投光パターン910はパターン投光部250から投光されたパターン光が被写体表面に形成するパターンを表す。パターン投光部250は、フラッシュ249の近傍に設けられており、例えば高輝度LED、パターンマスクおよびフレネルレンズが組み合わされて構成されている。なお、パターン投光部250は、AFセンサ240により位相差検出を行う場合など、オートフォーカス動作時のAF補助光投光部として利用することもできる。   FIG. 13B shows a state in which the pattern light is projected onto the subject by the pattern light projecting unit 250. The light projection pattern 910 represents a pattern formed on the subject surface by the pattern light projected from the pattern light projecting unit 250. The pattern projector 250 is provided in the vicinity of the flash 249, and is configured by combining, for example, a high-intensity LED, a pattern mask, and a Fresnel lens. Note that the pattern light projecting unit 250 can also be used as an AF auxiliary light projecting unit during autofocus operation, such as when phase difference detection is performed by the AF sensor 240.

パターン投光部250は、カメラシステム制御部245の制御により、高輝度LEDが発光されて、パターンマスクに規定されるパターンを被写体に投光する。図においては、格子状のパターンが被写体に投光されており、壁面902等の表面に投光パターン910としてコントラストを生じさせている。特に、複数の水平方向のラインが垂直方向に連続するブラインド903の表面に、垂直方向のコントラストも生じさせている。   The pattern light projecting unit 250 emits a high-brightness LED under the control of the camera system control unit 245 and projects a pattern defined by the pattern mask onto the subject. In the figure, a lattice pattern is projected onto a subject, and a contrast is generated as a projected pattern 910 on the surface of a wall surface 902 or the like. In particular, vertical contrast is also generated on the surface of the blind 903 in which a plurality of horizontal lines continue in the vertical direction.

このように水平方向および垂直方向共に成分を持つようなパターンを投光すれば、より精度の良い距離情報を算出できる。コーデッドアパーチャペアの手法を用いる場合は、光軸に対して偏心した位置に設けられた開口を移動させて二枚の補助撮影画像を取得するが、このとき、被写体表面に、移動する前後の位置における開口の中心を結ぶ線分に平行なコントラストしか存在しないと、算出される距離の精度が非常に悪くなる。例えば、ブラインド903がこのような条件を満たしやすい。このとき、パターン投光により被写体表面に対してこの線分に直交する方向にコントラストを与えれば、精度良く距離を算出することができる。投光パターン910として示す格子状パターンは、二次元的なパターンの一例であり、このような条件下においても精度の良い距離算出に資する。   By projecting a pattern having components in both the horizontal direction and the vertical direction in this way, more accurate distance information can be calculated. When using the coded aperture pair method, two auxiliary shot images are acquired by moving the aperture provided at a position eccentric to the optical axis, but at this time, the position before and after moving to the subject surface If there is only a contrast parallel to the line segment that connects the centers of the openings, the accuracy of the calculated distance becomes very poor. For example, the blind 903 tends to satisfy such a condition. At this time, if the contrast is given to the subject surface in the direction orthogonal to the line segment by pattern projection, the distance can be calculated with high accuracy. The lattice pattern shown as the light projection pattern 910 is an example of a two-dimensional pattern, and contributes to accurate distance calculation even under such conditions.

また、パターン投光部250の光源は、投光する光の波長帯に、構造化開口の開口に設けられたフィルタを透過する波長帯を含む。すなわち、構造化開口の開口に、撮像素子のうち補助撮影画像を生成する画素の受光波長帯を透過するフィルタが設けられる場合、投光する光の波長帯は、この受光波長帯の少なくとも一部を含む。特に、図6を用いて説明した撮像素子243、図11を用いて説明した撮像素子643の場合、構造化開口310、360と組み合わせて、パターン投光部250に赤外光波長帯を発光する光源を採用する。   In addition, the light source of the pattern projecting unit 250 includes a wavelength band that transmits through a filter provided in the opening of the structured opening in the wavelength band of the light to be projected. That is, when a filter that transmits the light receiving wavelength band of a pixel that generates an auxiliary captured image is provided in the opening of the structured opening, the wavelength band of the light to be projected is at least a part of the light receiving wavelength band. including. In particular, in the case of the image sensor 243 described with reference to FIG. 6 and the image sensor 643 described with reference to FIG. 11, the pattern light projecting unit 250 emits an infrared light wavelength band in combination with the structured apertures 310 and 360. Adopt a light source.

特に、可視光波長帯を含まない赤外光波長帯のみを発光する光源を採用すれば、被写体として含まれる人物に、可視光波長帯であれば不愉快と感じさせるパターン光を認識させることが無い。さらに、図7に示すように、R画素フィルタ、G画素フィルタ、B画素フィルタが設けられた画素が、赤外光波長帯に対して感度を持たなければ、上述のように、本撮影画像と補助撮影画像を同時に取得する場合であっても、本撮影画像に対してパターン光の影響を与えることが無い。   In particular, if a light source that emits only an infrared light wavelength band that does not include a visible light wavelength band is employed, a person included as a subject does not recognize pattern light that makes the person feel uncomfortable in the visible light wavelength band. . Furthermore, as shown in FIG. 7, if the pixel provided with the R pixel filter, the G pixel filter, and the B pixel filter is not sensitive to the infrared light wavelength band, as described above, Even when the auxiliary captured image is acquired simultaneously, there is no influence of the pattern light on the actual captured image.

上記の実施形態においては、距離情報算出部251は、PSFを取得してシングルコーデッドアパーチャの手法またはコーデッドアパーチャペアの手法により距離情報を算出した。しかし、距離情報算出部251は、これらの手法によらず、本撮影画像と補助撮影画像の間に生じる視差を利用して距離情報を算出することもできる。   In the above embodiment, the distance information calculation unit 251 obtains the PSF and calculates the distance information by the single coded aperture method or the coded aperture pair method. However, the distance information calculation unit 251 can also calculate the distance information by using the parallax generated between the main captured image and the auxiliary captured image regardless of these methods.

図3(b−1)を用いて説明した構造化開口310は、フィルタ302が保持枠301の中空部分に張設されて固定されている。フィルタ302は、被写体光束のうち可視光を透過させ赤外光を遮断する赤外遮断フィルタ部303と、被写体光束のうち可視光および赤外光を透過させる透過フィルタ部304を有する。特に、赤外遮断フィルタ部303と透過フィルタ部304は互いに隣接しており、入射する被写体光束が赤外遮断フィルタ部303か透過フィルタ部304のいずれかを透過するように構成されている。保持枠301の中心は撮影レンズの光軸と一致し、かつ保持枠301の中空部分は通過する被写体光束の断面範囲よりも大きい。また、円形を成す透過フィルタ部304は、光軸に対して偏心している。   In the structured opening 310 described with reference to FIG. 3B-1, the filter 302 is stretched and fixed in the hollow portion of the holding frame 301. The filter 302 includes an infrared blocking filter unit 303 that transmits visible light and blocks infrared light in the subject light beam, and a transmission filter unit 304 that transmits visible light and infrared light in the subject light beam. In particular, the infrared blocking filter unit 303 and the transmission filter unit 304 are adjacent to each other, and are configured such that an incident subject light beam passes through either the infrared blocking filter unit 303 or the transmission filter unit 304. The center of the holding frame 301 coincides with the optical axis of the photographic lens, and the hollow portion of the holding frame 301 is larger than the cross-sectional range of the subject luminous flux passing therethrough. The circular transmission filter unit 304 is eccentric with respect to the optical axis.

したがって、フィルタ302は、全体として、可視光波長帯における被写体光束の全部を透過させる。一方で、赤外光波長帯における被写体光束については、赤外遮断フィルタ部303で遮断し、偏心して設けられた透過フィルタ部304でのみ透過させる。すると、撮像素子243のうちIR画素フィルタが設けられた赤外受光画素上に結像する赤外光波長帯の被写体像と、R画素フィルタ、G画素フィルタ、B画素フィルタが設けられた可視光受光画素上に結像する可視光波長帯の被写体像は、互いに視差を有することになる。   Therefore, the filter 302 as a whole transmits all of the subject luminous flux in the visible light wavelength band. On the other hand, the subject luminous flux in the infrared wavelength band is blocked by the infrared blocking filter unit 303 and transmitted only by the transmission filter unit 304 provided eccentrically. Then, a subject image in an infrared wavelength band that forms an image on an infrared light receiving pixel provided with an IR pixel filter in the image sensor 243, and visible light provided with an R pixel filter, a G pixel filter, and a B pixel filter. The object images in the visible light wavelength band formed on the light receiving pixels have parallax with each other.

つまり、赤外受光画素の出力のみを集めて形成された補助撮影画像と、可視光受光画素の出力のみを集めて形成された本撮影画像とは、互いに視差を有する画像となる。距離情報算出部251は、これらの画像に写り込む同一被写体間のマッチングを行うことにより、そのずれ量から当該被写体の深さを算出する。以下に、距離画像を取得するまでの処理について説明する。   That is, the auxiliary captured image formed by collecting only the outputs of the infrared light receiving pixels and the actual captured image formed by collecting only the outputs of the visible light receiving pixels are images having parallax. The distance information calculation unit 251 calculates the depth of the subject from the deviation amount by performing matching between the same subjects appearing in these images. In the following, processing until a distance image is acquired will be described.

図14は、本撮影画像と補助撮影画像の取得から、距離画像を算出するまでの処理の概念を示す図である。上述のように、本撮影画像は、フィルタ302の全体を透過する可視光波長帯の被写体光束が撮像素子243の受光面に結像して光電変換され、出力された画像信号が画像処理部246によって処理されて、生成される。同様に、補助撮影画像は、フィルタ302の透過フィルタ部304を透過する赤外光波長帯の被写体光束が撮像素子243の受光面に結像して光電変換され、出力された画像信号が画像処理部246によって処理されて、生成される。   FIG. 14 is a diagram illustrating a concept of processing from acquisition of a main captured image and an auxiliary captured image to calculation of a distance image. As described above, in the actual captured image, the subject light flux in the visible light wavelength band that passes through the entire filter 302 forms an image on the light receiving surface of the image sensor 243, undergoes photoelectric conversion, and the output image signal is the image processing unit 246. Is processed and generated. Similarly, in the auxiliary captured image, a subject light flux in the infrared wavelength band that passes through the transmission filter unit 304 of the filter 302 forms an image on the light receiving surface of the image sensor 243 and is photoelectrically converted, and the output image signal is subjected to image processing. It is processed and generated by the unit 246.

生成された本撮影画像と補助撮影画像は距離情報算出部251に引渡され、距離情報算出部251は、両画像のマッチング処理を実行する。ここで、マッチング処理について説明する。   The generated main captured image and auxiliary captured image are delivered to the distance information calculation unit 251, and the distance information calculation unit 251 executes matching processing of both images. Here, the matching process will be described.

補助撮影画像において、焦点の合っている奥行きでは本撮影画像に対してずれない。一方、焦点の合っていない奥行きでは本撮影画像に対してずれる。特に、焦点の合った奥行きより遠いか近いかにより、ずれの方向が逆転する。別言すれば、本撮影画像IRGBと補助撮影画像IIRは、ステレオ画像となる。本撮影画像の中央の視点をリファレンス座標に取れば、リファレンス座標(x,y)における視差をd画素とすると、IRGB(x,y)、IIR(x−d,y)が対応するから、これらが最も良く一致するdを視差の推定値とすることができる。しかし、観測波長帯が異なるため対応点の輝度レベルは一致しないので、単純な輝度の差分をマッチング指標にすることはできない。 In the auxiliary captured image, there is no deviation from the actual captured image at the depth of focus. On the other hand, when the depth is not in focus, the actual captured image is deviated. In particular, the direction of the shift is reversed depending on whether it is farther or closer than the focused depth. In other words, the main captured image I RGB and the auxiliary captured image I IR are stereo images. If the central viewpoint of the captured image is taken as the reference coordinate, I RGB (x, y) and I IR (x-d, y) correspond to the parallax at the reference coordinate (x, y) as d pixels. D that best matches them can be used as an estimated value of parallax. However, since the observation wavelength bands are different, the luminance levels of the corresponding points do not match, so a simple luminance difference cannot be used as a matching index.

そこで、ここでは自然画像の色成分は局所的に線形関係を示す傾向が高いことを利用する。(x,y)の周りに局所ウィンドウw(x,y)を考え、そこに含まれる画素色の集合をS(x,y;d)={(IRGB(s,t)、IIR(s−d,t))|(s,t)∈w(x,y)}とすると、真のdのときに分布が最も直線に近くなると考えられる。ここではRGB−IR間の線形関係を計る指標として以下を用いる。

Figure 2012022309
Therefore, the fact that the color component of the natural image has a high tendency to show a linear relationship locally is used here. A local window w (x, y) is considered around (x, y), and a set of pixel colors included therein is defined as S (x, y; d) = {(I RGB (s, t), I IR ( s−d, t)) | (s, t) ∈w (x, y)}, the distribution is considered to be closest to a straight line when true d. Here, the following is used as an index for measuring the linear relationship between RGB-IR.
Figure 2012022309

ただしλ、λ(λ≧λ≧0)は色分布S(x,y;d)の主成分軸に沿った分散(すなわちS(x,y;d)の共分散行列Σの固有値)、σRGB 、σIR は色分布のRGB、IR軸に沿った分散である。ここでは表記の簡単のため右辺のx、y、dへの依存については省略した。 However, λ 0 , λ 10 ≧ λ 1 ≧ 0) is the variance of the color distribution S (x, y; d) along the principal component axis (that is, the covariance matrix Σ of S (x, y; d)) Eigenvalue), σ RGB 2 , and σ IR 2 are dispersions along the RGB and IR axes of the color distribution. Here, the dependency on the right side x, y, d is omitted for the sake of simplicity.

行列の性質からλ+λ=σRGB +σIR (=trace(Σ))であるので、固有値間の大小に差があるほど式(1)は小さくなる。直線的な分布(λ>>λ)であればLは0に近く、完全無相関(固有値がRGB、IR軸に沿った分散に等しい)のとき最大値L=1をとる。 Since λ 0 + λ 1 = σ RGB 2 + σ IR 2 (= trace (Σ)) due to the nature of the matrix, equation (1) becomes smaller as there is a difference in magnitude between eigenvalues. If the distribution is linear (λ 0 >> λ 1 ), L is close to 0, and the maximum value L = 1 is assumed when the correlation is completely uncorrelated (the eigenvalues are equal to RGB and dispersion along the IR axis).

画像の各点、おおび取りうる範囲の各視差dについてL(x,y;d)を計算する必要があるが、Summed Area Tableを用いてIRGB、IIRとそれらの二乗と積の表を計算しておけば、局所ウィンドウのサイズに依存せずに共分散行列Σの各要素を計算することができる。また、式(1)の分子は行列の性質からλλ=det(Σ)であるので固有値を実際に計算する必要はない。このように計算される各被写体単位の視差dにより、シーンの奥行き情報を推定することができる。さらに具体的に説明する。 Although it is necessary to calculate L (x, y; d) for each point of the image, and for each disparity d that can be captured, a table of I RGB , I IR and their squares and products using the Summed Area Table , Each element of the covariance matrix Σ can be calculated without depending on the size of the local window. In addition, since the numerator of Equation (1) is λ 0 λ 1 = det (Σ) due to the nature of the matrix, it is not necessary to actually calculate the eigenvalue. The depth information of the scene can be estimated from the parallax d of each subject calculated in this way. This will be described more specifically.

距離情報算出部251は、本撮影画像の対象画素481に対して局所ウィンドウ482を定め、補助撮影画像との間でマッチング処理を行い、対象画素481における視差量を決定する。具体的には、距離情報算出部251は、本撮影画像上の局所ウィンドウ482に対応して補助撮影画像上に局所ウィンドウ484を設定して、局所ウィンドウ484を局所ウィンドウ482に対して相対的にずらしながら互いにマッチングの良い画像領域を探索する。そして、マッチングが良いと判断される局所ウィンドウ484の位置を定め、その中心座標である探索画素483の座標値を算出する。視差量は、対象画素481の座標値と探索画素483の座標値の差として決定される。つまり、距離情報算出部251は、被写体の同一点を捉えている対象画素481と探索画素483が、互いに何ピクセルずれているかを視差量として決定する。   The distance information calculation unit 251 determines a local window 482 for the target pixel 481 of the main captured image, performs matching processing with the auxiliary captured image, and determines the amount of parallax in the target pixel 481. Specifically, the distance information calculation unit 251 sets the local window 484 on the auxiliary captured image corresponding to the local window 482 on the actual captured image, and relatively sets the local window 484 relative to the local window 482. Searching for image regions with good matching with each other while shifting. Then, the position of the local window 484 in which matching is determined to be good is determined, and the coordinate value of the search pixel 483 that is the center coordinate is calculated. The amount of parallax is determined as the difference between the coordinate value of the target pixel 481 and the coordinate value of the search pixel 483. That is, the distance information calculation unit 251 determines how many pixels the target pixel 481 and the search pixel 483 capturing the same point of the subject are deviated from each other as a parallax amount.

対象画素481が合焦領域に含まれる場合は、視差量が0となる。また、対象画素481が合焦領域に対して奥行き方向に遠い被写体の領域に含まれる場合は、視差量が大きくなる。つまり、ピクセル単位で決定される視差量は、被写体の奥行き方向の距離と比例関係にある。また、レンズ情報および合焦被写体の絶対距離から、単位ピクセルあたりの奥行き方向の距離が算出される。したがって、距離情報算出部251は、算出した単位ピクセルあたりの距離に決定した視差量を乗じて合焦被写体の絶対距離を加算することにより、対象画素481における奥行き方向の距離を決定することができる。距離情報算出部251は、本撮影画像上において対象画素481を左上から右下まで順次走査しながら上記のマッチング処理を逐次実行して、本撮影画像のそれぞれの画素における奥行き方向の距離を算出する。   When the target pixel 481 is included in the in-focus area, the parallax amount is zero. In addition, when the target pixel 481 is included in a subject area far from the in-focus area in the depth direction, the amount of parallax increases. That is, the amount of parallax determined in units of pixels is proportional to the distance of the subject in the depth direction. Further, the distance in the depth direction per unit pixel is calculated from the lens information and the absolute distance of the focused subject. Therefore, the distance information calculation unit 251 can determine the distance in the depth direction of the target pixel 481 by multiplying the calculated distance per unit pixel by the determined parallax amount and adding the absolute distance of the focused subject. . The distance information calculation unit 251 sequentially executes the above matching process while sequentially scanning the target pixel 481 from the upper left to the lower right on the actual captured image, and calculates the distance in the depth direction at each pixel of the actual captured image. .

距離情報算出部251は、以上の処理により、本撮影画像の各画素に対する奥行き情報を取得する。つまり、距離画像を完成させる。距離情報算出部251はさらに、各画素の距離が如何なる区分帯に属するかにより、各画素をグループ化することができる。距離情報算出部251がグループごとに輪郭を抽出すると、それぞれの輪郭は、図14の下図のように表される。距離情報算出部251は、このように輪郭で囲まれたそれぞれの領域を、被写体像の輪郭を規定する領域として確定する。なお、ここでは各区分帯に対応して、4つの領域A〜領域Dを確定する。   The distance information calculation unit 251 acquires depth information for each pixel of the actual captured image by the above processing. That is, the distance image is completed. Further, the distance information calculation unit 251 can group the pixels according to what division band the distance of each pixel belongs to. When the distance information calculation unit 251 extracts a contour for each group, each contour is represented as shown in the lower diagram of FIG. The distance information calculation unit 251 determines each area surrounded by the outline as an area defining the outline of the subject image. Here, four regions A to D are determined corresponding to each segmented band.

以上のようなマッチング手法は、シングルコーデッドアパーチャの手法またはコーデッドアパーチャペアの手法に比較してシンプルな計算処理なので、距離情報算出部251の負荷が軽くて済む。   Since the matching method as described above is a simple calculation process compared to the single coded aperture method or the coded aperture pair method, the load on the distance information calculation unit 251 can be reduced.

なお、いずれの手法により距離情報を算出する場合であっても、本撮影画像と補助撮影画像を一度の撮影動作により取得するときには、カメラシステム制御部245は、絞り214の絞り込む範囲を制限する。具体的には、被写体光束が、制限範囲305よりも小さくならないように、絞りを開放側に設定して撮影動作を実行する。このように絞りが開放側となるように、予め定められた絞り値以下に設定して撮影動作を実行すれば、透過フィルタ部304の一部の領域のみを被写体光束が透過する状況を回避できる。換言すれば、透過フィルタ部304の全体が被写体光束に包含される絞り値を制限値として設定すれば、良好な補助撮影画像を取得することができる。   Regardless of which method is used to calculate the distance information, the camera system control unit 245 limits the narrowing range of the aperture 214 when the main captured image and the auxiliary captured image are acquired by a single imaging operation. Specifically, the photographing operation is executed with the aperture set to the open side so that the subject luminous flux does not become smaller than the limit range 305. If the photographing operation is performed with the aperture set to a predetermined aperture value or less so that the aperture is at the open side in this way, it is possible to avoid the situation where the subject luminous flux is transmitted through only a part of the region of the transmission filter unit 304. . In other words, a good auxiliary photographed image can be acquired by setting the aperture value that includes the entirety of the transmission filter unit 304 in the subject luminous flux as the limit value.

上述の構造化開口310は、被写体光束のうち可視光波長帯がフィルタ302に遮断されることなく透過する構成であった。しかし、本撮影画像と補助撮影画像の間により大きな視差量が生じるように構造化開口を変更することができる。図15は、構造化開口の他の例である。   The structured aperture 310 described above is configured to transmit the visible light wavelength band of the subject light beam without being blocked by the filter 302. However, the structured aperture can be changed so that a larger amount of parallax is generated between the main captured image and the auxiliary captured image. FIG. 15 is another example of a structured opening.

構造化開口410は、保持枠401の中空部分に張設されたフィルタ402を有する。フィルタ402は、被写体光束のうち可視光を遮断して赤外光を透過させるIRフィルタ部403、可視光を透過させ赤外光を遮断するRGBフィルタ部404および被写体光束を遮断する遮断フィルタ部405を有する。図示するようにIRフィルタ部403とRGBフィルタ部404は、フィルタ402の中心を通る光軸に対して、それぞれ偏心した位置であって互いに対称となる位置に設けられている。別言すれば、遮断フィルタ部405の中心に対して、それぞれ偏心した位置であって互いに対称となる位置に設けられた2つの開口に、赤外光波長帯を透過させるIRフィルタ部403と可視光波長帯を透過させるRGBフィルタ部404が形成されている。   The structured opening 410 has a filter 402 stretched in a hollow portion of the holding frame 401. The filter 402 includes an IR filter unit 403 that blocks visible light and transmits infrared light out of a subject light beam, an RGB filter unit 404 that transmits visible light and blocks infrared light, and a blocking filter unit 405 that blocks subject light beam. Have As shown in the figure, the IR filter unit 403 and the RGB filter unit 404 are provided at positions that are eccentric with respect to the optical axis passing through the center of the filter 402 and are symmetrical to each other. In other words, the IR filter unit 403 that transmits the infrared light wavelength band to the two openings provided at positions that are eccentric with respect to the center of the cutoff filter unit 405 and that are symmetric with each other, and visible. An RGB filter unit 404 that transmits the light wavelength band is formed.

このように構成された構造化開口410を利用すれば、互いの開口中心に対応する基線長が長くなり、本撮影画像と補助撮影画像の間の視差量が増加する。したがって、距離情報算出部251は、より精確な距離情報を算出することができる。また、IRフィルタ部403とRGBフィルタ部404の開口径を同じ大きさにすれば、本撮影画像と補助撮影画像のぼけ量をほぼ一致させることができるので、距離情報算出部251は、さらに精確な距離情報を算出することができる。   If the structured opening 410 configured as described above is used, the baseline length corresponding to the center of each opening is increased, and the amount of parallax between the main captured image and the auxiliary captured image is increased. Therefore, the distance information calculation unit 251 can calculate more accurate distance information. Further, if the aperture diameters of the IR filter unit 403 and the RGB filter unit 404 are set to the same size, the blur amount of the main captured image and the auxiliary captured image can be substantially matched, so that the distance information calculating unit 251 further accurately Distance information can be calculated.

以上の実施形態においては、一眼レフカメラを例に説明したが、光学ファインダを持たないレンズ交換式カメラ、レンズユニットが一体化されたコンパクトカメラ、動画撮影を行うこともできるビデオカメラといった撮像装置に対しても適用することができる。   In the above embodiments, a single-lens reflex camera has been described as an example. However, in an imaging apparatus such as an interchangeable lens camera that does not have an optical finder, a compact camera in which a lens unit is integrated, and a video camera that can also perform moving image shooting. It can also be applied to.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

101、111 保持枠、102、112 フィルタ、103、113 遮断フィルタ部、104、114 透過フィルタ部、200 一眼レフカメラ、201 光軸、210 レンズユニット、211 レンズ群、212 フォーカスレンズ、213 ズームレンズ、214 絞り、215 アクチュエータ、216 レンズシステム制御部、217 レンズ鏡筒、218 レンズマウント、219 装着スリット、220 挿抜ガイド、221 レンズメモリ、222 構造化開口駆動部、230 カメラユニット、231 カメラマウント、232 メインミラー、233 回転軸、234 ピント板、235 ペンタプリズム、236 接眼光学系、237 AEセンサ、238 サブミラー、239 AF光学系、240 AFセンサ、241 フォーカルプレーンシャッタ、242 光学ローパスフィルタ、243 撮像素子、244 メイン基板、245 カメラシステム制御部、246 画像処理部、247 表示部、248 二次電池、249 フラッシュ、250 パターン投光部、251 距離情報算出部、252 カメラメモリ、253 ワークメモリ、254 外部接続IF、255 レリーズスイッチ、300 構造化開口ユニット、301 保持枠、302 フィルタ、303 赤外遮断フィルタ部、304 透過フィルタ部、305 制限範囲、306 ギア、307 ベース部、308 外周部、309 把持部、310 構造化開口、351 保持枠、352 フィルタ、353 赤外遮断フィルタ部、354 透過フィルタ部、360 構造化開口、401 保持枠、402 フィルタ、403 IRフィルタ部、404 RGBフィルタ部、405 遮断フィルタ部、410 構造化開口、481 対象画素、482、484 局所ウィンドウ、483 探索画素、501 被写体像、502 焦点検出領域、601 B曲線、602 G曲線、603 R曲線、604 IR曲線、611 矢印、643 撮像素子、632 対応領域、633 焦点検出対応領域、800 レンズ交換式カメラ、801 構造化開口、832 ダイクロイックミラー、833 補正レンズ、843 可視光用撮像素子、844 赤外光用撮像素子、901 テーブル、902 壁面、903 ブラインド、910 投光パターン 101, 111 holding frame, 102, 112 filter, 103, 113 blocking filter unit, 104, 114 transmission filter unit, 200 single-lens reflex camera, 201 optical axis, 210 lens unit, 211 lens group, 212 focus lens, 213 zoom lens, 214 Aperture, 215 Actuator, 216 Lens system control unit, 217 Lens barrel, 218 Lens mount, 219 Mounting slit, 220 Insertion / extraction guide, 221 Lens memory, 222 Structured aperture drive unit, 230 Camera unit, 231 Camera mount, 232 Main Mirror, 233 Rotating shaft, 234 Focus plate, 235 Penta prism, 236 Eyepiece optical system, 237 AE sensor, 238 Sub mirror, 239 AF optical system, 240 AF sensor, 241 Four Ruplane shutter, 242 Optical low-pass filter, 243 Image sensor, 244 Main board, 245 Camera system control unit, 246 Image processing unit, 247 Display unit, 248 Secondary battery, 249 Flash, 250 pattern light projecting unit, 251 Distance information calculation , 252 Camera memory, 253 Work memory, 254 External connection IF, 255 Release switch, 300 Structured aperture unit, 301 Holding frame, 302 Filter, 303 Infrared cutoff filter, 304 Transmission filter, 305 Limiting range, 306 Gear 307 Base part 308 Peripheral part 309 Grasping part 310 Structured opening 351 Holding frame 352 Filter 353 Infrared blocking filter part 354 Transmission filter part 360 Structured opening 401 Holding frame 402 filter 403 IR filter unit, 404 RGB filter unit, 405 cutoff filter unit, 410 structured aperture, 481 target pixel, 482, 484 local window, 483 search pixel, 501 subject image, 502 focus detection region, 601 B curve, 602 G curve , 603 R curve, 604 IR curve, 611 arrow, 643 imaging device, 632 compatible area, 633 focus detection compatible area, 800 lens interchangeable camera, 801 structured aperture, 832 dichroic mirror, 833 correction lens, 843 imaging for visible light Element, 844 Infrared light imaging device, 901 table, 902 wall surface, 903 blind, 910 light projection pattern

Claims (5)

光学系に配設され、被写体光束の少なくとも一部の波長帯に振幅変調を与える構造化開口と、
被写体に対してパターン光を投光するパターン投光部と、
前記パターン光を投影された前記被写体からの前記被写体光束を、前記構造化開口を介して受光する撮像素子と
を備える撮像装置。
A structured aperture disposed in the optical system for applying amplitude modulation to at least a portion of the wavelength band of the subject luminous flux;
A pattern projector for projecting pattern light onto the subject;
An imaging device comprising: an imaging element that receives the subject light flux from the subject onto which the pattern light has been projected through the structured aperture.
前記構造化開口が前記振幅変調を与える波長帯および前記パターン光の波長帯は、前記撮像素子のうち、前記被写体の距離情報を算出するための補助撮影画像を生成する画素の受光波長帯を含む請求項1に記載の撮像装置。   The wavelength band in which the structured aperture gives the amplitude modulation and the wavelength band of the pattern light include a light receiving wavelength band of a pixel that generates an auxiliary captured image for calculating distance information of the subject in the imaging element. The imaging device according to claim 1. 前記構造化開口が前記振幅変調を与える波長帯および前記パターン光の波長帯は、赤外波長帯である請求項2に記載の撮像装置。   The imaging device according to claim 2, wherein a wavelength band in which the structured aperture gives the amplitude modulation and a wavelength band of the pattern light are an infrared wavelength band. 前記補助撮影画像と同時に被写体画像としての本撮影画像を取得する請求項2または3に記載の撮像装置。   The imaging apparatus according to claim 2, wherein a main captured image as a subject image is acquired simultaneously with the auxiliary captured image. 前記構造化開口は、前記光学系の光軸に対して偏心した位置に設けられた開口を有し、
前記パターン光は、前記開口が第1位置にあるときと第2位置にあるときのそれぞれの中心を結ぶ線分に直交する方向にコントラストを有する請求項1から4のいずれか1項に記載の撮像装置。
The structured opening has an opening provided at a position eccentric to the optical axis of the optical system,
5. The pattern light according to claim 1, wherein the pattern light has a contrast in a direction orthogonal to a line segment that connects the centers when the opening is at the first position and the second position. 6. Imaging device.
JP2011130327A 2010-06-14 2011-06-10 Imaging device Withdrawn JP2012022309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011130327A JP2012022309A (en) 2010-06-14 2011-06-10 Imaging device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010135069 2010-06-14
JP2010135069 2010-06-14
JP2011130327A JP2012022309A (en) 2010-06-14 2011-06-10 Imaging device

Publications (1)

Publication Number Publication Date
JP2012022309A true JP2012022309A (en) 2012-02-02

Family

ID=45776599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011130327A Withdrawn JP2012022309A (en) 2010-06-14 2011-06-10 Imaging device

Country Status (1)

Country Link
JP (1) JP2012022309A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013093754A (en) * 2011-10-26 2013-05-16 Olympus Corp Imaging apparatus
US9784577B2 (en) 2012-03-16 2017-10-10 Lg Innotek Co., Ltd. Measuring distance from object by using size of pattern projected onto object
US11184522B2 (en) 2017-03-13 2021-11-23 Lumileds Llc Imaging device with an improved autofocusing performance

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013093754A (en) * 2011-10-26 2013-05-16 Olympus Corp Imaging apparatus
US9344614B2 (en) 2011-10-26 2016-05-17 Olympus Corporation Imaging apparatus
US9784577B2 (en) 2012-03-16 2017-10-10 Lg Innotek Co., Ltd. Measuring distance from object by using size of pattern projected onto object
US11184522B2 (en) 2017-03-13 2021-11-23 Lumileds Llc Imaging device with an improved autofocusing performance
US11895400B2 (en) 2017-03-13 2024-02-06 Lumileds Llc Imaging device with an improved autofocusing performance

Similar Documents

Publication Publication Date Title
JP2012022308A (en) Imaging device
JP6341736B2 (en) Imaging apparatus, control method, program, storage medium
JP5947601B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP5644468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
JP2009200560A (en) Imaging apparatus, imaging method, and program
JP5263310B2 (en) Image generation apparatus, imaging apparatus, and image generation method
JP5896763B2 (en) Optical instrument and method for autofocusing
JP6175748B2 (en) Imaging device
US9591203B2 (en) Image processing apparatus, image processing method, recording medium, and image pickup apparatus
JP2019208170A (en) Image processing apparatus, image processing method, program, and storage medium
JP2011119874A (en) Camera unit, and lens unit
WO2019181622A1 (en) Distance measurement camera
JP6529387B2 (en) Imaging device, control method therefor, program, storage medium
WO2013035427A1 (en) Stereoscopic image capture device and method
JP2010177860A (en) Image composition apparatus, imaging apparatus, and image composition method
JP2012022309A (en) Imaging device
JP5510094B2 (en) Image processing apparatus and image processing program
JP2012088169A (en) Distance information acquisition device and imaging apparatus
JP7014248B2 (en) Imaging device
JP2012002870A (en) Imaging device, photographic lens, and image processing program
JP2012002859A (en) Imaging device
JP5590850B2 (en) Imaging device and focus control method of imaging device
JP2012107956A (en) Device for acquiring distance information, imaging divice, and structured aperture unit
JP6223502B2 (en) Image processing apparatus, image processing method, program, and storage medium storing the same
JP2015087494A (en) Imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902