JP2013097154A - Distance measurement device, imaging apparatus, and distance measurement method - Google Patents

Distance measurement device, imaging apparatus, and distance measurement method Download PDF

Info

Publication number
JP2013097154A
JP2013097154A JP2011239361A JP2011239361A JP2013097154A JP 2013097154 A JP2013097154 A JP 2013097154A JP 2011239361 A JP2011239361 A JP 2011239361A JP 2011239361 A JP2011239361 A JP 2011239361A JP 2013097154 A JP2013097154 A JP 2013097154A
Authority
JP
Japan
Prior art keywords
phase difference
image
color
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011239361A
Other languages
Japanese (ja)
Inventor
Kengo Enomoto
健悟 榎本
Kazuya Yamanaka
一哉 山中
Takahiro Yano
高宏 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011239361A priority Critical patent/JP2013097154A/en
Publication of JP2013097154A publication Critical patent/JP2013097154A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a measurement distance apparatus and the like which derive highly reliable distance information on the basis of images obtained from an imaging element.SOLUTION: A distance measurement apparatus includes: an imaging optical system 9; a band limiting filter 12 which makes the center of gravity for an amount of light different in three or more bands of light beams passing through a pupil area of the imaging optical system 9; a color imaging element 22; a phase difference autofocus (AF) unit 42 which calculates a distance to a subject on the basis of color images that correspond to multiple bands and are obtained from the imaging element 22; a phase difference suitability determination unit 41 which determines whether or not the color images are suitable for phase difference calculation; and an autofocus (AF) control unit 38 which causes, when three or more color images are determined by the phase difference suitability determination unit 41 as being suitable for the phase difference calculation, the phase difference AF unit 42 to calculate a distance to the subject on the basis of either a correlation value being a combination of selected two suitable color images or a correlation value being all combinations of two suitable color images.

Description

本発明は、撮像素子から得られた画像に基づき距離情報を取得し得る距離測定装置、撮像装置、距離測定方法に関する。   The present invention relates to a distance measuring device, an imaging device, and a distance measuring method that can acquire distance information based on an image obtained from an image sensor.

距離情報は、自動焦点調節(AF:オートフォーカス)機構によるAF処理を行うためや、立体視用画像を作成するため、あるいは画像処理(例えば、被写体抽出処理や背景抽出処理、あるいはボケ量コントロールの画像加工処理)を行うためなど、撮像装置における様々な機能を実現するのに利用可能である。   The distance information is used for AF processing by an automatic focus adjustment (AF) mechanism, for creating a stereoscopic image, or for image processing (for example, subject extraction processing, background extraction processing, or blur amount control). The present invention can be used to realize various functions in the imaging apparatus, such as for performing image processing.

このような距離情報を取得する方法は、従来より種々のものが提案されており、例えば、照明光を照射し被写体からの反射光を受光して測距を行うアクティブ測距方式や、基線長を設けて配置した複数の撮像装置(例えばステレオカメラ)の取得画像から三角測距の原理により測距を行う方式、あるいは撮像装置自体により取得した画像のコントラストが高くなるようにフォーカスレンズを駆動するコントラストAF方式など、様々な方式が提案されている。   Various methods for obtaining such distance information have been proposed. For example, an active distance measurement method in which illumination light is irradiated and reflected light from a subject is received to perform distance measurement, or a baseline length. The focus lens is driven so as to increase the contrast of images acquired by a plurality of image pickup devices (for example, stereo cameras) arranged in accordance with the principle of triangulation, or the image acquired by the image pickup device itself. Various methods such as a contrast AF method have been proposed.

しかし、アクティブ測距方式は測距用投光装置などの測距専用の部材が必要であり、また、三角測距方式では複数の撮像装置が必要であるために、撮像装置が大型化したりコストが上昇したりする要因となる。一方、コントラストAF方式は、撮像装置自体により取得した画像を利用するために、測距専用部材等は不要であるが、フォーカスレンズの位置を変化させながら複数回の撮像を行ってコントラスト値のピークを探す方式であるために、合焦位置に対応するピークを探すのに時間を要し、高速のAFを行うことが困難である。   However, the active distance measurement method requires a dedicated member for distance measurement such as a light projection device for distance measurement, and the triangular distance measurement method requires a plurality of image pickup devices. Will increase. On the other hand, since the contrast AF method uses an image acquired by the imaging apparatus itself, a dedicated distance measuring member or the like is not required. However, the contrast value peak is obtained by performing multiple imaging while changing the position of the focus lens. Therefore, it takes time to search for a peak corresponding to the in-focus position, and it is difficult to perform high-speed AF.

このような背景の下、大型化やコストの上昇を抑えながら距離情報を取得する技術として、レンズの瞳を通過する光束を複数に分割して受光し、レンズ内の一瞳領域を通過した光束から得られた画素信号と、レンズ内の一瞳領域とは異なる他の瞳領域を通過した光束から得られた画素信号と、の間で相関演算を行うことにより、被写体までの距離情報を取得する技術が提案されている。このような瞳分割画像を同時に取得する技術としては、例えば、距離検出用の画素上に遮光板(マスク)を配置する技術がある。   Under such a background, as a technology to acquire distance information while suppressing an increase in size and cost, a light beam that passes through the pupil of the lens is divided into a plurality of light beams, and a light beam that passes through one pupil region in the lens The distance information to the subject is obtained by performing a correlation calculation between the pixel signal obtained from the pixel signal and the pixel signal obtained from the light beam that has passed through another pupil region different from the one pupil region in the lens. Techniques to do this have been proposed. As a technique for simultaneously acquiring such pupil division images, for example, there is a technique for disposing a light shielding plate (mask) on a pixel for distance detection.

また、瞳分割を遮光板(マスク)によることなく行う技術として、例えば特開2001−174696号公報には、部分瞳毎に異なる分光特性を持たせた瞳色分割用フィルタ(例えば、RG透過フィルタおよびGB透過フィルタ)を撮影光学系に介在させ、撮影光学系からの被写体像をカラー撮像素子により受光することで、色による瞳分割を行う技術が記載されている。すなわち、カラー撮像素子から出力される画像信号を色分離して、各色画像(上記例では、例えばR画像とB画像)上の同一被写体間の相対的なズレ量を検知することにより、合焦位置から近距離側にずれているのか遠距離側にずれているのかのフォーカシングズレ方向と、その方向への合焦位置からのズレ量であるフォーカシングズレ量と、の2つのフォーカシング情報が取得される。   As a technique for performing pupil division without using a light shielding plate (mask), for example, Japanese Patent Laid-Open No. 2001-174696 discloses a pupil color division filter (for example, an RG transmission filter) having different spectral characteristics for each partial pupil. And a GB transmission filter) are interposed in the photographic optical system, and a subject image from the photographic optical system is received by a color image pickup device, thereby dividing the pupil by color. That is, the image signal output from the color image sensor is color-separated, and the relative shift amount between the same subjects on each color image (for example, R image and B image in the above example) is detected, thereby focusing. Two pieces of focusing information are acquired: the focusing shift direction indicating whether the position is shifted to the near distance side or the far distance side, and the focusing shift amount which is a shift amount from the in-focus position in that direction. The

さらに、レンズの色収差を利用してレンズの移動方向を決定する技術が開示されている。例えば、特開平10−200904号公報の従来の技術欄には、RGB各色成分が均等な被写体の場合、レンズ位置が合焦位置よりも至近側であればR色の高周波成分が最も高くなり、レンズ位置が合焦位置よりも無限遠側であればB色の高周波成分が最も高くなることを利用して、各色の高周波成分を比較した結果に基づき、レンズ位置が合焦位置よりも至近側であるか無限遠側であるかを判定してレンズの駆動方向を決定することにより、逆方向への駆動を排除して合焦速度の高速化を図る技術が記載されている。   Furthermore, a technique for determining the moving direction of the lens using the chromatic aberration of the lens is disclosed. For example, in the conventional technique column of Japanese Patent Laid-Open No. 10-200904, in the case where the RGB color components are equal subjects, the high-frequency component of the R color is the highest if the lens position is closer to the in-focus position, Based on the result of comparing the high-frequency components of each color using the fact that the high-frequency component of B color is the highest if the lens position is at infinity from the focus position, the lens position is closer to the focus position A technique is described in which the lens driving direction is determined by determining whether the lens is on the infinity side or not, thereby eliminating the driving in the reverse direction and increasing the focusing speed.

特開2001−174696号公報JP 2001-174696 A 特開平10−200904号公報JP-A-10-200904

しかしながら、上記特開2001−174696号公報に記載の技術では、被写体の位相差演算領域内に、例えばR,G成分しか存在しないとき(B成分がほぼ0であるとき)には、B成分の画素値を取得することができないために、R成分とB成分との間の位相差演算を行うことができない。   However, in the technique described in Japanese Patent Laid-Open No. 2001-174696, for example, when only the R and G components exist in the phase difference calculation area of the subject (when the B component is almost 0), the B component Since the pixel value cannot be acquired, the phase difference calculation between the R component and the B component cannot be performed.

また、上記特開平10−200904号公報に記載の技術では、RGB各色成分が均等でない被写体の場合には駆動方向を正確に推定することができない。さらに、レンズ交換式の撮像装置においては、装着されるレンズによっては色収差が小さいレンズもあるために、この場合には高周波成分の差が生じ難くなり、距離情報を正確に取得することが困難となる。   Also, with the technique described in Japanese Patent Laid-Open No. 10-200904, the driving direction cannot be accurately estimated in the case of a subject in which the RGB color components are not uniform. Furthermore, in an interchangeable lens imaging device, there are lenses with small chromatic aberration depending on the lens to be mounted, and in this case, a difference in high-frequency components hardly occurs, and it is difficult to obtain distance information accurately. Become.

本発明は上記事情に鑑みてなされたものであり、撮像素子から得られた画像に基づいて、より信頼性の高い距離情報を取得することができる距離測定装置、撮像装置、距離測定方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and provides a distance measuring device, an imaging device, and a distance measuring method capable of acquiring more reliable distance information based on an image obtained from an imaging element. The purpose is to do.

上記の目的を達成するために、本発明の一態様による距離測定装置は、3つ以上の波長帯域の光をそれぞれ受光して光電変換し、該波長帯域毎の色画像を生成する撮像素子と、前記波長帯域の光を、前記撮像素子に被写体像として結像する撮像光学系と、前記撮像光学系の瞳領域をそれぞれ通過する際の光量の重心位置を、3つ以上に異ならせる帯域制限フィルタと、前記撮像素子から得られた複数の前記色画像の、前記重心位置の相違に起因する位相差量に基づき被写体までの距離を演算する位相差演算部と、前記撮像素子から得られた前記色画像が、前記位相差演算部が演算に用いる色画像として適しているか否かを判定する位相差適合判定部と、前記位相差適合判定部により適していると判定された色画像の数が3つ以上である場合に、前記位相差演算部に、該3つ以上の色画像の中から選択した2つの色画像の組み合わせの相関値、または該3つ以上の色画像のうち、2つの色画像の全ての組み合わせの相関値に基づき、前記被写体までの距離を演算させる位相差演算制御部と、を具備する。   In order to achieve the above object, a distance measuring device according to an aspect of the present invention includes an imaging device that receives light in three or more wavelength bands, performs photoelectric conversion, and generates a color image for each wavelength band. A band limit that varies the center of gravity of the amount of light when passing through the pupil region of the imaging optical system and the imaging optical system that forms light of the wavelength band as a subject image on the imaging device. A filter, a phase difference calculation unit that calculates a distance to a subject based on a phase difference amount caused by a difference in the position of the center of gravity of the plurality of color images obtained from the image sensor, and obtained from the image sensor A phase difference suitability determining unit that determines whether or not the color image is suitable as a color image used by the phase difference computing unit for calculation, and the number of color images determined to be suitable by the phase difference suitability determining unit When there are 3 or more In the phase difference calculation unit, a correlation value of a combination of two color images selected from the three or more color images, or a correlation of all combinations of two color images among the three or more color images And a phase difference calculation control unit that calculates a distance to the subject based on the value.

また、本発明の他の態様による撮像装置は、上記一態様による距離測定装置を具備する。   An imaging device according to another aspect of the present invention includes the distance measuring device according to the above aspect.

本発明のさらに他の態様による距離測定方法は、光を、瞳領域を通過する際の光量の重心位置を3つ以上に異ならせて3つ以上の波長帯域の光に分割し、分割された前記波長帯域毎の光を被写体像として結像し、前記波長帯域毎の光をそれぞれ受光して光電変換し、該波長帯域毎の色画像を生成し、前記色画像が位相差演算に用いる色画像として適しているか否かを判定し、前記位相差演算に適していると判定された前記色画像の数が3つ以上である場合に、該3つ以上の色画像の中から選択した2つの色画像の組み合わせの相関値、または該3つ以上の色画像のうち、2つの色画像の全ての組み合わせの相関値に基づき、被写体までの距離を演算する、方法である。   In the distance measuring method according to still another aspect of the present invention, the light is divided into light of three or more wavelength bands by changing the center of gravity of the amount of light when passing through the pupil region to three or more. The light for each wavelength band is formed as a subject image, the light for each wavelength band is received and photoelectrically converted to generate a color image for each wavelength band, and the color image is used for phase difference calculation 2 is selected from the three or more color images when it is determined whether the image is suitable and the number of the color images determined to be suitable for the phase difference calculation is three or more. In this method, the distance to the subject is calculated based on the correlation value of a combination of two color images or the correlation value of all combinations of two color images among the three or more color images.

本発明の距離測定装置、撮像装置、距離測定方法によれば、撮像素子から得られた画像に基づいて、より信頼性の高い距離情報を取得することが可能となる。   According to the distance measuring device, the imaging device, and the distance measuring method of the present invention, it is possible to acquire more reliable distance information based on the image obtained from the imaging element.

本発明の実施形態1における撮像装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus according to Embodiment 1 of the present invention. 上記実施形態1における位相差AF部の構成を示すブロック図。FIG. 3 is a block diagram showing a configuration of a phase difference AF unit in the first embodiment. 上記実施形態1における撮像素子の画素配列を説明するための図。FIG. 3 is a diagram for explaining a pixel array of the image sensor in the first embodiment. 上記実施形態1における帯域制限フィルタの一構成例を説明するための図。The figure for demonstrating one structural example of the band-limiting filter in the said Embodiment 1. FIG. 上記実施形態1において、レンズの瞳領域を通過する際のRGB各色の重心位置を示す図。FIG. 3 is a diagram illustrating the barycentric positions of RGB colors when passing through a pupil region of a lens in the first embodiment. 上記実施形態1において、合焦位置にある被写体を撮像するときの被写体光束集光の様子を示す平面図。In the said Embodiment 1, the top view which shows the mode of a subject light beam condensing when imaging the to-be-photographed object in a focus position. 上記実施形態1において、合焦位置よりも近距離側にある被写体を撮像するときの被写体光束集光の様子を示す平面図。FIG. 3 is a plan view showing a state of subject light flux condensing when an image of a subject closer to the in-focus position is imaged in the first embodiment. 上記実施形態1において、合焦位置よりも近距離側にある被写体上の1点からの光により形成されるボケの形状を示す図。FIG. 3 is a diagram illustrating a blur shape formed by light from one point on a subject that is closer to the in-focus side than the in-focus position in the first embodiment. 上記実施形態1において、合焦位置よりも近距離側にある被写体上の1点からの光により形成されるボケの形状を色成分毎に示す図。In the said Embodiment 1, the figure which shows the shape of the blur formed with the light from one point on the to-be-photographed object in the short distance side from a focus position for every color component. 上記実施形態1において、合焦位置よりも遠距離側にある被写体を撮像するときの被写体光束集光の様子を示す平面図。In the said Embodiment 1, the top view which shows the mode of a subject light beam condensing when imaging the to-be-photographed object from the in-focus position. 上記実施形態1において、合焦位置よりも遠距離側にある被写体上の1点からの光により形成されるボケの形状を示す図。FIG. 4 is a diagram showing a blur shape formed by light from one point on a subject that is farther than the in-focus position in the first embodiment. 上記実施形態1において、合焦位置よりも遠距離側にある被写体上の1点からの光により形成されるボケの形状を色成分毎に示す図。In the said Embodiment 1, the figure which shows the shape of the blur formed with the light from one point on the to-be-photographed object on the far side from the focus position for every color component. 上記実施形態1において、2つの画像の相対位置をずらしながらSAD方式により演算を行って得られる相関値グラフの例を示す線図。In the said Embodiment 1, the diagram which shows the example of the correlation value graph obtained by calculating by a SAD system, shifting the relative position of two images. 上記実施形態1において、2つの画像の相対位置をずらしながらZNCC方式により演算を行って得られる相関値グラフの例を示す線図。FIG. 3 is a diagram showing an example of a correlation value graph obtained by performing calculation according to the ZNCC method while shifting the relative positions of two images in the first embodiment. 上記実施形態1の撮像装置における測距の処理を示すフローチャート。5 is a flowchart showing ranging processing in the imaging apparatus according to the first embodiment. 上記実施形態1において、図15のステップS3の位相差検出エリアの各色の適合判定の処理の第1の例を示すフローチャート。FIG. 16 is a flowchart showing a first example of processing for determining compatibility of each color in the phase difference detection area in step S3 of FIG. 15 in the first embodiment. 上記実施形態1において、図15のステップS3の位相差検出エリアの各色の適合判定の処理の第2の例を示すフローチャート。In the said Embodiment 1, the flowchart which shows the 2nd example of the process of a compatibility determination of each color of the phase difference detection area of step S3 of FIG. 上記実施形態1において、図15のステップS3の位相差検出エリアの各色の適合判定の処理の第3の例を示すフローチャート。In the said Embodiment 1, the flowchart which shows the 3rd example of the process of the compatibility determination of each color of the phase difference detection area of step S3 of FIG. 上記実施形態1において、図15のステップS3の位相差検出エリアの各色の適合判定の処理の第4の例を示すフローチャート。In the said Embodiment 1, the flowchart which shows the 4th example of the process of the compatibility determination of each color of the phase difference detection area of step S3 of FIG. 上記実施形態1において、図15のステップS5の適合色の組選択の処理の第1の例を示すフローチャート。FIG. 16 is a flowchart showing a first example of an adaptive color set selection process in step S5 of FIG. 15 in the first embodiment. FIG. 上記実施形態1において、図15のステップS5の適合色の組選択の処理の第2の例を示すフローチャート。FIG. 16 is a flowchart showing a second example of matching color set selection processing in step S5 of FIG. 15 in the first embodiment. FIG. 本発明の実施形態2の撮像装置における測距の処理を示すフローチャート。9 is a flowchart illustrating distance measurement processing in the imaging apparatus according to the second embodiment of the present invention. 上記実施形態2における位相差AF部の構成を示すブロック図。FIG. 4 is a block diagram showing a configuration of a phase difference AF unit in the second embodiment. 本発明の実施形態3の撮像装置における測距の処理を示すフローチャート。10 is a flowchart illustrating ranging processing in the imaging apparatus according to the third embodiment of the present invention. 上記実施形態3において、R画像とB画像の相関値グラフの例を示す図。In the said Embodiment 3, the figure which shows the example of the correlation value graph of R image and B image. 上記実施形態3において、R画像とG画像の相関値グラフの例を示す図。In the said Embodiment 3, the figure which shows the example of the correlation value graph of R image and G image. 上記実施形態3において、G画像とB画像の相関値グラフの例を示す図。In the said Embodiment 3, the figure which shows the example of the correlation value graph of G image and B image. 上記実施形態3において、水平軸をR画像とB画像の相関値グラフに合わせてリスケーリングしたR画像とG画像の補正相関値グラフの例を示す図。In the said Embodiment 3, the figure which shows the example of the correction | amendment correlation value graph of R image and G image which rescaled according to the correlation value graph of R image and B image for the horizontal axis. 上記実施形態3において、水平軸をR画像とB画像の相関値グラフに合わせてリスケーリングしたG画像とB画像の補正相関値グラフの例を示す図。The figure which shows the example of the correction | amendment correlation value graph of G image and B image which rescaled according to the correlation value graph of R image and B image in the said Embodiment 3. 上記実施形態3において、R画像とB画像の相関値グラフと、R画像とG画像の補正相関値グラフと、G画像とB画像の補正相関値グラフと、を加算して得られる加算相関値グラフの例を示す図。In the third embodiment, the correlation value graph obtained by adding the correlation value graph between the R image and the B image, the correction correlation value graph between the R image and the G image, and the correction correlation value graph between the G image and the B image. The figure which shows the example of a graph.

以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]

図1から図21は本発明の実施形態1を示したものであり、図1は撮像装置の構成を示すブロック図である。   FIG. 1 to FIG. 21 show Embodiment 1 of the present invention, and FIG. 1 is a block diagram showing the configuration of the imaging apparatus.

本実施形態の距離測定装置を備えた撮像装置は、例えばデジタルスチルカメラとして構成されている。ただし、ここではデジタルスチルカメラを例に挙げているが、撮像装置は、カラー撮像素子を備え撮像機能を有する装置であればどのようなものでも良く、幾つかの例を挙げれば、上述したデジタルスチルカメラ、ビデオカメラ、カメラ付携帯電話、カメラ付携帯情報端末(カメラ付PDA)、カメラ付パーソナルコンピュータ、監視カメラ、内視鏡、デジタル顕微鏡(デジタルマイクロスコープ)、測距機能付き双眼鏡などである。   An imaging device including the distance measuring device according to the present embodiment is configured as a digital still camera, for example. However, here, a digital still camera is taken as an example, but the imaging device may be any device as long as it has a color imaging element and has an imaging function. Still cameras, video cameras, mobile phones with cameras, personal digital assistants with cameras (PDAs with cameras), personal computers with cameras, surveillance cameras, endoscopes, digital microscopes (digital microscopes), binoculars with ranging functions, etc. .

撮像装置は、レンズユニット1と、このレンズユニット1がレンズマウントを介して着脱自在に取り付けられる本体部であるボディユニット2と、を備えている。なお、ここではレンズユニット1が着脱式である場合を例に挙げて説明するが、勿論、着脱式でなくても構わない。   The imaging apparatus includes a lens unit 1 and a body unit 2 that is a main body portion to which the lens unit 1 is detachably attached via a lens mount. Here, a case where the lens unit 1 is detachable will be described as an example, but of course, it may not be detachable.

レンズユニット1は、レンズ10と絞り11とを含む撮像光学系9と、帯域制限フィルタ12と、レンズ制御部14と、レンズ側通信コネクタ15と、を備えている。   The lens unit 1 includes an imaging optical system 9 including a lens 10 and a diaphragm 11, a band limiting filter 12, a lens control unit 14, and a lens side communication connector 15.

ボディユニット2は、シャッタ21と、撮像素子22と、撮像回路23と、撮像駆動部24と、画像処理部25と、画像メモリ26と、表示部27と、インターフェース(IF)28と、システムコントローラ30と、センサ部31と、操作部32と、ストロボ制御回路33と、ストロボ34と、ボディ側通信コネクタ35と、を備えている。なお、図1のボディユニット2内には記録媒体29も記載されているが、この記録媒体29は撮像装置に対して着脱自在な例えばメモリカード(スマートメディア、SDカード、xDピクチャーカード等)で構成されているために、撮像装置に固有の構成でなくても構わない。   The body unit 2 includes a shutter 21, an imaging element 22, an imaging circuit 23, an imaging drive unit 24, an image processing unit 25, an image memory 26, a display unit 27, an interface (IF) 28, and a system controller. 30, a sensor unit 31, an operation unit 32, a strobe control circuit 33, a strobe 34, and a body side communication connector 35. In addition, although the recording medium 29 is also described in the body unit 2 of FIG. 1, this recording medium 29 is a memory card (smart media, SD card, xD picture card, etc.) which is detachable with respect to the imaging device. Since it is configured, the configuration may not be unique to the imaging apparatus.

まず、レンズユニット1における撮像光学系9は、被写体像を撮像素子22に結像するためのものである。この撮像光学系9のレンズ10は、焦点調節を行うためのフォーカスレンズを備えて構成されている。レンズ10は、一般的には複数枚のレンズで構成されることが多いが、図1においては簡単のために1枚のレンズのみを図示している。   First, the imaging optical system 9 in the lens unit 1 is for forming a subject image on the imaging element 22. The lens 10 of the imaging optical system 9 includes a focus lens for performing focus adjustment. Although the lens 10 is generally composed of a plurality of lenses in general, only one lens is shown in FIG. 1 for simplicity.

撮像光学系9の絞り11は、レンズ10を通過する被写体光束の通過範囲を規制することにより、撮像素子22上に結像される被写体像の明るさを調節するためのものである。この絞り11の絞り開口径を変更すると、撮像光学系9の瞳領域も変更される。   The diaphragm 11 of the imaging optical system 9 is for adjusting the brightness of the subject image formed on the imaging element 22 by regulating the passage range of the subject light flux passing through the lens 10. When the aperture diameter of the aperture 11 is changed, the pupil region of the imaging optical system 9 is also changed.

帯域制限フィルタ12は、撮像光学系9を経て撮像素子22に至る撮影光束の光路上(望ましくは、撮像光学系9の絞り11の位置またはその近傍)に配設されており、3つ以上の帯域の光が撮像光学系9の瞳領域をそれぞれ通過する際の光量の重心位置を、3つ以上に異ならせるものである。本実施形態における帯域制限フィルタ12は、撮像光学系9の瞳領域の一部である第1の領域を通過しようとする撮影光束中の第1の帯域(ここに、帯域は波長帯域を示す。以下同様。)の光を遮断し第2の帯域および第3の帯域の光を通過させる第1の帯域制限と、撮像光学系9の瞳領域の他の一部である第2の領域を通過しようとする撮影光束中の第2の帯域の光を遮断し第1の帯域および第3の帯域の光を通過させる第2の帯域制限と、を行うフィルタとなっている。   The band limiting filter 12 is disposed on the optical path of the photographing light beam that passes through the image pickup optical system 9 and reaches the image pickup device 22 (preferably at or near the position of the stop 11 of the image pickup optical system 9). The barycentric position of the amount of light when the light in the band passes through the pupil region of the imaging optical system 9 is changed to three or more. The band limiting filter 12 in this embodiment is a first band (here, the band indicates a wavelength band) in the photographic light flux that attempts to pass through a first area that is a part of the pupil area of the imaging optical system 9. The same applies hereinafter.) The first band limitation that blocks the light of the second band and the third band and blocks the light of the second band and the third band, and the second band that is another part of the pupil area of the imaging optical system 9 This is a filter that performs second band limitation that blocks light in the second band in the imaging light flux to be attempted and passes light in the first band and the third band.

図4は帯域制限フィルタ12の一構成例を説明するための図である。この図4に示す構成例の帯域制限フィルタ12は、撮像光学系9の瞳領域が、第1の領域と第2の領域とに2分されたものとなっている。すなわち、帯域制限フィルタ12は、撮像装置を標準姿勢(いわゆる、カメラを通常の横位置に構えた姿勢)として撮像素子22から見たときに、左半分がG(緑)成分およびR(赤)成分を通過させB(青)成分を遮断する(すなわち、B(青)成分は第1の帯域と第2の帯域との内の一方の帯域である)RGフィルタ12r、右半分がG成分およびB成分を通過させR成分を遮断する(すなわち、R成分は第1の帯域と第2の帯域との内の他方の帯域である)GBフィルタ12bになっている。従って、帯域制限フィルタ12は、撮像光学系9の絞り11の開口を通過する光に含まれるG成分を全領域において通過させ(すなわち、G成分は第3の帯域である)、R成分を開口の半分の領域だけ通過させ、B成分を開口の残り半分の領域だけ通過させる。   FIG. 4 is a diagram for explaining a configuration example of the band limiting filter 12. In the band limiting filter 12 of the configuration example shown in FIG. 4, the pupil region of the imaging optical system 9 is divided into a first region and a second region. In other words, the band limiting filter 12 has a left half of the G (green) component and R (red) when the image pickup device is viewed from the image pickup device 22 in a standard posture (so-called posture in which the camera is held in a normal horizontal position). RG filter 12r that passes the component and blocks the B (blue) component (that is, the B (blue) component is one of the first band and the second band), the right half is the G component and The GB filter 12b is configured to pass the B component and block the R component (that is, the R component is the other of the first band and the second band). Therefore, the band limiting filter 12 allows the G component included in the light passing through the aperture 11 of the imaging optical system 9 to pass through the entire region (that is, the G component is the third band), and the R component is opened. Only the half area of the aperture is allowed to pass, and the B component is allowed to pass only for the remaining half of the aperture.

このように帯域制限フィルタ12は、例えば通過させる光の帯域(色)によって撮像光学系9の瞳領域における通過領域を制限することにより、帯域制限フィルタ12により分割された各帯域の光が撮像光学系9の瞳領域を通過する際の光量の重心位置(色瞳重心位置)を、帯域(色)毎に異ならせるものである。   As described above, the band limiting filter 12 limits the pass region in the pupil region of the imaging optical system 9 by, for example, the band (color) of the light to be transmitted, so that the light of each band divided by the band limiting filter 12 can be imaged optically. The barycentric position (color pupil barycentric position) of the amount of light when passing through the pupil region of the system 9 is made different for each band (color).

図5は、レンズ10の瞳領域を通過する際のRGB各色の重心位置を示す図である。   FIG. 5 is a diagram illustrating the barycentric positions of the RGB colors when passing through the pupil region of the lens 10.

Gが瞳領域を通過する際の光量の重心位置Pgは、レンズ10の瞳領域の中央であり、撮像光学系9の光軸中心に一致する。また、Rが瞳領域を通過する際の光量の重心位置Prは、撮像光学系9の光軸中心から偏心して図5の左側にずれた位置となっている。さらに、Bが瞳領域を通過する際の光量の重心位置Pbは、撮像光学系9の光軸中心から偏心して図5の右側にずれた位置となっている。このような位置関係において、Rの重心位置PrとBの重心位置Pbとの重心距離はDrb、Rの重心位置PrとGの重心位置Pgとの重心距離はDrg、Gの重心位置PgとBの重心位置Pbとの重心距離はDgbである。このとき、重心距離Drbは、重心距離Drgおよび重心距離Dgbの、例えば2倍となる(ただし、これは図4に示すような帯域制限フィルタ12の場合であり、フィルタ構成が異なれば、その構成に応じて異なる値となる)。   The center of gravity Pg of the light amount when G passes through the pupil region is the center of the pupil region of the lens 10 and coincides with the optical axis center of the imaging optical system 9. Further, the gravity center position Pr of the light amount when R passes through the pupil region is a position deviated from the center of the optical axis of the imaging optical system 9 and shifted to the left side in FIG. Furthermore, the barycentric position Pb of the amount of light when B passes through the pupil region is a position decentered from the center of the optical axis of the imaging optical system 9 and shifted to the right in FIG. In this positional relationship, the centroid distance between the R centroid position Pr and the B centroid position Pb is Drb, the centroid distance between the R centroid position Pr and the G centroid position Pg is Drg, and the G centroid positions Pg and B. The center-of-gravity distance from the center-of-gravity position Pb is Dgb. At this time, the center-of-gravity distance Drb is, for example, twice the center-of-gravity distance Drg and the center-of-gravity distance Dgb (however, this is the case of the band limiting filter 12 as shown in FIG. Depending on the value).

なお、帯域制限フィルタ12のRGB各分光透過特性が、撮像素子22に例えばオンチップで構成されている素子フィルタ(図3参照)のRGB各分光透過特性と異なると、RGフィルタ12rとGBフィルタ12bの空間位置の相違に基づいて得られる画像から後述するように取得する位置情報の精度が低下したり、分光特性のミスマッチによる光量ロスが発生したりすることになる。従って、帯域制限フィルタ12の分光透過特性は、撮像素子22の素子フィルタの分光透過特性と、同一または可能な限り近似していることが望ましい。   If the RGB spectral transmission characteristics of the band limiting filter 12 are different from the RGB spectral transmission characteristics of an element filter (see FIG. 3) configured on the imaging device 22, for example, the RG filter 12r and the GB filter 12b. As described later, the accuracy of the position information acquired from the images obtained based on the difference in the spatial position decreases, or a light amount loss due to spectral characteristic mismatch occurs. Therefore, it is desirable that the spectral transmission characteristic of the band limiting filter 12 is the same as or as close as possible to the spectral transmission characteristic of the element filter of the image sensor 22.

レンズ制御部14は、レンズユニット1の制御を行うものである。すなわち、レンズ制御部14は、レンズ側通信コネクタ15およびボディ側通信コネクタ35を介してシステムコントローラ30から受信した指令に基づき、絞り11を駆動して絞り開口径を変更し、レンズ10を駆動して合焦させる制御を行う。   The lens control unit 14 controls the lens unit 1. That is, the lens control unit 14 drives the aperture 11 to change the aperture diameter and drive the lens 10 based on a command received from the system controller 30 via the lens side communication connector 15 and the body side communication connector 35. Control to focus.

レンズ側通信コネクタ15は、レンズユニット1とボディユニット2とがレンズマウントにより結合されてボディ側通信コネクタ35と接続されることにより、レンズ制御部14とシステムコントローラ30との間の通信を可能にするコネクタである。   The lens-side communication connector 15 enables communication between the lens control unit 14 and the system controller 30 by connecting the lens unit 1 and the body unit 2 with a lens mount and connecting to the body-side communication connector 35. Connector.

次に、ボディユニット2におけるシャッタ21は、レンズ10から撮像素子22に到達する被写体光束の通過時間を規制することにより、撮像素子22の露光時間を調節するための光学シャッタである。なお、ここでは光学シャッタを用いているが、光学シャッタに代えて、または光学シャッタに加えて、撮像素子22による素子シャッタ(電子シャッタ)を用いるようにしても構わない。   Next, the shutter 21 in the body unit 2 is an optical shutter for adjusting the exposure time of the image sensor 22 by regulating the passage time of the subject light beam reaching the image sensor 22 from the lens 10. Although an optical shutter is used here, an element shutter (electronic shutter) by the image sensor 22 may be used instead of or in addition to the optical shutter.

撮像素子22は、帯域制限フィルタ12を介して撮像光学系9により結像される3つ以上の波長帯域の光(例えば、RGBが挙げられるが、これに限るものではない)に係る被写体像をそれぞれ受光して光電変換し、帯域毎の画像(以下では適宜、色画像という)を生成するカラーの撮像素子であり、例えば、CCDやCMOS等として構成されている。ここに、カラー撮像素子の構成としては、オンチップの素子カラーフィルタを備えた単板の撮像素子でも良いし、RGB各色光への色分解を行うダイクロイックプリズムを用いた3板式であっても良いし、同一の画素位置で半導体の深さ方向位置に応じてRGBの撮像情報を取得可能な方式の撮像素子であっても良いし、複数の波長帯光の撮像情報を取得可能であればどのようなものでも構わない。   The image sensor 22 captures a subject image related to light in three or more wavelength bands (for example, RGB, but is not limited thereto) formed by the imaging optical system 9 through the band limiting filter 12. Each is a color image pickup device that receives light and performs photoelectric conversion to generate an image for each band (hereinafter, referred to as a color image as appropriate), and is configured as, for example, a CCD or a CMOS. Here, the configuration of the color image sensor may be a single-plate image sensor provided with an on-chip element color filter, or a three-plate system using a dichroic prism that performs color separation into RGB color lights. However, it may be an image sensor of a method capable of acquiring RGB imaging information according to the position in the depth direction of the semiconductor at the same pixel position, or any imaging element that can acquire imaging information of a plurality of wavelength bands. It does n’t matter.

例えば、図3を参照して、一般的なデジタルスチルカメラに用いられることが多い単板のカラー撮像素子の構成例を説明する。ここに、図3は撮像素子22の画素配列を説明するための図である。本実施形態においては、オンチップで搭載される素子カラーフィルタが透過する複数の波長帯光はR、G、およびBとなっており、この図3に示すように、原色ベイヤー配列の単板カラー撮像素子が構成されている。従って、撮像素子22がこの図3に示したような構成である場合には、1画素に付き1色の色成分のみが得られることになるために、画像処理部25においてデモザイキング処理を行い1画素につきRGBの3色が揃ったカラー画像を生成するようになっている。   For example, with reference to FIG. 3, a configuration example of a single-plate color image sensor often used in a general digital still camera will be described. FIG. 3 is a diagram for explaining the pixel arrangement of the image sensor 22. In the present embodiment, the plurality of wavelength band lights transmitted by the element color filter mounted on-chip are R, G, and B. As shown in FIG. An image sensor is configured. Therefore, when the image pickup device 22 has the configuration as shown in FIG. 3, only one color component is obtained per pixel, so that the image processing unit 25 performs a demosaicing process. A color image in which three colors of RGB are aligned per pixel is generated.

撮像回路23は、撮像素子22から出力される画像信号を増幅(ゲイン調整)したり、また、撮像素子22がアナログ撮像素子であってアナログの画像信号を出力する場合には、A/D変換してデジタル画像信号(以下では「画像情報」ともいう)を生成するものである(撮像素子22がデジタル撮像素子である場合には、撮像回路23に入力される時点で既にデジタルとなっているためにA/D変換は行わない)。撮像回路23は、撮像駆動部24で切り換えられた撮像モードに対応するフォーマットで、画像信号を画像処理部25へ出力する。   The image pickup circuit 23 amplifies (gain adjusts) the image signal output from the image pickup device 22, or performs A / D conversion when the image pickup device 22 is an analog image pickup device and outputs an analog image signal. Thus, a digital image signal (hereinafter also referred to as “image information”) is generated (when the image pickup device 22 is a digital image pickup device, it is already digital when it is input to the image pickup circuit 23). Therefore, A / D conversion is not performed). The imaging circuit 23 outputs an image signal to the image processing unit 25 in a format corresponding to the imaging mode switched by the imaging driving unit 24.

撮像駆動部24は、システムコントローラ30の指令に基づいて、撮像素子22および撮像回路23にタイミング信号および電力を供給して、撮像素子に露光、読出、素子シャッタ等を行わせるとともに、撮像素子22の動作に同期させて撮像回路23によるゲイン調整およびA/D変換を実行させるように制御するものである。また、この撮像駆動部24は、撮像素子22の撮像モードを切り換える制御も行う。   The imaging drive unit 24 supplies a timing signal and power to the imaging element 22 and the imaging circuit 23 based on a command from the system controller 30 to cause the imaging element to perform exposure, reading, element shuttering, and the like, and also to the imaging element 22. Control is performed to execute gain adjustment and A / D conversion by the imaging circuit 23 in synchronism with the above operations. The imaging drive unit 24 also performs control to switch the imaging mode of the imaging element 22.

画像処理部25は、各種のデジタル画像処理を行うものである。画像処理部25は、例えば、黒レベルの補正、ホワイトバランス調整、γ補正、欠陥画素の補正、デモザイキング、画像情報の色情報の変換処理、画像情報の画素数変換処理、等を行う。さらに、画像処理部25は、色間補正部36と、色画像生成部37と、を含んで構成されている。   The image processing unit 25 performs various digital image processing. The image processing unit 25 performs, for example, black level correction, white balance adjustment, γ correction, defective pixel correction, demosaicing, image information color information conversion processing, image information pixel number conversion processing, and the like. Further, the image processing unit 25 includes an inter-color correction unit 36 and a color image generation unit 37.

上述した帯域制限フィルタ12は、通過させる光の帯域(色)に応じて撮像光学系9の瞳領域における通過領域を制限しているために、通過する光は、帯域によって瞳通過領域面積が異なることになり、ひいては明るさが異なることになる(図4に示した構成の場合、G光は瞳領域全体を通過するが、R光およびB光は瞳領域の半分のみを通過するために、R画像およびB画像は、G画像の例えば半分の明るさとなる)。色間補正部36は、このような帯域間(色間)の明るさの違いを補正するためのものである。   Since the band limiting filter 12 described above limits the pass region in the pupil region of the imaging optical system 9 according to the band (color) of the light to pass, the pass light has different pupil pass region areas depending on the band. Therefore, the brightness will be different (in the case of the configuration shown in FIG. 4, the G light passes through the entire pupil region, but the R light and B light pass through only half of the pupil region. The R image and the B image are, for example, half as bright as the G image). The inter-color correction unit 36 is for correcting such a difference in brightness between bands (between colors).

また、図4に示したような帯域制限フィルタ12を用いた場合には、非合焦部分においてR画像とB画像とに空間的な位置ズレが発生することになる(後述する図7〜図12参照)。色画像生成部37は、このような空間的な位置ズレを補正して、色ズレのない平面画像を生成するカラー化処理を行うものである。   Further, when the band limiting filter 12 as shown in FIG. 4 is used, a spatial positional shift occurs between the R image and the B image in the out-of-focus portion (FIGS. 7 to 7 described later). 12). The color image generation unit 37 corrects such a spatial positional shift and performs a colorization process for generating a planar image without a color shift.

画像メモリ26は、高速な書き込みや読み出しが可能なメモリであり、例えばSDRAM(Synchronous Dynamic Random Access Memory)により構成されていて、画像処理用のワークエリアとして使用されるとともに、システムコントローラ30のワークエリアとしても使用される。例えば、画像メモリ26は、画像処理部25により処理された最終的な画像を記憶するだけでなく、画像処理部25による複数の処理過程における各中間画像も適宜記憶する。   The image memory 26 is a memory capable of high-speed writing and reading, and is constituted by, for example, an SDRAM (Synchronous Dynamic Random Access Memory). The image memory 26 is used as a work area for image processing and is also a work area of the system controller 30. Also used as For example, the image memory 26 not only stores the final image processed by the image processing unit 25 but also appropriately stores each intermediate image in a plurality of processing steps by the image processing unit 25.

表示部27は、LCD等を有して構成されていて、画像処理部25により表示用に処理された画像(記録媒体29から読み出されて画像処理部25により表示用に処理された画像も含む)を表示するものである。具体的には、この表示部27は、ライブビュー画像の表示、静止画像記録時の確認表示、記録媒体29から読み出した静止画像または動画像の再生表示、等を行う。   The display unit 27 includes an LCD or the like, and an image processed for display by the image processing unit 25 (an image read from the recording medium 29 and processed for display by the image processing unit 25 is also included). Display). Specifically, the display unit 27 performs live view image display, confirmation display when recording a still image, reproduction display of a still image or a moving image read from the recording medium 29, and the like.

インターフェース(IF)28は、記録媒体29を着脱可能に接続するものであり、記録媒体29へ記録する情報の伝達、および記録媒体29から読み出した情報の伝達を行う。   The interface (IF) 28 is detachably connected to the recording medium 29, and transmits information to be recorded on the recording medium 29 and information read from the recording medium 29.

記録媒体29は、画像処理部25により記録用に処理された画像や、該画像に関連する各種データを記録するものであり、上述したように例えばメモリカード等として構成されている。   The recording medium 29 records an image processed for recording by the image processing unit 25 and various data related to the image, and is configured as a memory card or the like as described above.

センサ部31は、例えば、撮像装置のブレを検出するための加速度センサ等で構成される手振れセンサ、撮像素子22の温度を測定するための温度センサ、撮像装置周辺の明るさを測定するための明るさセンサ、等を含んでいる。このセンサ部31による検出結果はシステムコントローラ30に入力される。ここに、手振れセンサによる検出結果は撮像素子22やレンズ10を駆動して手振れ補正を行ったり、画像処理による手振れ補正を行ったりするために用いられる。また、温度センサによる検出結果は撮像駆動部24による駆動クロックの制御や撮像素子22から得られる画像中のノイズ量を推定するのに用いられる。さらに、明るさセンサによる検出結果は、例えば、周囲の明るさに応じて表示部27の輝度を適正に制御するために用いられる。   The sensor unit 31 is, for example, a camera shake sensor configured by an acceleration sensor or the like for detecting blur of the imaging device, a temperature sensor for measuring the temperature of the imaging device 22, and a brightness for measuring the brightness around the imaging device. Includes brightness sensor, etc. The detection result by the sensor unit 31 is input to the system controller 30. Here, the detection result by the camera shake sensor is used to drive the image pickup device 22 and the lens 10 to perform camera shake correction or to perform camera shake correction by image processing. The detection result by the temperature sensor is used to control the drive clock by the imaging drive unit 24 and to estimate the amount of noise in the image obtained from the image sensor 22. Furthermore, the detection result by the brightness sensor is used, for example, to appropriately control the luminance of the display unit 27 according to the ambient brightness.

操作部32は、撮像装置の電源をオン/オフするための電源スイッチ、静止画像や動画像等の撮像動作を指示入力するための2段式の押圧ボタンでなるレリーズボタン、撮像モード等を変更するためのモードボタン、選択項目や数値などを変更するのに用いられる十字キー、等を含んでいる。この操作部32の操作により発生した信号は、システムコントローラ30に入力される。   The operation unit 32 changes a power switch for turning on / off the power of the image pickup device, a release button including a two-stage press button for inputting an image pickup operation such as a still image or a moving image, an image pickup mode, and the like. Mode buttons, cross keys used to change selection items, numerical values, and the like. A signal generated by the operation of the operation unit 32 is input to the system controller 30.

ストロボ制御回路33は、システムコントローラ30の指令に基づいて、ストロボ34の発光量や発光タイミングを制御するものである。   The strobe control circuit 33 controls the light emission amount and the light emission timing of the strobe 34 based on a command from the system controller 30.

ストロボ34は、ストロボ制御回路33の制御により、被写体へ照明光を照射する発光源である。   The strobe 34 is a light source that emits illumination light to the subject under the control of the strobe control circuit 33.

ボディ側通信コネクタ35は、上述したように、レンズユニット1とボディユニット2とがレンズマウントにより結合されてレンズ側通信コネクタ15と接続されることにより、レンズ制御部14とシステムコントローラ30との間の通信を可能にするコネクタである。   As described above, the body side communication connector 35 is connected between the lens control unit 14 and the system controller 30 when the lens unit 1 and the body unit 2 are coupled by the lens mount and connected to the lens side communication connector 15. It is a connector that enables communication.

システムコントローラ30は、このボディユニット2の制御を行うとともに、レンズ制御部14を介してレンズユニット1の制御も行うものであり、この撮像装置を統合的に制御する制御部である。このシステムコントローラ30は、図示しないフラッシュメモリ等の不揮発性メモリから撮像装置の基本制御プログラムを読み出して、操作部32からの入力に応じて、撮像装置全体を制御するようになっている。   The system controller 30 controls the body unit 2 and also controls the lens unit 1 via the lens control unit 14, and is a control unit that integrally controls the imaging apparatus. The system controller 30 reads a basic control program of the image pickup apparatus from a non-illustrated non-volatile memory such as a flash memory, and controls the entire image pickup apparatus in accordance with an input from the operation unit 32.

例えば、システムコントローラ30は、レンズ制御部14を介してレンズユニット1内の各部を制御したり、シャッタ21を制御して駆動したり、センサ部31の加速度センサによる検出結果に基づいて図示しない手振れ補正機構を制御駆動して手振れ補正を行ったり、等を行う。さらに、システムコントローラ30は、操作部32のモードボタンからの入力に応じて、撮像装置のモード設定(静止画像を撮像するための静止画モード、動画像を撮像するための動画モード等の設定)を行うものとなっている。   For example, the system controller 30 controls each part in the lens unit 1 via the lens control unit 14, controls and drives the shutter 21, and a camera shake (not shown) based on a detection result by the acceleration sensor of the sensor unit 31. The correction mechanism is controlled to perform camera shake correction or the like. Further, the system controller 30 sets the mode of the imaging device (settings such as a still image mode for capturing a still image and a moving image mode for capturing a moving image) in response to an input from the mode button of the operation unit 32. It is intended to do.

さらに、システムコントローラ30は、AF(オートフォーカス:自動焦点調節)制御部38と、距離演算部39とを備えている。   Furthermore, the system controller 30 includes an AF (autofocus) control unit 38 and a distance calculation unit 39.

距離演算部39は、位相差AF部42と、コントラストAF部43とを備えている。   The distance calculation unit 39 includes a phase difference AF unit 42 and a contrast AF unit 43.

位相差AF部42は、位相差演算部として機能し、撮像素子22から得られた画像における、色瞳重心位置が異なる3つ以上の帯域の画像(3つ以上の色画像)の内の少なくとも2つの色画像に基づき、位相差量を演算し、ひいては被写体までの距離を演算するものである。具体的には、位相差AF部42は、瞳領域をそれぞれ通過する際の光量の重心位置の相違に起因して発生する複数の色画像の位相差量、すなわち、R画像とB画像との位相差量、R画像とG画像との位相差量、B画像とG画像との位相差量の内の少なくとも1つを演算し、演算した位相差量に基づき、被写体までの距離情報を演算するようになっている。   The phase difference AF unit 42 functions as a phase difference calculation unit, and at least of three or more band images (three or more color images) having different color pupil barycentric positions in the image obtained from the image sensor 22. Based on the two color images, the phase difference amount is calculated, and the distance to the subject is calculated. Specifically, the phase difference AF unit 42 is the amount of phase difference between a plurality of color images generated due to the difference in the barycentric position of the light amount when passing through each pupil region, that is, the R image and the B image. Calculate at least one of the phase difference amount, the phase difference amount between the R image and the G image, and the phase difference amount between the B image and the G image, and calculate the distance information to the subject based on the calculated phase difference amount. It is supposed to be.

ここに、図4に示した帯域制限フィルタ12の例は、RGBの3つの帯域の光を、色瞳重心位置を全て異ならせて通過させるものであった。しかし、帯域制限フィルタ12は、4つ、またはそれ以上の帯域の光を通過させるフィルタであっても構わないし、通過させる帯域の光の色瞳重心位置が全て異ならなければならないものでもない。例えば、帯域制限フィルタ12が、R、G1、G2、Bの4つの帯域の光を通過させるフィルタであって、G1とG2の色瞳重心位置が同一であっても構わない(色瞳重心位置が異なる帯域が3つ以上あれば良い)。そして、色瞳重心位置が同一となる帯域については、何れの帯域の色画像を位相差検出に用いるかを予め定めておくか、あるいは各色画像のヒストグラム等に基づいて、何れを位相差検出に用いるかを決定しておくものとする。例えば、G1とG2の内の、G1を位相差検出に用いる場合には、R、G1、Bの色瞳重心位置が独立していることになり、独立した色瞳重心位置の数は3である。このような独立した色瞳重心位置の数が、一般にmaxN(maxNは3以上の整数)であるものとして、以下において参照する。   Here, in the example of the band limiting filter 12 shown in FIG. 4, light in the three bands of RGB is allowed to pass through with the color centroid positions different from each other. However, the band limiting filter 12 may be a filter that allows light in four or more bands to pass therethrough, and the position of the center of gravity of the color pupil of the light in the band that passes through does not have to be all different. For example, the band limiting filter 12 is a filter that transmits light in four bands R, G1, G2, and B, and the color pupil centroid positions of G1 and G2 may be the same (color pupil centroid position). It is sufficient if there are three or more different bands). For the bands where the color pupil centroid positions are the same, it is determined in advance which band color image is used for phase difference detection, or which is used for phase difference detection based on the histogram of each color image. It shall be decided whether to use. For example, when G1 of G1 and G2 is used for phase difference detection, the color pupil centroid positions of R, G1, and B are independent, and the number of independent color pupil centroid positions is 3. is there. The number of such independent color pupil centroid positions is generally referred to as “maxN” (maxN is an integer of 3 or more).

この位相差AF部42により得られた距離情報は、例えばオートフォーカス(AF)に利用され、システムコントローラ30が距離情報に基づきレンズユニット1を制御して位相差AFを行う(勿論、距離情報の利用対象はAFに限るものではなく、ボケ量コントロールや、立体視画像の生成等に用いても構わない)。   The distance information obtained by the phase difference AF unit 42 is used for, for example, autofocus (AF), and the system controller 30 controls the lens unit 1 based on the distance information to perform phase difference AF (of course, the distance information The target of use is not limited to AF, and may be used for blur amount control, stereoscopic image generation, and the like.

コントラストAF部43は、撮像素子22から得られた画像に基づきフォーカスレンズを駆動してコントラストAFを行うものである。より詳しくは、コントラストAF部43は、画像処理部25から出力される画像信号(この画像信号は、輝度成分を含む割合が高いG画像であっても良いし、上述したカラー化処理により色ズレが補正された画像に係る輝度信号画像であっても構わない)からコントラスト値(AF評価値ともいう)を生成し、レンズ制御部14を介してレンズ10内のフォーカスレンズを制御するものである。すなわち、コントラストAF部43は、画像信号にフィルタ、例えばハイパスフィルタを作用させて高周波成分を抽出し、コントラスト値とする。そして、コントラストAF部43は、フォーカスレンズ位置を異ならせてコントラスト値を取得し、コントラスト値が大きくなる方向へフォーカスレンズを移動させて、さらにコントラスト値を取得する。このような処理を繰り返して行うことにより、最大のコントラスト値が得られるフォーカスレンズ位置(合焦位置)へフォーカスレンズを駆動するように制御するものである。   The contrast AF unit 43 performs contrast AF by driving the focus lens based on the image obtained from the image sensor 22. More specifically, the contrast AF unit 43 may be an image signal output from the image processing unit 25 (this image signal may be a G image having a high ratio including a luminance component, or color shift may be performed by the above-described colorization processing. A contrast signal (also referred to as an AF evaluation value) is generated from the corrected luminance signal image, and the focus lens in the lens 10 is controlled via the lens control unit 14. . That is, the contrast AF unit 43 extracts a high-frequency component by applying a filter, for example, a high-pass filter, to the image signal to obtain a contrast value. Then, the contrast AF unit 43 acquires the contrast value by changing the focus lens position, moves the focus lens in the direction in which the contrast value increases, and further acquires the contrast value. By repeatedly performing such processing, control is performed so that the focus lens is driven to the focus lens position (focus position) at which the maximum contrast value is obtained.

AF制御部38は、位相差演算制御部であって、撮像素子22から得られた画像に基づき距離演算部39を制御して、上述した位相差AF部42とコントラストAF部43との少なくとも一方を用いた距離演算を実行させるものである。   The AF control unit 38 is a phase difference calculation control unit, and controls the distance calculation unit 39 based on the image obtained from the image sensor 22 to at least one of the phase difference AF unit 42 and the contrast AF unit 43 described above. The distance calculation using is performed.

このAF制御部38は、位相差適合判定部41を備えている。この位相差適合判定部41は、撮像素子22から得られた上述した色瞳重心位置が異なる複数の帯域の画像(色瞳重心位置が異なる複数の色画像)が、位相差検出に適した画像であるか否か(位相差演算に用いる色画像として適しているか否か)(あるいはさらに、位相差検出に適する程度がどの程度であるか)を判定するものである。   The AF control unit 38 includes a phase difference matching determination unit 41. The phase difference matching determination unit 41 is an image in which images of a plurality of bands having different color pupil centroid positions described above obtained from the image sensor 22 (a plurality of color images having different color pupil centroid positions) are suitable for phase difference detection. (Or whether or not it is suitable as a color image used for phase difference calculation) (or to what extent it is suitable for phase difference detection).

次に、図2は位相差AF部42の構成を示すブロック図である。   Next, FIG. 2 is a block diagram showing a configuration of the phase difference AF unit 42.

位相差AF部42は、色信号選択部51と、基準補正部52と、位相差演算部53と、を備えている。   The phase difference AF unit 42 includes a color signal selection unit 51, a reference correction unit 52, and a phase difference calculation unit 53.

色信号選択部51は、上述した位相差適合判定部41により位相差演算に適していると判定された色画像の中から、位相差演算に用いる1組の色画像(色瞳重心位置が異なる2つの帯域の画像)を選択するものである。   The color signal selection unit 51 has a set of color images (color pupil barycentric positions different from each other) used for the phase difference calculation from among the color images determined to be suitable for the phase difference calculation by the phase difference matching determination unit 41 described above. Image of two bands) is selected.

基準補正部52は、色信号選択部51により選択された2つの色画像に係る2つ帯域の光がレンズ10の瞳領域を通過する際の重心位置の距離(図5に示したような重心距離)に応じて、位相差演算部53により算出される位相差量を補正するか、あるいは位相差量に基づき算出される被写体距離を補正するものである(ただし、補正が不要である場合には、もちろん補正は行わない)。   The reference correction unit 52 determines the distance of the center of gravity when the light of the two bands related to the two color images selected by the color signal selection unit 51 passes through the pupil region of the lens 10 (the center of gravity as shown in FIG. 5). The phase difference amount calculated by the phase difference calculation unit 53 is corrected according to the distance, or the subject distance calculated based on the phase difference amount is corrected (however, when correction is not necessary). Will of course not be corrected).

ここに、位相差AF部42により算出される位相差量と被写体距離との関係は、例えばシステムコントローラ30内の図示しないフラッシュメモリ等の不揮発性メモリに予め記憶されている。ただし、重心位置が異なる2つの色画像の全ての組み合わせに対して位相差量と被写体距離との関係を記憶すると、多くの記憶容量を要することになる。そこで、位相差量と被写体距離との関係は、標準とする1組の色画像(例えば、R画像とB画像)に関してのみ記憶しておき、標準でない2つの色画像の組み合わせの場合には、重心距離に応じて、基準補正部52が補正を行うように構成している。   Here, the relationship between the phase difference amount calculated by the phase difference AF unit 42 and the subject distance is stored in advance in a nonvolatile memory such as a flash memory (not shown) in the system controller 30, for example. However, if the relationship between the phase difference amount and the subject distance is stored for all combinations of two color images having different centroid positions, a large amount of storage capacity is required. Therefore, the relationship between the phase difference amount and the subject distance is stored only for a standard set of color images (for example, an R image and a B image), and in the case of a combination of two non-standard color images, The reference correction unit 52 is configured to perform correction according to the centroid distance.

位相差演算部53は、色信号選択部51により選択された2つの色画像に位相差演算を行うことにより、これら2つの色画像間の位相差量を求める(位相差検出を行う)ものである。   The phase difference calculation unit 53 obtains a phase difference amount between these two color images (performs phase difference detection) by performing a phase difference calculation on the two color images selected by the color signal selection unit 51. is there.

なお、図2に示す例では、色信号選択部51と基準補正部52とを位相差AF部42内に設けているが、AF制御部38内に設けても良いし、システムコントローラ30あるいは画像処理部25内に設けても構わないし、その他の構成を採用しても良い。   In the example shown in FIG. 2, the color signal selection unit 51 and the reference correction unit 52 are provided in the phase difference AF unit 42, but may be provided in the AF control unit 38, the system controller 30 or the image. You may provide in the process part 25 and you may employ | adopt another structure.

まず、各色画像の空間的な位置ズレについて、図6〜図12を参照して説明する。ここに、図6は合焦位置にある被写体を撮像するときの被写体光束集光の様子を示す平面図、図7は合焦位置よりも近距離側にある被写体を撮像するときの被写体光束集光の様子を示す平面図、図8は合焦位置よりも近距離側にある被写体上の1点からの光により形成されるボケの形状を示す図、図9は合焦位置よりも近距離側にある被写体上の1点からの光により形成されるボケの形状を色成分毎に示す図、図10は合焦位置よりも遠距離側にある被写体を撮像するときの被写体光束集光の様子を示す平面図、図11は合焦位置よりも遠距離側にある被写体上の1点からの光により形成されるボケの形状を示す図、図12は合焦位置よりも遠距離側にある被写体上の1点からの光により形成されるボケの形状を色成分毎に示す図である。なお、ボケ形状の説明に際しては、絞り11の開口が円形状である場合を例に挙げて説明する。   First, the spatial positional shift of each color image will be described with reference to FIGS. FIG. 6 is a plan view showing a state of subject light flux condensing when imaging a subject at the in-focus position, and FIG. 7 is a subject light flux concentrating when imaging a subject closer to the in-focus position. FIG. 8 is a plan view showing the state of light, FIG. 8 is a diagram showing the shape of a blur formed by light from one point on the subject closer to the focus position, and FIG. 9 is a closer distance than the focus position. FIG. 10 is a diagram showing, for each color component, the shape of a blur formed by light from one point on a subject on the side, and FIG. 10 is a diagram of subject light flux collection when imaging a subject farther from the in-focus position. FIG. 11 is a plan view showing a state, FIG. 11 is a diagram showing the shape of a blur formed by light from one point on the subject on the far side from the in-focus position, and FIG. 12 is on the far side from the in-focus position. It is a figure which shows the shape of the blur formed with the light from one point on a certain subject for every color component. In the description of the blur shape, the case where the aperture of the diaphragm 11 has a circular shape will be described as an example.

被写体OBJcが合焦位置にあるときには、被写体OBJc上の1点から放射された光は、図6に示すように、帯域制限フィルタ12全体を通過するG成分も、帯域制限フィルタ12の半分のRGフィルタ12rのみを通過するR成分も、帯域制限フィルタ12の他の半分のGBフィルタ12bのみを通過するB成分も、撮像素子22上の1点に集光され、点像としての被写体像IMGrgbを形成するために、上述したような瞳通過領域の面積に応じた光量の相違はあるものの、色間に位置ズレは発生しない。従って、合焦位置にある被写体OBJcを撮像したときには、色にじみのない被写体像IMGrgbが結像される。   When the subject OBJc is at the in-focus position, the light emitted from one point on the subject OBJc has a G component that passes through the entire band limiting filter 12 as shown in FIG. Both the R component that passes only through the filter 12r and the B component that passes through only the other half of the GB filter 12b of the band limiting filter 12 are condensed at one point on the image sensor 22, and the subject image IMGrgb as a point image is obtained. In order to form, although there is a difference in the amount of light according to the area of the pupil passing region as described above, no positional deviation occurs between colors. Therefore, when the subject OBJc at the in-focus position is imaged, a subject image IMGrgb without color blur is formed.

これに対して、被写体OBJnが例えば合焦位置よりも近距離側にある場合には、被写体OBJn上の1点から放射された光により、図7〜図9に示すように、G成分については円形ボケをなす被写体像IMGgが形成され、R成分については左半分の半円形ボケをなす被写体像IMGrが形成され、B成分については右半分の半円形ボケをなす被写体像IMGbが形成される。従って、合焦位置よりも近距離側にある被写体OBJnを撮像したときには、R成分の被写体像IMGrが左側にずれ、B成分の被写体像IMGbが右側にずれたボケ画像が形成され、このボケ画像におけるR成分とB成分の左右位置は、撮像素子22から見たときの帯域制限フィルタ12におけるR成分透過領域(RGフィルタ12r)とB成分透過領域(GBフィルタ12b)の左右位置と同じである。また、G成分の被写体像IMGgについては、図8、図9に示すように、R成分の被写体像IMGrとB成分の被写体像IMGbとにまたがったボケ画像となる。そして、被写体OBJnが合焦位置から近距離側へ離れるほど、ボケが大きくなって、R成分の被写体像IMGrの重心位置CrとB成分の被写体像IMGbの重心位置Cbとの離間距離、R成分の被写体像IMGrの重心位置CrとG成分の被写体像IMGgの重心位置Cgとの離間距離、およびG成分の被写体像IMGgの重心位置CgとB成分の被写体像IMGbの重心位置Cbとの離間距離が大きくなることになる。   On the other hand, when the subject OBJn is, for example, closer to the in-focus position, the light emitted from one point on the subject OBJn is used for the G component as shown in FIGS. A subject image IMGg that forms a circular blur is formed, a subject image IMGr that forms a semicircular blur of the left half is formed for the R component, and a subject image IMGb that forms a semicircular blur of the right half is formed for the B component. Therefore, when the subject OBJn that is closer to the in-focus position is imaged, a blurred image is formed in which the R component subject image IMGr is shifted to the left side and the B component subject image IMGb is shifted to the right side. The left and right positions of the R component and the B component are the same as the left and right positions of the R component transmission region (RG filter 12r) and the B component transmission region (GB filter 12b) in the band limiting filter 12 when viewed from the image sensor 22. . Further, as shown in FIGS. 8 and 9, the G component subject image IMGg is a blurred image extending over the R component subject image IMGr and the B component subject image IMGb. As the subject OBJn is further away from the in-focus position, the blur increases, and the separation distance between the gravity center position Cr of the R component subject image IMGr and the gravity center position Cb of the B component subject image IMGb, the R component The distance between the centroid position Cr of the subject image IMGr and the centroid position Cg of the G component image IMGg, and the distance between the centroid position Cg of the G component image IMGg and the centroid position Cb of the B component image IMGb Will grow.

一方、被写体OBJfが例えば合焦位置よりも遠距離側にある場合には、被写体OBJf上の1点から放射された光により、図10〜図12に示すように、G成分については円形ボケをなす被写体像IMGgが形成され、R成分については右半分の半円形ボケをなす被写体像IMGrが形成され、B成分については左半分の半円形ボケをなす被写体像IMGbが形成される。従って、合焦位置よりも遠距離側にある被写体OBJfを撮像したときには、R成分の被写体像IMGrが右側にずれ、B成分の被写体像IMGbが左側にずれたボケ画像が形成され、このボケ画像におけるR成分とB成分の左右位置は、撮像素子22から見たときの帯域制限フィルタ12におけるR成分透過領域(RGフィルタ12r)とB成分透過領域(GBフィルタ12b)の左右位置と逆である。また、G成分の被写体像がR成分の被写体像IMGrとB成分の被写体像IMGbとにまたがったボケ画像となる(図11、図12参照)のは、この遠距離側においても同様である。そして、被写体OBJfが合焦位置から遠距離側へ離れるほど、ボケが大きくなって、R成分の被写体像IMGrの重心位置CrとB成分の被写体像IMGbの重心位置Cbとの離間距離、R成分の被写体像IMGrの重心位置CrとG成分の被写体像IMGgの重心位置Cgとの離間距離、およびG成分の被写体像IMGgの重心位置CgとB成分の被写体像IMGbの重心位置Cbとの離間距離が大きくなることになる。   On the other hand, when the subject OBJf is on the far side of the in-focus position, for example, the light emitted from one point on the subject OBJf causes a circular blur for the G component as shown in FIGS. A subject image IMGg is formed, a subject image IMGr that forms a semicircular blur of the right half is formed for the R component, and a subject image IMGb that forms a semicircular blur of the left half is formed for the B component. Therefore, when the subject OBJf is imaged farther than the in-focus position, a blurred image is formed in which the R component subject image IMGr is shifted to the right side and the B component subject image IMGb is shifted to the left side. The left and right positions of the R component and the B component are opposite to the left and right positions of the R component transmission region (RG filter 12r) and the B component transmission region (GB filter 12b) of the band limiting filter 12 when viewed from the image sensor 22. . Similarly, the G component subject image becomes a blurred image extending over the R component subject image IMGr and the B component subject image IMGb (see FIGS. 11 and 12). As the subject OBJf is further away from the in-focus position, the blur increases, and the separation distance between the centroid position Cr of the R component subject image IMGr and the centroid position Cb of the B component subject image IMGb, the R component The distance between the centroid position Cr of the subject image IMGr and the centroid position Cg of the G component image IMGg, and the distance between the centroid position Cg of the G component image IMGg and the centroid position Cb of the B component image IMGb Will grow.

従って、レンズ10の瞳領域を通過する際の重心位置が異なる2つの色画像の組み合わせに対して、相関性に基づく位相差量を算出すれば、被写体距離を算出することが可能である。   Accordingly, the subject distance can be calculated by calculating the phase difference amount based on the correlation with respect to a combination of two color images having different centroid positions when passing through the pupil region of the lens 10.

なお、近距離側と遠距離側との何れであっても、G成分の被写体像IMGgは、帯域制限フィルタ12を使用しない場合のボケ画像と同じ情報になるために、上述した色画像生成部37が行うカラー化処理における標準画像として使用することができる。   Note that the G component subject image IMGg becomes the same information as the blurred image when the band limiting filter 12 is not used, on either the short distance side or the long distance side. It can be used as a standard image in the colorization process performed by 37.

次に、図13および図14を参照して、位相差演算部53により位相差検出を行う際に作成される相関値グラフの例を説明する。図13は2つの画像の相対位置をずらしながらSAD方式により演算を行って得られる相関値グラフの例を示す線図、図14は2つの画像の相対位置をずらしながらZNCC方式により演算を行って得られる相関値グラフの例を示す線図である。ここに、図13、図14のグラフの横軸は、相関演算対象の2つ画像の像ずれ量(単位は画素ピッチ)を示し、縦軸は相関演算の結果得られる相関値を示している。   Next, an example of a correlation value graph created when the phase difference calculation unit 53 performs phase difference detection will be described with reference to FIGS. 13 and 14. FIG. 13 is a diagram showing an example of a correlation value graph obtained by performing the calculation by the SAD method while shifting the relative positions of the two images. FIG. 14 is a graph by performing the calculation by the ZNCC method while shifting the relative positions of the two images. It is a diagram which shows the example of the correlation value graph obtained. Here, the horizontal axis of the graphs of FIGS. 13 and 14 represents the image shift amount (unit: pixel pitch) of the two images to be correlated, and the vertical axis represents the correlation value obtained as a result of the correlation calculation. .

まず、SAD方式により2つの画像を相関演算したときには、図13に示すようなV字形状の谷をなす相関値が得られ、0に近い谷の底の像ずれ量が求める位相差量となる。   First, when two images are subjected to correlation calculation by the SAD method, a correlation value forming a V-shaped valley as shown in FIG. 13 is obtained, and an image shift amount at the bottom of the valley close to 0 becomes a calculated phase difference amount. .

また、ZNCC方式により2つの画像を相関演算したときには、図14に示すような逆V字形状の山をなす相関値が得られ、1に近い山の頂点の像ずれ量が求める位相差量となる。   Further, when two images are subjected to correlation calculation by the ZNCC method, a correlation value forming an inverted V-shaped peak as shown in FIG. 14 is obtained, and the phase difference amount obtained by calculating the image shift amount at the peak of the peak close to 1 is obtained. Become.

次に、図15は撮像装置における測距の処理を示すフローチャートである。   Next, FIG. 15 is a flowchart showing distance measurement processing in the imaging apparatus.

この処理を開始すると、距離情報を取得する対象範囲となる位相差検出エリアの選択を行う(ステップS1)。この位相差検出エリアは、撮像装置に設定されている撮影モードに応じて自動的に設定されたり、ユーザにより手動で設定されたりする。位相差検出エリアの具体例としては、全画素領域、システムコントローラ30により自動的に設定された注目被写体領域(例えば、画像処理部25の顔検出により検出された顔、あるいは画面中央部など)、ユーザにより設定あるいは選択された領域などである。   When this process is started, a phase difference detection area that is a target range for acquiring distance information is selected (step S1). This phase difference detection area is automatically set according to the shooting mode set in the imaging apparatus or manually set by the user. Specific examples of the phase difference detection area include all pixel areas, a subject area of interest automatically set by the system controller 30 (for example, a face detected by face detection of the image processing unit 25, or the center of the screen), An area set or selected by the user.

続いて、撮像素子22により画像を取得し(ステップS2)、取得した画像に基づいて、位相差適合判定部41が位相差検出エリアにおける各色画像の適合判定処理を行う(ステップS3)。   Subsequently, an image is acquired by the imaging element 22 (step S2), and based on the acquired image, the phase difference matching determination unit 41 performs a matching determination process for each color image in the phase difference detection area (step S3).

そして、ステップS3の処理結果に基づいて、AF制御部38が、3色以上の画像が位相差検出に適合するか否かを判定する(ステップS4)。   Then, based on the processing result of step S3, the AF control unit 38 determines whether an image of three or more colors is suitable for phase difference detection (step S4).

ここで、3色以上の画像が位相差検出に適合すると判定された場合には、AF制御部38の制御に基づき色信号選択部51が、該適合すると判定された3以上の色の中から位相差取得に用いる1組(2色)を選択する適合色の組選択の処理を行う(ステップS5)。   Here, when it is determined that an image of three or more colors is suitable for phase difference detection, the color signal selection unit 51 based on the control of the AF control unit 38 selects from among the three or more colors determined to be compatible. A matching color set selection process for selecting one set (two colors) used for phase difference acquisition is performed (step S5).

次に、AF制御部38の制御により、位相差演算部53が、選択された1組の色画像の相関値グラフを作成し、作成した相関値グラフに基づき位相差を取得する(ステップS6)。   Next, under the control of the AF control unit 38, the phase difference calculation unit 53 creates a correlation value graph of the selected set of color images, and acquires a phase difference based on the created correlation value graph (step S6). .

さらに、AF制御部38の制御により基準補正部52が、取得された位相差を、選択した2色に係る光がレンズ10の瞳領域を通過する際の重心距離(図5に示したような重心距離)に合わせて補正する(ステップS7)。すなわち、例えば図4に示したような構成の帯域制限フィルタ12を用いる場合には、重心距離Drbは、重心距離Drgおよび重心距離Dgbの2倍となる。従って、色信号選択部51により選択された色がRとG、またはGとBである場合には、選択された色がRとBである場合の半分の像ずれ量(図13および図14の横軸に示す像ずれ量)しか得られないことになる。そこで、例えばRとBの組み合わせを標準に採用する場合に、選択された色がRとG、またはGとBであるときには、合焦位置の像ずれ量を2倍する補正処理を行うことになる。   Further, the reference correction unit 52 controls the acquired phase difference based on the control of the AF control unit 38 to determine the center-of-gravity distance when the light related to the two selected colors passes through the pupil region of the lens 10 (as shown in FIG. 5). Correction is performed according to the center of gravity distance) (step S7). That is, for example, when the band limiting filter 12 having the configuration shown in FIG. 4 is used, the centroid distance Drb is twice the centroid distance Drg and the centroid distance Dgb. Therefore, when the colors selected by the color signal selection unit 51 are R and G, or G and B, the image shift amount half that when the selected colors are R and B (FIGS. 13 and 14). Only the image shift amount shown on the horizontal axis of FIG. Therefore, for example, when a combination of R and B is adopted as a standard, when the selected color is R and G, or G and B, correction processing for doubling the image shift amount at the in-focus position is performed. Become.

そして、補正された位相差に基づき、システムコントローラ30が、現在のレンズ10の駆動位置が合焦位置となっているか否かを判定する(ステップS8)。   Based on the corrected phase difference, the system controller 30 determines whether or not the current driving position of the lens 10 is the in-focus position (step S8).

ここで、合焦していないと判定された場合には、システムコントローラ30がレンズ制御部14を介してレンズ10を合焦位置へ近付ける駆動を行い(ステップS9)、ステップS2へ戻って上述したような処理を繰り返して行う。   Here, if it is determined that the lens is not in focus, the system controller 30 performs driving to bring the lens 10 closer to the in-focus position via the lens control unit 14 (step S9), and the process returns to step S2 and described above. Repeat the process.

一方、ステップS4において、位相差検出に適合する色画像が3色未満であると判定された場合には、さらにAF制御部38が、2色の色画像のみが位相差検出に適合するか否かを判定する(ステップS10)。   On the other hand, if it is determined in step S4 that the number of color images suitable for phase difference detection is less than three, the AF control unit 38 determines whether only two color images are suitable for phase difference detection. Is determined (step S10).

ここで、2色の色画像のみが位相差検出に適合すると判定された場合には、適合すると判定された2色の色画像を選択された1組の色画像として、上述されたステップS6の処理を行う。   If it is determined that only two color images are suitable for phase difference detection, the two color images determined to be compatible are selected as a set of color images in the above-described step S6. Process.

また、ステップS10において、位相差検出に適合する色画像が2色未満であると判定された場合には、AF制御部38が制御して、コントラストAF部43にコントラストAFを行わせ、合焦へ導く(ステップS11)。   If it is determined in step S10 that the number of color images suitable for phase difference detection is less than two colors, the AF control unit 38 controls to cause the contrast AF unit 43 to perform contrast AF and focus. (Step S11).

こうして、このステップS11の処理が終了するか、またはステップS8において合焦したと判定された場合には、この測距の処理を終了する。   In this way, when the process of step S11 ends or when it is determined in step S8 that the focus is achieved, the distance measurement process ends.

次に、図16は図15のステップS3の位相差検出エリアの各色の適合判定の処理の第1の例を示すフローチャートである。   Next, FIG. 16 is a flowchart showing a first example of the compatibility determination process for each color in the phase difference detection area in step S3 of FIG.

この処理を開始すると、色数をカウントするためのカウンタnを1にリセットする(ステップS21)。   When this process is started, a counter n for counting the number of colors is reset to 1 (step S21).

次に、位相差検出エリアにおける、第n番目の色の情報(この処理を最初に行うときには、第1番目の色情報)を読み込む(ステップS22)。ただし、読み込む対象となるのは、上述したような、独立した色瞳重心位置の色情報であって、位相差検出に用いる可能性のある色情報である(上述したR、G1、G2、Bの例においてはR、G1、B)。   Next, information on the nth color in the phase difference detection area (the first color information when this process is first performed) is read (step S22). However, the information to be read is the color information of the independent color pupil centroid position as described above, and may be used for phase difference detection (the above-described R, G1, G2, B). In the example of R, G1, B).

そして、画素値として取り得る最大画素値maxL(例えば、画素値を10ビット、すなわち0〜1023で表現する場合には、maxL=1023)に1未満の所定値k(例えば、k=0.5)を掛けた値以上の画素値の画素が、位相差検出エリア内の全ての第n番目の色の画素の所定割合(例えば、30%)以上あるか否かを判定する(ステップS23)。   Then, the maximum pixel value maxL that can be taken as the pixel value (for example, when the pixel value is expressed by 10 bits, that is, 0 to 1023, maxL = 1023) is a predetermined value k less than 1 (for example, k = 0.5). It is determined whether or not the number of pixels having a pixel value equal to or greater than the value multiplied by) is equal to or greater than a predetermined ratio (for example, 30%) of all the nth color pixels in the phase difference detection area (step S23).

ここで、位相差適合判定部41は、k×maxL以上の画素値の画素が所定割合以上であると判定された場合には、第n番目の色の情報は位相差検出に適合すると判定し(ステップS24)、所定割合未満であると判定された場合には、第n番目の色の情報は位相差検出に不適合であると判定する(ステップS25)。   Here, the phase difference suitability determination unit 41 determines that the information of the nth color is suitable for phase difference detection when it is determined that the number of pixels having a pixel value equal to or greater than k × maxL is equal to or greater than a predetermined ratio. (Step S24) When it is determined that the ratio is less than the predetermined ratio, it is determined that the information of the nth color is incompatible with the phase difference detection (Step S25).

ステップS24またはステップS25の処理が行われたら、カウンタnが、上述したような独立した色瞳重心位置の数maxNに達したか否かを判定する(ステップS26)。   When the processing of step S24 or step S25 is performed, it is determined whether or not the counter n has reached the number maxN of independent color pupil centroid positions as described above (step S26).

ここで、maxNに達していないと判定された場合には、カウンタnをインクリメントして(ステップS27)からステップS22へ戻り、次の色情報について上述したような処理を行う。   If it is determined that maxN has not been reached, the counter n is incremented (step S27) and the process returns to step S22 to perform the processing described above for the next color information.

また、カウンタnがmaxNに達したと判定された場合には、この位相差検出エリアの各色の適合判定の処理から図15に示した処理に復帰する。   If it is determined that the counter n has reached maxN, the process returns to the process shown in FIG. 15 from the compatibility determination process for each color in the phase difference detection area.

また、図17は図15のステップS3の位相差検出エリアの各色の適合判定の処理の第2の例を示すフローチャートである。   FIG. 17 is a flowchart showing a second example of the compatibility determination process for each color in the phase difference detection area in step S3 of FIG.

この処理を開始すると、上述したステップS21、ステップS22の処理を行ってから、位相差検出エリアにおける、第n番目の色の情報の平均画素値AveLを、次の数式1のように算出する(ステップS31)。
[数1]

Figure 2013097154
ここに、Xi は位相差検出エリア内の第n番目の色の画素の画素値、PNは位相差検出エリア内の第n番目の色の画素の全画素数である。 When this process is started, after performing the above-described processes of step S21 and step S22, the average pixel value AveL of the nth color information in the phase difference detection area is calculated as in the following equation (1): Step S31).
[Equation 1]
Figure 2013097154
Here, Xi is the pixel value of the nth color pixel in the phase difference detection area, and PN is the total number of pixels of the nth color pixel in the phase difference detection area.

次に、算出した平均画素値AveLが、所定の範囲内、すなわち所定の下限値L1以上かつ所定の上限値L2以下であるか否かを判定する(ステップS32)。ここに、所定の下限値L1の一例としては0.3×maxL、所定の上限値L2の一例としては0.7×maxLが挙げられる(maxL=1023の場合には、0.3×maxL=307、0.7×maxL=716)が、勿論これらの例に限定されるものではない。この処理は、位相差検出エリアにおける第n番目の色が、白飛びや黒つぶれしていないかを確認するための処理である。   Next, it is determined whether or not the calculated average pixel value AveL is within a predetermined range, that is, a predetermined lower limit value L1 or more and a predetermined upper limit value L2 or less (step S32). Here, an example of the predetermined lower limit value L1 is 0.3 × maxL, and an example of the predetermined upper limit value L2 is 0.7 × maxL (in the case of maxL = 1023, 0.3 × maxL = 307, 0.7 × maxL = 716) is, of course, not limited to these examples. This process is a process for confirming whether the nth color in the phase difference detection area is not over-exposed or under-exposed.

ここで、平均画素値AveLが所定の下限値L1以上かつ所定の上限値L2以下であると判定された場合には、第n番目の色の情報の画素値の標準偏差σを次の数式2に示すように算出する(ステップS33)。
[数2]

Figure 2013097154
Here, when it is determined that the average pixel value AveL is equal to or larger than the predetermined lower limit value L1 and equal to or smaller than the predetermined upper limit value L2, the standard deviation σ of the pixel value of the nth color information is expressed by the following formula 2. (Step S33).
[Equation 2]
Figure 2013097154

そして、算出した標準偏差σが所定の下限標準偏差σ1(maxL=1023の場合には、例えば、σ1=200等)以上であるか否かを判定する(ステップS34)。位相差検出を行うためには、被写体にコントラストが必要であり、平均画素値が中庸の値であっても、コントラストが平坦な被写体(例えば、色が一様な青空など)は位相差検出を行うのが困難である。従って、この処理は、位相差検出エリアにおける第n番目の色情報が、平坦な被写体に係るものでないかを確認するための処理である。   Then, it is determined whether or not the calculated standard deviation σ is equal to or greater than a predetermined lower limit standard deviation σ1 (for example, σ1 = 200 when maxL = 1023) (step S34). In order to perform phase difference detection, the subject needs to have contrast, and even if the average pixel value is a moderate value, subjects with a flat contrast (for example, a blue sky with a uniform color) should perform phase difference detection. Difficult to do. Therefore, this process is a process for confirming whether the nth color information in the phase difference detection area relates to a flat subject.

そして、標準偏差σが所定の下限標準偏差σ1以上であると判定された場合には、ステップS24へ行って第n番目の色の情報は位相差検出に適合すると判定する。   If it is determined that the standard deviation σ is greater than or equal to the predetermined lower limit standard deviation σ1, the process proceeds to step S24, and the nth color information is determined to be suitable for phase difference detection.

一方、ステップS32において、平均画素値AveLが所定の下限値L1未満もしくは所定の上限値L2よりも大きいと判定された場合、またはステップS34において、標準偏差σが所定の下限標準偏差σ1未満であると判定された場合には、ステップS25へ行って第n番目の色の情報は位相差検出に不適合であると判定する。   On the other hand, when it is determined in step S32 that the average pixel value AveL is less than the predetermined lower limit value L1 or larger than the predetermined upper limit value L2, or in step S34, the standard deviation σ is less than the predetermined lower limit standard deviation σ1. If it is determined, the process goes to step S25 to determine that the nth color information is incompatible with the phase difference detection.

その後、ステップS26の処理を行い、ステップS26の判定結果に応じてステップS27の処理へ進むか、またはこの位相差検出エリアの各色の適合判定の処理から図15に示した処理に復帰する。   Thereafter, the process of step S26 is performed, and the process proceeds to the process of step S27 according to the determination result of step S26, or the process returns to the process shown in FIG. 15 from the compatibility determination process of each color in the phase difference detection area.

続いて、図18は図15のステップS3の位相差検出エリアの各色の適合判定の処理の第3の例を示すフローチャートである。   Next, FIG. 18 is a flowchart showing a third example of the compatibility determination process for each color in the phase difference detection area in step S3 of FIG.

この処理を開始すると、上述したステップS21,S22,S31,S32の処理を行う。   When this process is started, the processes of steps S21, S22, S31, and S32 described above are performed.

そして、ステップS32において、平均画素値AveLが所定の下限値L1以上かつ所定の上限値L2以下であると判定された場合には、位相差検出エリアにおける第n番目の色のエッジ量Vを検出する(ステップS41)。   If it is determined in step S32 that the average pixel value AveL is not less than the predetermined lower limit value L1 and not more than the predetermined upper limit value L2, the edge amount V of the nth color in the phase difference detection area is detected. (Step S41).

ここに、エッジ量Vの検出は、種々のフィルタを用いて行うことが可能であるが、一例を挙げればソーベルフィルタである。例えば、下記数式3に示す3×3のフィルタを用いると、垂直方向のエッジを検出することができる。
[数3]

Figure 2013097154
Here, the detection of the edge amount V can be performed using various filters, but a Sobel filter is given as an example. For example, if a 3 × 3 filter represented by the following formula 3 is used, an edge in the vertical direction can be detected.
[Equation 3]
Figure 2013097154

例えばこの数式3に示すフィルタを、中心画素位置を1画素ずつずらしながら位相差検出エリア内の第n番目の色の画素に順次かけていき、その結果を加算して、位相差検出エリア内の第n番目の色のエッジ量Vを算出する。   For example, the filter shown in Equation 3 is sequentially applied to the nth color pixel in the phase difference detection area while shifting the center pixel position one pixel at a time, and the result is added to obtain the result in the phase difference detection area. The edge amount V of the nth color is calculated.

次に、検出されたエッジ量Vの絶対値|V|が、所定の下限エッジ量|V1|(maxL=1023の場合には、例えば、|V1|=200等)以上であるか否かを判定する(ステップS42)。   Next, whether or not the absolute value | V | of the detected edge amount V is equal to or greater than a predetermined lower limit edge amount | V1 | (for example, | V1 | = 200 when maxL = 1023). Determination is made (step S42).

ここで、エッジ量|V|が所定の下限エッジ量|V1|以上であると判定された場合には、位相差検出エリア内に位相差検出に適するエッジが存在するために、ステップS24へ行って第n番目の色の情報は位相差検出に適合すると判定する。   Here, if it is determined that the edge amount | V | is equal to or larger than the predetermined lower limit edge amount | V1 |, there is an edge suitable for phase difference detection in the phase difference detection area. Thus, the nth color information is determined to be suitable for phase difference detection.

一方、ステップS32において、平均画素値AveLが所定の下限値L1未満もしくは所定の上限値L2よりも大きいと判定された場合、またはステップS42において、エッジ量|V|が所定の下限エッジ量|V1|未満であると判定された場合には、ステップS25へ行って第n番目の色の情報は位相差検出に不適合であると判定する。   On the other hand, when it is determined in step S32 that the average pixel value AveL is less than the predetermined lower limit value L1 or larger than the predetermined upper limit value L2, or in step S42, the edge amount | V | is the predetermined lower limit edge amount | V1. If it is determined that it is less than |, the process goes to step S25 to determine that the nth color information is incompatible with the phase difference detection.

その後、ステップS26の処理を行い、ステップS26の判定結果に応じてステップS27の処理へ進むか、またはこの位相差検出エリアの各色の適合判定の処理から図15に示した処理に復帰する。   Thereafter, the process of step S26 is performed, and the process proceeds to the process of step S27 according to the determination result of step S26, or the process returns to the process shown in FIG. 15 from the compatibility determination process of each color in the phase difference detection area.

次に、図19は図15のステップS3の位相差検出エリアの各色の適合判定の処理の第4の例を示すフローチャートである。   FIG. 19 is a flowchart showing a fourth example of the compatibility determination process for each color in the phase difference detection area in step S3 of FIG.

この処理を開始すると、上述したステップS21,S22,S31,S32の処理を行う。   When this process is started, the processes of steps S21, S22, S31, and S32 described above are performed.

そして、ステップS32において、平均画素値AveLが所定の下限値L1以上かつ所定の上限値L2以下であると判定された場合には、フーリエ解析等の周波数解析を行う(ステップS51)。   If it is determined in step S32 that the average pixel value AveL is not less than the predetermined lower limit value L1 and not more than the predetermined upper limit value L2, frequency analysis such as Fourier analysis is performed (step S51).

次に、周波数解析の結果に基づいて、所定の周波数成分(例えば、被写体の模様や輪郭等に係る適宜の高周波成分)が、所定値以上存在するか否かを判定する(ステップS52)。   Next, based on the result of the frequency analysis, it is determined whether or not a predetermined frequency component (for example, an appropriate high-frequency component related to the pattern or contour of the subject) is greater than or equal to a predetermined value (step S52).

ここで、所定の周波数成分が所定値以上存在すると判定された場合には、ステップS24へ行って第n番目の色の情報は位相差検出に適合すると判定する。   Here, if it is determined that the predetermined frequency component is greater than or equal to the predetermined value, the process goes to step S24 to determine that the nth color information is suitable for phase difference detection.

一方、ステップS32において、平均画素値AveLが所定の下限値L1未満もしくは所定の上限値L2よりも大きいと判定された場合、またはステップS52において、所定の周波数成分が所定値未満であると判定された場合には、ステップS25へ行って第n番目の色の情報は位相差検出に不適合であると判定する。   On the other hand, when it is determined in step S32 that the average pixel value AveL is less than the predetermined lower limit value L1 or larger than the predetermined upper limit value L2, or in step S52, it is determined that the predetermined frequency component is less than the predetermined value. If YES in step S25, the flow advances to step S25 to determine that the nth color information is incompatible with phase difference detection.

その後、ステップS26の処理を行い、ステップS26の判定結果に応じてステップS27の処理へ進むか、またはこの位相差検出エリアの各色の適合判定の処理から図15に示した処理に復帰する。   Thereafter, the process of step S26 is performed, and the process proceeds to the process of step S27 according to the determination result of step S26, or the process returns to the process shown in FIG. 15 from the compatibility determination process of each color in the phase difference detection area.

なお、図16から図19を参照して、位相差検出エリアの各色の適合判定の処理の幾つかの例を説明したが、これらに限らず、その他の処理を用いても構わない。   In addition, with reference to FIG. 16 to FIG. 19, some examples of the compatibility determination process of each color in the phase difference detection area have been described. However, the present invention is not limited thereto, and other processes may be used.

次に、図20は図15のステップS5の適合色の組選択の処理の第1の例を示すフローチャートである。   Next, FIG. 20 is a flowchart showing a first example of the process of selecting a set of compatible colors in step S5 of FIG.

この処理を開始すると、色信号選択部51が、位相差検出エリアにおける、位相差検出に適合すると判定された各適合色の平均画素値を、上述した数式1を用いて算出する(ステップS61)。ただし、ステップS3の処理を図17〜図19の何れかにより行った場合には、既に計算結果が存在しているために、その計算結果を利用しても良い。   When this processing is started, the color signal selection unit 51 calculates the average pixel value of each compatible color determined to be suitable for phase difference detection in the phase difference detection area using the above-described Equation 1 (step S61). . However, when the process of step S3 is performed according to any of FIGS. 17 to 19, since the calculation result already exists, the calculation result may be used.

次に、色信号選択部51が、平均画素値の上位2色画像(平均画素値が最も大きい色画像と2番目に大きい色画像との組み合わせ)を、位相差検出に用いる1組の色画像として選択して(ステップS62)、この適合色の組選択の処理から図15に示した処理に復帰する。   Next, the color signal selection unit 51 uses the upper two color images with the average pixel value (a combination of the color image with the largest average pixel value and the second largest color image) as one set of color images for phase difference detection. Is selected (step S62), and the process returns to the process shown in FIG.

続いて、図21は図15のステップS5の適合色の組選択の処理の第2の例を示すフローチャートである。   Next, FIG. 21 is a flowchart showing a second example of the process of selecting a suitable color set in step S5 of FIG.

この処理を開始すると、色信号選択部51が、位相差検出エリアにおける、位相差検出に適合すると判定された各適合色の中から、瞳領域を通過する際の重心位置が最も離れた2色を、位相差検出に用いる1組の色として選択して(ステップS71)、この適合色の組選択の処理から図15に示した処理に復帰する。   When this process is started, the color signal selection unit 51 selects the two colors having the most distant center of gravity when passing through the pupil region from among the compatible colors determined to be suitable for the phase difference detection in the phase difference detection area. Are selected as a set of colors used for phase difference detection (step S71), and the process returns to the process shown in FIG.

なお、図20および図21を参照して、適合色の組選択の処理の幾つかの例を説明したが、これらに限らず、その他の処理を用いても構わない。例えば、色信号選択部51は、位相差適合判定部41の判定結果に基づいて、最も位相差検出に適合する2色を選択しても良い。   20 and 21 have been described with reference to some examples of the process of selecting a set of compatible colors, but the present invention is not limited to these, and other processes may be used. For example, the color signal selection unit 51 may select two colors most suitable for phase difference detection based on the determination result of the phase difference matching determination unit 41.

具体的には、位相差適合判定部41が図16に示す処理を行う場合には、k×maxL以上の画素値の画素が最も高い割合で存在する2色を選択することが考えられる。   Specifically, when the phase difference matching determination unit 41 performs the processing shown in FIG. 16, it is conceivable to select two colors in which pixels having pixel values equal to or larger than k × maxL exist at the highest ratio.

また、位相差適合判定部41が図17に示す処理を行う場合には、平均画素値AveLが下限値L1以上かつ上限値L2以下である色の中から、標準偏差σが最も大きい2色を選択することが考えられる。   When the phase difference matching determination unit 41 performs the process shown in FIG. 17, two colors having the largest standard deviation σ are selected from among colors having an average pixel value AveL that is not less than the lower limit value L1 and not more than the upper limit value L2. It is possible to choose.

さらに、位相差適合判定部41が図18に示す処理を行う場合には、平均画素値AveLが下限値L1以上かつ上限値L2以下である色の中から、エッジ量|V|が最も大きい2色を選択することが考えられる。   Further, when the phase difference matching determination unit 41 performs the processing shown in FIG. 18, the edge amount | V | is the largest among the colors having the average pixel value AveL that is not less than the lower limit value L1 and not more than the upper limit value L2. It is conceivable to select a color.

加えて、位相差適合判定部41が図19に示す処理を行う場合には、平均画素値AveLが下限値L1以上かつ上限値L2以下である色の中から、所定の周波数成分が最も大きい2色を選択することが考えられる。   In addition, when the phase difference matching determination unit 41 performs the process shown in FIG. 19, the predetermined frequency component having the largest predetermined frequency component is selected from the colors having the average pixel value AveL that is not less than the lower limit value L1 and not more than the upper limit value L2. It is conceivable to select a color.

このような実施形態1によれば、帯域制限フィルタ12に構成されている3以上の透過帯域の中から、位相差検出に最も適した2つの帯域を選択して、選択した2つの帯域の色画像を用いて位相差検出を行うようにしたために、撮像素子から得られた画像に基づいて、より信頼性の高い距離情報を取得することが可能となる。   According to the first embodiment, the two bands most suitable for phase difference detection are selected from the three or more transmission bands configured in the band limiting filter 12, and the colors of the selected two bands are selected. Since the phase difference detection is performed using the image, it becomes possible to acquire more reliable distance information based on the image obtained from the image sensor.

そして、位相差検出に適した色が2色以上検出されない場合には、コントラストAFを行うようにしたために、位相差検出に適さない被写体であっても被写体距離を測定することができる。   When two or more colors suitable for phase difference detection are not detected, contrast AF is performed, so that the subject distance can be measured even for a subject that is not suitable for phase difference detection.

色画像が位相差検出に適するか否かを、画素値として取り得る最大画素値maxLに1未満の所定値kを掛けた値以上の画素値の画素が、位相差検出エリア内の全ての第n番目の色の画素の所定割合以上あるか否かに基づき判定する場合には、処理が簡便となる利点がある。   Whether or not the color image is suitable for phase difference detection is determined by determining whether or not pixels having a pixel value equal to or greater than the maximum pixel value maxL that can be taken as the pixel value multiplied by a predetermined value k less than 1 are all in the phase difference detection area. When the determination is made based on whether or not the predetermined number of pixels of the nth color is present, there is an advantage that the processing is simple.

また、色画像が位相差検出に適するか否かを、平均画素値および標準偏差に基づき判定する場合には、画素値変化の少ない平坦な被写体を位相差検出の対象から容易に排除することが可能となる。   Further, when determining whether or not a color image is suitable for phase difference detection based on the average pixel value and standard deviation, it is possible to easily exclude a flat subject having a small change in pixel value from a phase difference detection target. It becomes possible.

さらに、色画像が位相差検出に適するか否かを、平均画素値およびエッジ量に基づき判定する場合には、エッジが少ない被写体を位相差検出の対象から容易に排除することが可能となる。   Furthermore, when determining whether or not a color image is suitable for phase difference detection based on the average pixel value and the edge amount, it is possible to easily exclude a subject having few edges from the phase difference detection target.

そして、色画像が位相差検出に適するか否かを、平均画素値および周波数成分に基づき判定する場合には、高周波成分等が少ない被写体を位相差検出の対象から容易に排除することが可能となる。   When determining whether or not a color image is suitable for phase difference detection based on the average pixel value and frequency component, it is possible to easily exclude a subject with few high-frequency components from the phase difference detection target. Become.

加えて、3色以上の適合色がある場合に、平均画素値の上位2色を位相差検出に用いることで、最も明るい2つの色画像に基づいて、信頼性の高い位相差検出を行うことができる。   In addition, when there are three or more compatible colors, the top two colors of the average pixel value are used for phase difference detection, so that reliable phase difference detection is performed based on the two brightest color images. Can do.

また、3色以上の適合色がある場合に、瞳領域を通過する際の重心位置が最も離れた2色を位相差検出に用いることで、最も精度の高い位相差検出を、高い信頼性で行うことができる。
[実施形態2]
In addition, when there are three or more compatible colors, the two colors with the most distant center of gravity when passing through the pupil region are used for phase difference detection, so that the most accurate phase difference detection can be performed with high reliability. It can be carried out.
[Embodiment 2]

図22および図23は本発明の実施形態2を示したものであり、図22は撮像装置における測距の処理を示すフローチャート、図23は位相差AF部42の構成を示すブロック図である。この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。   22 and FIG. 23 show the second embodiment of the present invention. FIG. 22 is a flowchart showing the distance measuring process in the imaging apparatus, and FIG. 23 is a block diagram showing the configuration of the phase difference AF unit 42. In the second embodiment, parts that are the same as those in the first embodiment are given the same reference numerals and description thereof is omitted, and only differences are mainly described.

上述した実施形態1は、3色以上の適合色がある場合に、その中から最も位相差検出に適した2色を選択して、選択した2色の相関値グラフを作成し、作成した相関値グラフに基づき位相差検出を行うものとなっていた。これに対して、本実施形態2は、全ての適合色の組み合わせの相関値グラフを作成し、最も高い相関値を与える相関値グラフに基づき、より信頼性の高い位相差検出を行うものとなっている。   In the above-described first embodiment, when there are three or more compatible colors, two colors most suitable for phase difference detection are selected from them, a correlation value graph of the selected two colors is created, and the created correlation The phase difference is detected based on the value graph. On the other hand, the second embodiment creates a correlation value graph of all the matching color combinations, and performs more reliable phase difference detection based on the correlation value graph giving the highest correlation value. ing.

従って、本実施形態の位相差AF部42は、図23に示すように、色信号選択部51が省略されたものとなっている。   Therefore, the phase difference AF unit 42 of the present embodiment is one in which the color signal selection unit 51 is omitted as shown in FIG.

次に、図22を参照して、撮像装置における測距の処理を説明する。   Next, distance measurement processing in the imaging apparatus will be described with reference to FIG.

この処理を開始すると、上述したステップS1〜S4の処理を行う。   When this process is started, the above-described steps S1 to S4 are performed.

そして、ステップS4において、3色以上の画像が位相差検出に適合すると判定された場合には、AF制御部38が、ステップS3において適合色であると判定された全ての色画像の組み合わせについて、位相差AF部42に相関値グラフを作成させる(ステップS81)。適合色の数がn(nは3以上の整数)であるとすると、ここで作成される相関値グラフの数は、nC2個となる。また、以下では、図14に示すようなZNCC方式を採用する場合、つまり相関値が高いほど相関性が高いことを示す場合を例に挙げて説明する。   If it is determined in step S4 that the image of three or more colors is suitable for phase difference detection, the AF control unit 38 determines the combination of all the color images determined to be compatible in step S3. The phase difference AF unit 42 is caused to create a correlation value graph (step S81). If the number of matching colors is n (n is an integer of 3 or more), the number of correlation value graphs created here is nC2. In the following, a case where the ZNCC method as shown in FIG. 14 is adopted, that is, a case where the correlation value is higher as the correlation value is higher will be described as an example.

ZNCC方式の場合には、nC2個の相関値グラフのそれぞれに、ピーク、つまり相関値の最大値が存在する。そこで、AF制御部38の制御により位相差AF部42が、これらnC2個の相関値の最大値の中で、最も大きい相関値を与える相関値グラフを、位相差検出に用いる相関値グラフとして選択する(ステップS82)。   In the case of the ZNCC method, a peak, that is, a maximum correlation value exists in each of the nC2 correlation value graphs. Therefore, under the control of the AF control unit 38, the phase difference AF unit 42 selects a correlation value graph that gives the largest correlation value among the maximum values of these nC2 correlation values as a correlation value graph used for phase difference detection. (Step S82).

そして、AF制御部38の制御により位相差演算部53が、選択した相関値グラフにおける最大相関値を与える像ずれ量に基づき、位相差(ひいては、被写体距離)を取得する(ステップS83)。   Then, under the control of the AF control unit 38, the phase difference calculation unit 53 acquires the phase difference (and consequently the subject distance) based on the image shift amount that gives the maximum correlation value in the selected correlation value graph (step S83).

一方、ステップS4において、位相差検出に適合する色画像が3色未満であると判定された場合には、上述したステップS10の処理を行って、AF制御部38が、2色の色画像のみが位相差検出に適合するか否かを判定する。   On the other hand, if it is determined in step S4 that the number of color images suitable for phase difference detection is less than three, the process in step S10 described above is performed, and the AF control unit 38 performs only two color images. Determines whether or not is suitable for phase difference detection.

ここで、2色の色画像のみが位相差検出に適合すると判定された場合には、AF制御部38の制御により位相差演算部53が、適合すると判定された2色の色画像の位相差(ひいては、被写体距離)を取得する(ステップS84)。   If it is determined that only two color images are suitable for phase difference detection, the phase difference calculation unit 53 is controlled by the AF control unit 38 to detect the phase difference between the two color images determined to be compatible. (As a result, the subject distance) is acquired (step S84).

また、ステップS10において、位相差検出に適合する色画像が2色未満であると判定された場合には、AF制御部38が、1色の色画像のみが位相差検出に適合するか否かを判定する(ステップS85)。   If it is determined in step S10 that the number of color images suitable for phase difference detection is less than two, the AF control unit 38 determines whether only one color image is suitable for phase difference detection. Is determined (step S85).

ここで、1色の色画像のみが位相差検出に適合すると判定された場合には、AF制御部38の制御により位相差演算部53が、適合色と、不適合各色との間の相関値グラフを作成する(ステップS86)。上述したような、独立した色瞳重心位置の数がmaxNの場合には、ここで作成される相関値グラフの数は、(maxN−1)個となる。   Here, when it is determined that only one color image is suitable for phase difference detection, the phase difference calculation unit 53 controls the correlation value graph between the compatible color and the non-conforming color under the control of the AF control unit 38. Is created (step S86). When the number of independent color pupil centroid positions as described above is maxN, the number of correlation value graphs created here is (maxN-1).

次に、AF制御部38が、作成された(maxN−1)個の相関値グラフのそれぞれに存在する相関値の最大値の中から、最も大きい相関値を取得する(ステップS87)。   Next, the AF control unit 38 acquires the largest correlation value from the maximum correlation values existing in each of the created (maxN−1) correlation value graphs (step S87).

そして、取得した最大相関値が所定値(例えば、ZNCC方式において0.7あるいは0.8等)以上であるか否かに基づき、AF制御部38が、位相差検出が可能であるか否かを判定する(ステップS88)。   Whether or not the AF control unit 38 can detect the phase difference based on whether or not the acquired maximum correlation value is equal to or greater than a predetermined value (for example, 0.7 or 0.8 in the ZNCC method). Is determined (step S88).

ここで、位相差検出が可能であると判定された場合には、AF制御部38の制御により位相差AF部42が、最大相関値を与える相関値グラフを、位相差検出に用いる相関値グラフとして選択して(ステップS89)、選択した相関値グラフにおける最大相関値を与える像ずれ量に基づき、AF制御部38の制御により位相差演算部53が、位相差(ひいては、被写体距離)を取得する(ステップS90)。   Here, if it is determined that the phase difference can be detected, the phase difference AF unit 42 uses the correlation value graph that gives the maximum correlation value under the control of the AF control unit 38 as the correlation value graph used for the phase difference detection. (Step S89), and based on the image shift amount giving the maximum correlation value in the selected correlation value graph, the phase difference calculation unit 53 obtains the phase difference (and hence the subject distance) under the control of the AF control unit 38. (Step S90).

ステップS83,S84,またはS90の何れかの処理により位相差(ひいては、被写体距離)が取得されたら、上述したステップS7の処理を行って、AF制御部38の制御により基準補正部52が、取得された位相差を、選択した2色に係る光がレンズ10の瞳領域を通過する際の重心距離に合わせて補正する。   When the phase difference (and thus the subject distance) is acquired by any of the processes of steps S83, S84, or S90, the process of step S7 described above is performed, and the reference correction unit 52 is acquired by the control of the AF control unit 38. The phase difference thus corrected is corrected in accordance with the center-of-gravity distance when the light related to the selected two colors passes through the pupil region of the lens 10.

さらに、ステップS8において合焦判定を行い、合焦していないと判定された場合にはステップS9の処理へ進む。   Furthermore, in-focus determination is performed in step S8, and if it is determined that it is not in focus, the process proceeds to step S9.

また、ステップS85において位相差検出に適合する色画像がないと判定された場合、またはステップS88において位相差検出が可能でないと判定された場合には、ステップS11のコントラストAFへ進む。   If it is determined in step S85 that there is no color image suitable for phase difference detection, or if it is determined in step S88 that phase difference detection is not possible, the process proceeds to contrast AF in step S11.

こうして、ステップS11の処理が終了するか、またはステップS8において合焦したと判定された場合には、この測距の処理を終了する。   In this way, the process of step S11 ends, or if it is determined in step S8 that the in-focus state is obtained, the distance measurement process ends.

このような実施形態2によれば、適合色の組選択に係る効果等を除いて上述した実施形態1とほぼ同様の効果を奏するとともに、全ての適合色の組み合わせの相関値グラフを作成して、最も高い相関値を与える相関値グラフを選択し、選択した相関値グラフに基づき位相差検出を行うようにしたために、実際の相関性が高い、つまり信頼性の高い、位相差検出を行うことができる。
[実施形態3]
According to the second embodiment, the effects similar to those of the first embodiment described above except for the effect related to the selection of the matching color set are obtained, and the correlation value graph of all the matching color combinations is created. Since the correlation value graph that gives the highest correlation value is selected and phase difference detection is performed based on the selected correlation value graph, phase difference detection is performed with high actual correlation, that is, high reliability. Can do.
[Embodiment 3]

図24から図30は本発明の実施形態3を示したものであり、図24は撮像装置における測距の処理を示すフローチャート、図25はR画像とB画像の相関値グラフの例を示す図、図26はR画像とG画像の相関値グラフの例を示す図、図27はG画像とB画像の相関値グラフの例を示す図、図28は水平軸をR画像とB画像の相関値グラフに合わせてリスケーリングしたR画像とG画像の補正相関値グラフの例を示す図、図29は水平軸をR画像とB画像の相関値グラフに合わせてリスケーリングしたG画像とB画像の補正相関値グラフの例を示す図、図30はR画像とB画像の相関値グラフと、R画像とG画像の補正相関値グラフと、G画像とB画像の補正相関値グラフと、を加算して得られる加算相関値グラフの例を示す図である。   FIGS. 24 to 30 show the third embodiment of the present invention, FIG. 24 is a flowchart showing distance measurement processing in the imaging apparatus, and FIG. 25 is a diagram showing an example of a correlation value graph of an R image and a B image. 26 is a diagram illustrating an example of a correlation value graph between an R image and a G image, FIG. 27 is a diagram illustrating an example of a correlation value graph between a G image and a B image, and FIG. 28 is a correlation between the R image and the B image on the horizontal axis. FIG. 29 is a diagram illustrating an example of a corrected correlation value graph of an R image and a G image that has been rescaled according to a value graph, and FIG. 29 illustrates a G image and a B image that are rescaled according to the correlation value graph of an R image and a B image. FIG. 30 is a diagram illustrating an example of the corrected correlation value graph of FIG. 30. FIG. 30 illustrates a correlation value graph of the R image and the B image, a corrected correlation value graph of the R image and the G image, and a corrected correlation value graph of the G image and the B image. It is a figure which shows the example of the addition correlation value graph obtained by adding.

この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。   In the third embodiment, parts that are the same as those in the first and second embodiments are given the same reference numerals, description thereof is omitted, and only differences are mainly described.

上述した実施形態1,2は、3色以上の適合色がある場合に、3色以上の色画像の中から選択した2つの色画像の組み合わせの相関値に基づき被写体までの距離を演算するものであり、(2色を選択してから相関値グラフを作成するか、相関値グラフを作成してから2色を実質的に選択するかの違いはあるものの)3色以上の中から最も位相差検出に適した2色を実質的に選択するものとなっていた。これに対して、本実施形態3は、3色以上の色画像の全ての2つの色画像の組み合わせの相関値に基づき被写体までの距離を演算するものであり、全ての適合色の画像情報を統合的に用いて(全ての適合色の組み合わせの相関値グラフを作成して、作成した相関値グラフを統合することにより)、より信頼性の高い位相差検出を行うものとなっている。   In the first and second embodiments, when there are three or more compatible colors, the distance to the subject is calculated based on the correlation value of the combination of two color images selected from the three or more color images. (There is a difference between selecting two colors and then creating a correlation value graph, or creating a correlation value graph and then substantially selecting two colors.) Two colors suitable for phase difference detection are substantially selected. On the other hand, in the third embodiment, the distance to the subject is calculated based on the correlation value of the combination of all two color images of three or more color images. It is used in an integrated manner (by creating correlation value graphs for all combinations of matching colors and integrating the created correlation value graphs) to perform more reliable phase difference detection.

従って、本実施形態の位相差AF部42は、上述した実施形態2の図23に示したものと同様に、色信号選択部51が省略されたものとなっている。   Therefore, in the phase difference AF unit 42 of the present embodiment, the color signal selection unit 51 is omitted as in the case of the above-described second embodiment shown in FIG.

また、上述した実施形態1,2の基準補正部52は、位相差量または被写体距離を重心距離に応じて補正するものであったが、本実施形態の基準補正部52は、後述するようにさらに、相関値グラフを、重心距離に応じて、水平方向(像ずれ量軸の方向)にリスケーリング(つまり、同一スケールとなるように補正)するものとなっている。   Further, the reference correction unit 52 of the first and second embodiments described above corrects the phase difference amount or the subject distance according to the center-of-gravity distance, but the reference correction unit 52 of the present embodiment will be described later. Furthermore, the correlation value graph is rescaled (that is, corrected so as to have the same scale) in the horizontal direction (the direction of the image shift amount axis) according to the center-of-gravity distance.

次に、図24を参照して、撮像装置における測距の処理を説明する。   Next, distance measurement processing in the imaging apparatus will be described with reference to FIG.

この処理を開始すると、上述したステップS1〜S4の処理を行う。   When this process is started, the above-described steps S1 to S4 are performed.

そして、ステップS4において、3色以上の画像が位相差検出に適合すると判定された場合には、上述したステップS81の処理を行い、適合色の数がn(nは3以上の整数)であるとすると、nC2個の相関値グラフを作成する。ここに、図4に示したような帯域制限フィルタ12を用いた場合に、図25に示すようなR画像とB画像の相関値グラフと、図26に示すようなR画像とG画像の相関値グラフと、図27に示すようなG画像とB画像の相関値グラフとが得られたものとする。   If it is determined in step S4 that an image of three or more colors is suitable for phase difference detection, the process of step S81 described above is performed, and the number of compatible colors is n (n is an integer of 3 or more). Then, nC2 correlation value graphs are created. When the band limiting filter 12 as shown in FIG. 4 is used, the correlation value graph between the R image and the B image as shown in FIG. 25 and the correlation between the R image and the G image as shown in FIG. It is assumed that a value graph and a correlation value graph between the G image and the B image as shown in FIG. 27 are obtained.

図4に示したような帯域制限フィルタ12は、重心距離Drgおよび重心距離Dgbが、重心距離Drbの半分となる。従って、図26に示すRG相関値グラフおよび図27に示すGB相関値グラフは、水平方向(像ずれ量軸の方向)のスケールが、図25に示すRB相関値グラフの半分となる。   In the band limiting filter 12 as shown in FIG. 4, the centroid distance Drg and the centroid distance Dgb are half of the centroid distance Drb. Therefore, in the RG correlation value graph shown in FIG. 26 and the GB correlation value graph shown in FIG. 27, the scale in the horizontal direction (the direction of the image shift amount axis) is half that of the RB correlation value graph shown in FIG.

そこで、例えばRB相関値グラフを基準として、AF制御部38の制御により基準補正部52が、図26に示すRG相関値グラフおよび図27に示すGB相関値グラフを、重心距離に応じて、水平方向(像ずれ量軸の方向)にリスケーリングする(ステップS101)。このリスケーリングにより、例えば、図28に示すようなRG補正相関値グラフおよび図29に示すようなGB補正相関値グラフが得られたものとする(図28、図29において、リスケーリングされた相関値グラフRG,GBを、RG’,GB’として表している)。   Therefore, for example, based on the RB correlation value graph, the reference correction unit 52 controls the RG correlation value graph shown in FIG. 26 and the GB correlation value graph shown in FIG. Rescaling in the direction (direction of the image shift amount axis) (step S101). By this rescaling, it is assumed that, for example, an RG correction correlation value graph as shown in FIG. 28 and a GB correction correlation value graph as shown in FIG. 29 are obtained (the rescaled correlations in FIGS. 28 and 29). The value graphs RG and GB are represented as RG ′ and GB ′).

次に、AF制御部38の制御により位相差AF部42が、図25に示すRB相関値グラフと、図28に示すRG補正相関値グラフと、図29に示すGB補正相関値グラフと、を加算して、図30に示すような加算相関値グラフを統合相関値グラフとして作成する(ステップS102)。   Next, under the control of the AF control unit 38, the phase difference AF unit 42 generates an RB correlation value graph shown in FIG. 25, an RG correction correlation value graph shown in FIG. 28, and a GB correction correlation value graph shown in FIG. Addition is performed to create an addition correlation value graph as shown in FIG. 30 as an integrated correlation value graph (step S102).

そして、作成した加算相関値グラフに基づいて、AF制御部38の制御により位相差演算部53が、位相差(ひいては、被写体距離)を取得する(ステップS103)。   Then, based on the created addition correlation value graph, the phase difference calculation unit 53 acquires the phase difference (and hence the subject distance) under the control of the AF control unit 38 (step S103).

一方、ステップS4において、位相差検出に適合する色画像が3色未満であると判定された場合には、上述したステップS10の処理を行って、AF制御部38が、2色の色画像のみが位相差検出に適合するか否かを判定する。   On the other hand, if it is determined in step S4 that the number of color images suitable for phase difference detection is less than three, the process in step S10 described above is performed, and the AF control unit 38 performs only two color images. Determines whether or not is suitable for phase difference detection.

ここで、2色の色画像のみが位相差検出に適合すると判定された場合には、AF制御部38の制御により位相差演算部53が、上述したステップS84の処理を行って、適合すると判定された2色の色画像の位相差(ひいては、被写体距離)を取得し、上述したステップS7の処理を行って、AF制御部38の制御により基準補正部52が、取得された位相差を、選択した2色に係る光がレンズ10の瞳領域を通過する際の重心距離に合わせて補正する。   Here, when it is determined that only two color images are suitable for phase difference detection, the phase difference calculation unit 53 performs the process of step S84 described above under the control of the AF control unit 38 and determines that it is suitable. The phase difference (and consequently the subject distance) between the two color images thus obtained is acquired, the process of step S7 described above is performed, and the reference correction unit 52 controls the AF control unit 38 to obtain the acquired phase difference. Correction is performed in accordance with the center-of-gravity distance when the light of the selected two colors passes through the pupil region of the lens 10.

また、ステップS10において、位相差検出に適合する色画像が2色未満であると判定された場合には、上述したステップS85の処理を行って、AF制御部38が、1色の色画像のみが位相差検出に適合するか否かを判定する。   If it is determined in step S10 that the number of color images suitable for phase difference detection is less than two, the process in step S85 described above is performed, and the AF control unit 38 performs only one color image. Determines whether or not is suitable for phase difference detection.

ここで、1色の色画像のみが位相差検出に適合すると判定された場合には、上述したステップS86の処理を行って、AF制御部38の制御により位相差演算部53が、適合色と、不適合各色との間の相関値グラフを作成する。上述したような、独立した色瞳重心位置の数がmaxNの場合には、ここで作成される相関値グラフの数は、(maxN−1)個となる。   If it is determined that only one color image is suitable for phase difference detection, the process of step S86 described above is performed, and the phase difference calculation unit 53 is controlled by the AF control unit 38 to match the matching color. Create a correlation graph between each non-conforming color. When the number of independent color pupil centroid positions as described above is maxN, the number of correlation value graphs created here is (maxN-1).

次に、AF制御部38の制御により基準補正部52が、作成された(maxN−1)個の相関値グラフを、上述したステップS101の処理と同様に、重心距離に応じて、水平方向(像ずれ量軸の方向)にリスケーリングする(ステップS104)。   Next, the reference correction unit 52 controls the generated (maxN−1) correlation value graphs in the horizontal direction (in the horizontal direction (according to the centroid distance) in the same manner as in step S101 described above. Rescaling is performed in the direction of the image displacement amount axis (step S104).

さらに、AF制御部38の制御により位相差AF部42が、上述したステップS102の処理と同様に、リスケーリング後の(maxN−1)個の相関値グラフを加算して、加算相関値グラフを統合相関値グラフとして作成する(ステップS105)。   Further, under the control of the AF control unit 38, the phase difference AF unit 42 adds (maxN−1) correlation value graphs after rescaling in the same manner as in the process of step S102 described above, thereby obtaining an added correlation value graph. An integrated correlation value graph is created (step S105).

そして、AF制御部38が、作成した加算相関値グラフから、最大相関値を取得する(ステップS106)。   Then, the AF control unit 38 acquires the maximum correlation value from the created addition correlation value graph (step S106).

続いて、上述したステップS88の処理と同様に、取得した最大相関値が所定値(例えば、ZNCC方式において0.7×(maxN−1)あるいは0.8×(maxN−1)等)以上であるか否かに基づき、AF制御部38が、位相差検出が可能であるか否かを判定する。ただし、ここでは図22のステップS88の処理と異なり、最大相関値と比較する所定値が、相関値グラフの加算数倍[(maxN−1)倍]されている点が異なっている。   Subsequently, the acquired maximum correlation value is equal to or greater than a predetermined value (for example, 0.7 × (maxN−1) or 0.8 × (maxN−1) in the ZNCC method) as in the process of step S88 described above. Based on whether or not there is, the AF control unit 38 determines whether or not the phase difference can be detected. However, here, unlike the process of step S88 of FIG. 22, the difference is that the predetermined value to be compared with the maximum correlation value is multiplied by [(maxN-1) times] the correlation value graph.

ここで、位相差検出が可能であると判定された場合には、AF制御部38の制御により位相差演算部53が、加算相関値グラフに基づき位相差を取得する(ステップS107)。   If it is determined that the phase difference can be detected, the phase difference calculation unit 53 acquires the phase difference based on the addition correlation value graph under the control of the AF control unit 38 (step S107).

ステップS103,S7,またはS107の何れかの処理により位相差(ひいては、被写体距離)が取得されたら、ステップS8において合焦判定を行い、合焦していないと判定された場合にはステップS9の処理へ進む。   When the phase difference (and hence the subject distance) is acquired by any one of the processes in steps S103, S7, or S107, the focus determination is performed in step S8. If it is determined that the subject is not in focus, the process proceeds to step S9. Proceed to processing.

また、ステップS85において位相差検出に適合する色画像がないと判定された場合、またはステップS88において位相差検出が可能でないと判定された場合には、ステップS11のコントラストAFへ進む。   If it is determined in step S85 that there is no color image suitable for phase difference detection, or if it is determined in step S88 that phase difference detection is not possible, the process proceeds to contrast AF in step S11.

こうして、ステップS11の処理が終了するか、またはステップS8において合焦したと判定された場合には、この測距の処理を終了する。   In this way, the process of step S11 ends, or if it is determined in step S8 that the in-focus state is obtained, the distance measurement process ends.

なお、上述では、位相差検出の対象を、全ての相関値グラフを加算した加算相関値グラフとしたが、これに限るものではない。例えば、全ての相関値グラフを平均した平均相関値グラフを統合相関値グラフとして作成し、この平均相関値グラフに基づき位相差検出を行っても構わない。さらに、全ての相関値グラフを統計的に処理(例えば、値が大きく異なる相関値グラフは除外する、あるいは、値の相似性が高い相関値グラフは重み付けを大きくする等)して1つの統合相関値グラフを作成し、この統合相関値グラフに基づき位相差検出を行っても構わない。   In the above description, the phase difference detection target is the addition correlation value graph obtained by adding all the correlation value graphs, but the present invention is not limited to this. For example, an average correlation value graph obtained by averaging all correlation value graphs may be created as an integrated correlation value graph, and phase difference detection may be performed based on the average correlation value graph. Further, all the correlation value graphs are statistically processed (for example, correlation value graphs with greatly different values are excluded, or correlation value graphs with high value similarity are increased in weight, etc.) to provide one integrated correlation. A value graph may be created and phase difference detection may be performed based on the integrated correlation value graph.

このような実施形態3によれば、適合色の組選択に係る効果等を除いて上述した実施形態1,2とほぼ同様の効果を奏するとともに、全ての適合色の組み合わせの相関値グラフを作成して、さらに作成した相関値グラフをリスケーリングした後に加算する等により統合相関値グラフを作成し、作成した統合相関値グラフに基づき位相差検出を行うようにしたために、各色の相関性を総合的に含めた、信頼性の高い位相差検出を行うことができる。   According to the third embodiment as described above, effects similar to those of the first and second embodiments described above except for the effect related to the selection of the matching color set are obtained, and a correlation value graph of all the matching color combinations is created. Then, the correlation value graph created is rescaled and then added to create an integrated correlation value graph, and phase difference detection is performed based on the created integrated correlation value graph. Therefore, highly reliable phase difference detection can be performed.

なお、上述では主として距離測定装置を備えた撮像装置について説明したが、上述したような処理を行う距離測定方法、上述したような処理を行うための距離測定プログラム、該距離測定プログラムを記録するコンピュータにより読み取り可能な記録媒体、等であっても構わない。
また、距離測定をオートフォーカスのために利用している例のみ示したが、本距離測定方法による距離測定結果を、画像処理や立体視画像などに用いてもよい。
In the above description, the imaging apparatus including the distance measuring device has been mainly described. However, the distance measuring method for performing the above-described processing, the distance measuring program for performing the above-described processing, and the computer that records the distance measuring program. It may be a recording medium readable by the above.
Further, although only an example in which distance measurement is used for autofocusing is shown, a distance measurement result by this distance measurement method may be used for image processing, a stereoscopic image, and the like.

また、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

1…レンズユニット
2…ボディユニット
9…撮像光学系
10…レンズ(フォーカスレンズを含む)
11…絞り
12…帯域制限フィルタ
12b…GBフィルタ
12r…RGフィルタ
14…レンズ制御部
15…レンズ側通信コネクタ
21…シャッタ
22…撮像素子(カラーの撮像素子)
23…撮像回路
24…撮像駆動部
25…画像処理部
26…画像メモリ
27…表示部
28…インターフェース(IF)
29…記録媒体
30…システムコントローラ(制御部)
31…センサ部
32…操作部
33…ストロボ制御回路
34…ストロボ
35…ボディ側通信コネクタ
36…色間補正部
37…色画像生成部
38…AF制御部(位相差演算制御部)
39…距離演算部
41…位相差適合判定部
42…位相差AF部(位相差演算部)
43…コントラストAF部
51…色信号選択部
52…基準補正部
53…位相差演算部
DESCRIPTION OF SYMBOLS 1 ... Lens unit 2 ... Body unit 9 ... Imaging optical system 10 ... Lens (a focus lens is included)
DESCRIPTION OF SYMBOLS 11 ... Diaphragm 12 ... Band-limiting filter 12b ... GB filter 12r ... RG filter 14 ... Lens control part 15 ... Lens side communication connector 21 ... Shutter 22 ... Image sensor (color image sensor)
DESCRIPTION OF SYMBOLS 23 ... Imaging circuit 24 ... Imaging drive part 25 ... Image processing part 26 ... Image memory 27 ... Display part 28 ... Interface (IF)
29 ... Recording medium 30 ... System controller (control unit)
DESCRIPTION OF SYMBOLS 31 ... Sensor part 32 ... Operation part 33 ... Strobe control circuit 34 ... Strobe 35 ... Body side communication connector 36 ... Intercolor correction part 37 ... Color image generation part 38 ... AF control part (phase difference calculation control part)
39 ... Distance calculation unit 41 ... Phase difference suitability determination unit 42 ... Phase difference AF unit (phase difference calculation unit)
43 ... Contrast AF unit 51 ... Color signal selection unit 52 ... Reference correction unit 53 ... Phase difference calculation unit

Claims (17)

3つ以上の波長帯域の光をそれぞれ受光して光電変換し、該波長帯域毎の色画像を生成する撮像素子と、
前記波長帯域の光を、前記撮像素子に被写体像として結像する撮像光学系と、
前記撮像光学系の瞳領域をそれぞれ通過する際の光量の重心位置を、3つ以上に異ならせる帯域制限フィルタと、
前記撮像素子から得られた複数の前記色画像の、前記重心位置の相違に起因する位相差量に基づき被写体までの距離を演算する位相差演算部と、
前記撮像素子から得られた前記色画像が、前記位相差演算部が演算に用いる色画像として適しているか否かを判定する位相差適合判定部と、
前記位相差適合判定部により適していると判定された色画像の数が3つ以上である場合に、前記位相差演算部に、該3つ以上の色画像の中から選択した2つの色画像の組み合わせの相関値、または該3つ以上の色画像のうち、2つの色画像の全ての組み合わせの相関値に基づき、前記被写体までの距離を演算させる位相差演算制御部と、
を具備したことを特徴とする距離測定装置。
An image sensor that receives and photoelectrically converts light in three or more wavelength bands, and generates a color image for each wavelength band; and
An imaging optical system that forms light of the wavelength band as a subject image on the imaging device;
A band limiting filter that varies the center of gravity of the amount of light when passing through the pupil region of the imaging optical system to three or more,
A phase difference calculation unit that calculates a distance to a subject based on a phase difference amount caused by a difference in the center of gravity of the plurality of color images obtained from the image sensor;
A phase difference suitability determining unit that determines whether or not the color image obtained from the image sensor is suitable as a color image used by the phase difference calculating unit;
Two color images selected from the three or more color images in the phase difference calculation unit when the number of color images determined to be suitable by the phase difference matching determination unit is three or more. A phase difference calculation control unit that calculates a distance to the subject based on a correlation value of a combination of the above or a correlation value of all combinations of two color images among the three or more color images;
A distance measuring device comprising:
前記位相差適合判定部により適していると判定された色画像の中から、2つの色画像の組み合わせを選択する色信号選択部をさらに具備し、
前記位相差演算制御部は、前記色信号選択部により選択された2つの色画像の組み合わせの相関値に基づき、前記位相差演算部に前記被写体までの距離を演算させることを特徴とする請求項1に記載の距離測定装置。
A color signal selection unit that selects a combination of two color images from the color images determined to be suitable by the phase difference matching determination unit;
The phase difference calculation control unit causes the phase difference calculation unit to calculate a distance to the subject based on a correlation value of a combination of two color images selected by the color signal selection unit. The distance measuring apparatus according to 1.
前記位相差演算制御部は、前記位相差演算部に、前記位相差適合判定部により前記位相差演算に適していると判定された色画像の中の2つの色画像の組み合わせの全てについて、最大相関値をそれぞれ算出させ、これら複数の最大相関値の中のさらに最大相関値を与える2つの色画像の組み合わせに基づき、前記被写体までの距離を演算させることを特徴とする請求項1に記載の距離測定装置。   The phase difference calculation control unit has a maximum of all combinations of two color images in the color images determined to be suitable for the phase difference calculation by the phase difference matching determination unit. 2. The distance to the subject is calculated based on a combination of two color images that respectively calculate correlation values and give a maximum correlation value among the plurality of maximum correlation values. Distance measuring device. 前記位相差演算制御部は、前記位相差適合判定部により前記位相差演算に適していると判定された色画像が1つのみである場合に、前記位相差演算部に前記位相差演算に適していると判定された色画像と前記位相差演算に適している判定されなかった色画像との組み合わせの全てについて最大相関値をそれぞれ算出させ、これら複数の該最大相関値の中のさらに最大相関値を与える2つの色画像の組み合わせに基づき、前記被写体までの距離を演算させることを特徴とする請求項3に記載の距離測定装置。   The phase difference calculation control unit is suitable for the phase difference calculation in the phase difference calculation unit when only one color image is determined to be suitable for the phase difference calculation by the phase difference matching determination unit. A maximum correlation value is calculated for each combination of the color image determined to be suitable and the color image not determined suitable for the phase difference calculation, and the maximum correlation among the plurality of maximum correlation values is calculated. 4. The distance measuring apparatus according to claim 3, wherein a distance to the subject is calculated based on a combination of two color images giving values. 前記位相差演算部により演算される位相差量または被写体までの距離を、前記位相差演算の対象とした2つの色画像に係る光が前記瞳領域を通過する際の光量の重心位置間の重心距離に応じて補正する基準補正部をさらに具備したことを特徴とする請求項2から請求項4の何れか一項に記載の距離測定装置。   The phase difference amount calculated by the phase difference calculation unit or the distance to the subject is the centroid between the centroid positions of the light amounts when the light related to the two color images subjected to the phase difference calculation passes through the pupil region. The distance measuring device according to any one of claims 2 to 4, further comprising a reference correction unit configured to correct according to the distance. 前記位相差演算部は、2つの色画像の組み合わせの、像ずれ量に対する相関値を示す相関値グラフを作成するものであり、
前記位相差演算部により作成された前記相関値グラフを、該相関値グラフを作成する対象とした2つの色画像に係る光が前記瞳領域を通過する際の光量の重心位置間の重心距離に応じて、像ずれ量軸の方向に補正する基準補正部をさらに具備し、
前記位相差演算制御部は、
前記位相差演算部に、前記位相差適合判定部により適していると判定された全ての色画像の中の2つの色画像の組み合わせの全てについて前記相関値グラフを作成させ、
前記基準補正部に、作成された全ての前記相関値グラフを、像ずれ量の軸方向と同一のスケールに補正させ、
前記位相差演算部に、全ての前記相関値グラフを統合させて統合相関値グラフを作成させ、前記統合相関値グラフに基づき、前記被写体までの距離を演算させることを特徴とする請求項1に記載の距離測定装置。
The phase difference calculation unit creates a correlation value graph indicating a correlation value with respect to an image shift amount of a combination of two color images.
The correlation value graph created by the phase difference calculation unit is used as the centroid distance between the centroid positions of the light amounts when the light related to the two color images for which the correlation value graph is created passes through the pupil region. Accordingly, a reference correction unit that corrects in the direction of the image shift amount axis is further provided,
The phase difference calculation control unit is
Causing the phase difference calculation unit to create the correlation value graph for all combinations of two color images among all color images determined to be suitable by the phase difference matching determination unit;
Let the reference correction unit correct all the created correlation value graphs to the same scale as the axial direction of the image shift amount,
2. The phase difference calculation unit is configured to create an integrated correlation value graph by integrating all the correlation value graphs, and to calculate a distance to the subject based on the integrated correlation value graph. The described distance measuring device.
前記位相差演算制御部は、前記位相差適合判定部により適していると判定された色画像が1つである場合に、前記位相差演算部に前記位相差演算に適していると判定された色画像と前記位相差演算に適していると判定されなかった色画像との組み合わせの全てについて前記相関値グラフを作成させることを特徴とする請求項6に記載の距離測定装置。   The phase difference calculation control unit determines that the phase difference calculation unit is suitable for the phase difference calculation when there is one color image determined to be suitable by the phase difference matching determination unit. The distance measuring apparatus according to claim 6, wherein the correlation value graph is created for all combinations of a color image and a color image that has not been determined to be suitable for the phase difference calculation. 前記位相差演算制御部は、前記位相差適合判定部により前記位相差演算に適していると判定された色画像が2つである場合に、前記位相差演算部に、該2つの色画像の組み合わせの相関値に基づき、前記被写体までの距離を演算させることを特徴とする請求項1に記載の距離測定装置。   When there are two color images determined to be suitable for the phase difference calculation by the phase difference suitability determination unit, the phase difference calculation control unit causes the phase difference calculation unit to store the two color images. The distance measuring apparatus according to claim 1, wherein a distance to the subject is calculated based on a combination correlation value. 前記撮像素子から得られた画像に基づきコントラストオートフォーカスを行うコントラストオートフォーカス部をさらに具備し、
前記位相差演算制御部は、前記位相差適合判定部により適していると判定された色画像が存在しない場合には、前記コントラストオートフォーカス部に前記被写体までの距離を演算させることを特徴とする請求項8に記載の距離測定装置。
A contrast autofocus unit for performing contrast autofocus based on an image obtained from the image sensor;
The phase difference calculation control unit causes the contrast autofocus unit to calculate a distance to the subject when there is no color image determined to be suitable by the phase difference matching determination unit. The distance measuring device according to claim 8.
前記位相差適合判定部は、前記色画像が前記演算に用いる色画像として適しているか否かを、画素値として取り得る最大画素値に1未満の所定値を掛けた値以上の画素値の画素が所定割合以上、該色画像にあるか否かに基づき判定することを特徴とする請求項1に記載の距離測定装置。   The phase difference matching determination unit determines whether or not the color image is suitable as a color image to be used for the calculation, and has a pixel value equal to or larger than a value obtained by multiplying a maximum pixel value that can be taken as a pixel value by a predetermined value less than 1. The distance measuring device according to claim 1, wherein the determination is based on whether the color image is greater than or equal to a predetermined ratio. 前記位相差適合判定部は、前記色画像が前記演算に用いる色画像として適しているか否かを、該色画像の平均画素値が所定範囲内にあり、かつ該色画像の画素値の標準偏差が所定の下限標準偏差以上であるか否かに基づき判定することを特徴とする請求項1に記載の距離測定装置。   The phase difference conformity determining unit determines whether the color image is suitable as a color image used for the calculation, an average pixel value of the color image is within a predetermined range, and a standard deviation of the pixel values of the color image The distance measuring device according to claim 1, wherein the determination is based on whether or not is greater than or equal to a predetermined lower standard deviation. 前記位相差適合判定部は、前記色画像が前記演算に用いる色画像として適しているか否かを、該色画像の平均画素値が所定範囲内にあり、かつ該色画像のエッジ量の絶対値が、所定の下限エッジ量以上であるか否かに基づき判定することを特徴とする請求項1に記載の距離測定装置。   The phase difference conformity determination unit determines whether the color image is suitable as a color image used for the calculation, an average pixel value of the color image is within a predetermined range, and an absolute value of an edge amount of the color image The distance measuring device according to claim 1, wherein the distance is determined based on whether or not is equal to or greater than a predetermined lower limit edge amount. 前記位相差適合判定部は、前記色画像が前記演算に用いる色画像として適しているか否かを、該色画像の平均画素値が所定範囲内にあり、かつ該色画像の所定の周波数成分が所定値以上存在するか否かに基づき判定することを特徴とする請求項1に記載の距離測定装置。   The phase difference conformity determination unit determines whether the color image is suitable as a color image used for the calculation, whether an average pixel value of the color image is within a predetermined range, and a predetermined frequency component of the color image is The distance measuring device according to claim 1, wherein the determination is based on whether or not the predetermined value or more exists. 前記色信号選択部は、前記位相差適合判定部により適していると判定された色画像の中から、平均画素値が最も大きい色画像と2番目に大きい色画像との組み合わせを選択することを特徴とする請求項2に記載の距離測定装置。   The color signal selection unit selects a combination of the color image having the largest average pixel value and the second largest color image from the color images determined to be suitable by the phase difference matching determination unit. The distance measuring device according to claim 2, wherein 前記色信号選択部は、前記位相差適合判定部により適していると判定された色画像の中から、前記瞳領域を通過する際の光量の重心位置が最も離れた2つの色画像の組み合わせを選択することを特徴とする請求項2に記載の距離測定装置。   The color signal selection unit selects a combination of two color images having the most distant center of gravity when passing through the pupil region from among color images determined to be suitable by the phase difference matching determination unit. The distance measuring device according to claim 2, wherein the distance measuring device is selected. 前記請求項1から請求項15の何れか一項に記載の距離測定装置を具備したことを特徴とする撮像装置。   An imaging apparatus comprising the distance measuring device according to any one of claims 1 to 15. 光を、瞳領域を通過する際の光量の重心位置を3つ以上に異ならせて3つ以上の波長帯域の光に分割し、
分割された前記波長帯域毎の光を被写体像として結像し、
前記波長帯域毎の光をそれぞれ受光して光電変換し、該波長帯域毎の色画像を生成し、
前記色画像が位相差演算に用いる色画像として適しているか否かを判定し、
前記位相差演算に適していると判定された前記色画像の数が3つ以上である場合に、該3つ以上の色画像の中から選択した2つの色画像の組み合わせの相関値、または該3つ以上の色画像のうち、2つの色画像の全ての組み合わせの相関値に基づき、被写体までの距離を演算することを特徴とする距離測定方法。
Dividing the light into three or more wavelength bands by changing the center of gravity of the amount of light when passing through the pupil region to three or more,
Form the divided light for each wavelength band as a subject image,
Receiving light for each wavelength band, photoelectrically converting, generating a color image for each wavelength band,
Determining whether the color image is suitable as a color image used for phase difference calculation;
When the number of the color images determined to be suitable for the phase difference calculation is three or more, a correlation value of a combination of two color images selected from the three or more color images, or the A distance measuring method comprising: calculating a distance to a subject based on correlation values of all combinations of two color images among three or more color images.
JP2011239361A 2011-10-31 2011-10-31 Distance measurement device, imaging apparatus, and distance measurement method Pending JP2013097154A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011239361A JP2013097154A (en) 2011-10-31 2011-10-31 Distance measurement device, imaging apparatus, and distance measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011239361A JP2013097154A (en) 2011-10-31 2011-10-31 Distance measurement device, imaging apparatus, and distance measurement method

Publications (1)

Publication Number Publication Date
JP2013097154A true JP2013097154A (en) 2013-05-20

Family

ID=48619147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011239361A Pending JP2013097154A (en) 2011-10-31 2011-10-31 Distance measurement device, imaging apparatus, and distance measurement method

Country Status (1)

Country Link
JP (1) JP2013097154A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194706A (en) * 2014-03-26 2015-11-05 キヤノン株式会社 Focus detection device and control method thereof
KR20160024208A (en) * 2014-08-25 2016-03-04 삼성전자주식회사 Method and for sensing proximity in electronic device and the electronic device thereof
JP2016053653A (en) * 2014-09-03 2016-04-14 キヤノン株式会社 Focus detection device and method for controlling the same
JP2016102733A (en) * 2014-11-28 2016-06-02 株式会社東芝 Lens and image capturing device
CN108933890A (en) * 2017-05-24 2018-12-04 中兴通讯股份有限公司 A kind of background-blurring method, equipment and terminal
CN109764864A (en) * 2019-01-16 2019-05-17 南京工程学院 A kind of indoor UAV position and orientation acquisition methods and system based on color identification

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59143112A (en) * 1983-02-05 1984-08-16 Canon Inc Focal point detector
JPH06273664A (en) * 1993-03-23 1994-09-30 Olympus Optical Co Ltd Focus detector
JPH11344662A (en) * 1998-06-02 1999-12-14 Ricoh Co Ltd Automatic focusing device
JP2001021792A (en) * 1999-07-09 2001-01-26 Olympus Optical Co Ltd Focus detection system
JP2001075003A (en) * 1999-09-03 2001-03-23 Nikon Gijutsu Kobo:Kk Focal point detector, controller and camera using it
JP2001174696A (en) * 1999-12-15 2001-06-29 Olympus Optical Co Ltd Color image pickup unit
JP2002344999A (en) * 2001-05-21 2002-11-29 Asahi Optical Co Ltd Stereoscopic image pickup device
JP2009276294A (en) * 2008-05-16 2009-11-26 Toshiba Corp Image processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59143112A (en) * 1983-02-05 1984-08-16 Canon Inc Focal point detector
JPH06273664A (en) * 1993-03-23 1994-09-30 Olympus Optical Co Ltd Focus detector
JPH11344662A (en) * 1998-06-02 1999-12-14 Ricoh Co Ltd Automatic focusing device
JP2001021792A (en) * 1999-07-09 2001-01-26 Olympus Optical Co Ltd Focus detection system
JP2001075003A (en) * 1999-09-03 2001-03-23 Nikon Gijutsu Kobo:Kk Focal point detector, controller and camera using it
JP2001174696A (en) * 1999-12-15 2001-06-29 Olympus Optical Co Ltd Color image pickup unit
JP2002344999A (en) * 2001-05-21 2002-11-29 Asahi Optical Co Ltd Stereoscopic image pickup device
JP2009276294A (en) * 2008-05-16 2009-11-26 Toshiba Corp Image processing method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194706A (en) * 2014-03-26 2015-11-05 キヤノン株式会社 Focus detection device and control method thereof
KR20160024208A (en) * 2014-08-25 2016-03-04 삼성전자주식회사 Method and for sensing proximity in electronic device and the electronic device thereof
KR102180333B1 (en) * 2014-08-25 2020-11-18 삼성전자주식회사 Method and for sensing proximity in electronic device and the electronic device thereof
JP2016053653A (en) * 2014-09-03 2016-04-14 キヤノン株式会社 Focus detection device and method for controlling the same
JP2016102733A (en) * 2014-11-28 2016-06-02 株式会社東芝 Lens and image capturing device
US10145994B2 (en) 2014-11-28 2018-12-04 Kabushiki Kaisha Toshiba Lens device and image capturing device for acquiring distance information at high accuracy
CN108933890A (en) * 2017-05-24 2018-12-04 中兴通讯股份有限公司 A kind of background-blurring method, equipment and terminal
CN109764864A (en) * 2019-01-16 2019-05-17 南京工程学院 A kind of indoor UAV position and orientation acquisition methods and system based on color identification
CN109764864B (en) * 2019-01-16 2022-10-21 南京工程学院 Color identification-based indoor unmanned aerial vehicle pose acquisition method and system

Similar Documents

Publication Publication Date Title
US11099459B2 (en) Focus adjustment device and method capable of executing automatic focus detection, and imaging optical system storing information on aberrations thereof
US10212334B2 (en) Focusing adjustment apparatus and focusing adjustment method
US9641769B2 (en) Image capture apparatus and method for controlling the same
JP6429546B2 (en) Imaging apparatus, control method, program, and storage medium
US9742982B2 (en) Image capturing apparatus and method for controlling image capturing apparatus
JP6555863B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6516429B2 (en) Distance measuring device, imaging device, and distance measuring method
JP6220148B2 (en) Imaging apparatus and control method thereof
JP2009031682A (en) Imaging system and image signal processing program
JP2013044806A (en) Imaging apparatus
JP2013097154A (en) Distance measurement device, imaging apparatus, and distance measurement method
US10015386B2 (en) Focus control apparatus, image capturing apparatus, interchangeable lens, focus control method, and storage medium storing focus control program
JP2013003159A (en) Imaging apparatus
JP6300670B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
US10602050B2 (en) Image pickup apparatus and control method therefor
US8830378B2 (en) Image capturing system and image capturing method, involving image restoration processing
US11209262B2 (en) Electronic apparatus, control method thereof and computer readable storage medium
US11924542B2 (en) Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium
CN106993110B (en) Image pickup apparatus and control method thereof
US9955128B2 (en) Imaging apparatus and method for controlling the same
US10447937B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium that perform image processing based on an image processing parameter set for a first object area, and information on a positional relationship between an object in a second object area and an object in the first object area
JP6223502B2 (en) Image processing apparatus, image processing method, program, and storage medium storing the same
JP2015176114A (en) Imaging device and control method of imaging device
JP2013037294A (en) Image pickup apparatus
JP2016004210A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151208