JP2013057761A - Distance measuring device, imaging device, and distance measuring method - Google Patents

Distance measuring device, imaging device, and distance measuring method Download PDF

Info

Publication number
JP2013057761A
JP2013057761A JP2011195414A JP2011195414A JP2013057761A JP 2013057761 A JP2013057761 A JP 2013057761A JP 2011195414 A JP2011195414 A JP 2011195414A JP 2011195414 A JP2011195414 A JP 2011195414A JP 2013057761 A JP2013057761 A JP 2013057761A
Authority
JP
Japan
Prior art keywords
image
color
distance
pupil
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011195414A
Other languages
Japanese (ja)
Inventor
Kazuya Yamanaka
一哉 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011195414A priority Critical patent/JP2013057761A/en
Publication of JP2013057761A publication Critical patent/JP2013057761A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a distance measuring device capable of measuring a distance by phase difference detection, to a difficult subject in which phase different detection based on pupil color division is hard.SOLUTION: A distance measuring device includes: a color imaging element 22; an imaging optical system 9; a band limiting filter 12 for dividing a band into at least 2 pieces when light passes through a pupil area of the imaging optical system 9; a distance calculating portion 37 for measuring a gravity center position of each band from an image obtained by the imaging element 22, and computing a subject distance on the basis of phase difference amount; a color correlation determining portion 38 for determining whether there is a correlation between images of the bands having different gravity center positions; a pupil position changing portion for changing the gravity center positions; and a system controller 30 for computing the subject distance from a pick-up image of one time when there is a correlation, and changing the gravity center positions and computing the subject distance from pick-up images of at least twice before/after the change when there is not a correlation.

Description

本発明は、撮像光学系の異なる瞳領域を通過した複数の帯域の光から得られる複数帯域の画像に基づき、被写体までの距離を測定する距離測定装置、撮像装置、距離測定方法に関する。   The present invention relates to a distance measuring device, an imaging device, and a distance measuring method for measuring a distance to a subject based on images of a plurality of bands obtained from light of a plurality of bands that have passed through different pupil regions of an imaging optical system.

距離情報は、自動焦点調節(AF:オートフォーカス)機構によるAF処理を行うためや、立体視用画像を作成するため、あるいは画像処理(例えば、被写体抽出処理や背景抽出処理、あるいはボケ量コントロールの画像加工処理)を行うためなど、撮像装置における様々な機能を実現するのに利用可能である。   The distance information is used for AF processing by an automatic focus adjustment (AF) mechanism, for creating a stereoscopic image, or for image processing (for example, subject extraction processing, background extraction processing, or blur amount control). The present invention can be used to realize various functions in the imaging apparatus, such as for performing image processing.

このような距離情報を取得する方法は、従来より種々のものが提案されており、例えば、照明光を照射し被写体からの反射光を受光して測距を行うアクティブ測距方式や、基線長を設けて配置した複数の撮像装置(例えばステレオカメラ)の取得画像から三角測距の原理により測距を行う方式、あるいは撮像装置自体により取得した画像のコントラストが高くなるようにフォーカスレンズを駆動するコントラストAF方式など、様々な方式が提案されている。   Various methods for obtaining such distance information have been proposed. For example, an active distance measurement method in which illumination light is irradiated and reflected light from a subject is received to perform distance measurement, or a baseline length. The focus lens is driven so as to increase the contrast of images acquired by a plurality of image pickup devices (for example, stereo cameras) arranged in accordance with the principle of triangulation, or the image acquired by the image pickup device itself. Various methods such as a contrast AF method have been proposed.

しかし、アクティブ測距方式は測距用投光装置などの測距専用の部材が必要であり、また、三角測距方式では複数の撮像装置が必要であるために、撮像装置が大型化したりコストが上昇したりする要因となる。一方、コントラストAF方式は、撮像装置自体により取得した画像を利用するために、測距専用部材等は不要であるが、フォーカスレンズの位置を変化させながら複数回の撮像を行ってコントラスト値のピークを探す方式であるために、合焦位置に対応するピークを探すのに時間を要し、高速のAFを行うことが困難である。   However, the active distance measurement method requires a dedicated member for distance measurement such as a light projection device for distance measurement, and the triangular distance measurement method requires a plurality of image pickup devices. Will increase. On the other hand, since the contrast AF method uses an image acquired by the imaging apparatus itself, a dedicated distance measuring member or the like is not required. However, the contrast value peak is obtained by performing multiple imaging while changing the position of the focus lens. Therefore, it takes time to search for a peak corresponding to the in-focus position, and it is difficult to perform high-speed AF.

このような背景の下、大型化やコストの上昇を抑えながら距離情報を取得する技術として、レンズの瞳を通過する光束を複数に分割して受光し、レンズ内の一瞳領域を通過した光束から得られた画素信号と、レンズ内の一瞳領域とは異なる他の瞳領域を通過した光束から得られた画素信号と、の間で相関演算を行うことにより、被写体までの距離情報を取得する技術が提案されている。   Under such a background, as a technology to acquire distance information while suppressing an increase in size and cost, a light beam that passes through the pupil of the lens is divided into a plurality of light beams, and a light beam that passes through one pupil region in the lens The distance information to the subject is obtained by performing a correlation calculation between the pixel signal obtained from the pixel signal and the pixel signal obtained from the light beam that has passed through another pupil region different from the one pupil region in the lens. Techniques to do this have been proposed.

例えば、撮像素子の一部の画素上に瞳分割を行い得るような遮光膜を形成して焦点検出用画素とし、焦点検出用画素から得られた画像から位相差を取得する技術が知られている。しかし、この場合には、微細加工技術を用いて画素との位置合わせをしながら遮光膜を形成して専用の撮像素子を構成する必要があり、汎用の撮像素子をそのまま利用することができない。   For example, a technique is known in which a light-shielding film that can perform pupil division is formed on a part of pixels of an image sensor to form a focus detection pixel, and a phase difference is obtained from an image obtained from the focus detection pixel. Yes. However, in this case, it is necessary to form a dedicated image sensor by forming a light shielding film while aligning with pixels using a fine processing technique, and a general-purpose image sensor cannot be used as it is.

これに対して、特開平11−258489号公報には、撮影用の光学系に移動可能な瞳を挿入し、この瞳を移動して、瞳領域の異なる光束よりなる光学像を、撮影用の撮像素子に結像させ、これにより得られる瞳領域の異なる複数の像の位相差を検出し、撮影レンズのデフォーカス量を検知する位相差方式(瞳時分割位相差AF)において、処理の高速化や回路規模の縮小を図るために、1ブロックから得られる信号を位相差検出に用いる技術が記載されている。この構成おいては、汎用の撮像素子を利用可能であるものの、位相差検出を行うには時間を異ならせて複数枚の画像を取得する必要がある。従って、合焦までに時間を要したり、動きのある被写体の場合にはAF精度が低下したりする場合がある。そこで、該公報には、動きがある被写体に対して動き補正を行う技術が記載されているが、位相差検出に複数枚の画像を必要とする点は依然としてそのままである。   On the other hand, in Japanese Patent Laid-Open No. 11-258889, a movable pupil is inserted into a photographing optical system, and the pupil is moved to obtain an optical image composed of light beams having different pupil regions. High-speed processing in the phase difference method (pupil time-division phase difference AF) that forms an image on an image sensor, detects the phase difference between a plurality of images obtained by different pupil regions, and detects the defocus amount of the photographing lens. In order to reduce the size and the circuit scale, a technique is described in which a signal obtained from one block is used for phase difference detection. In this configuration, although a general-purpose image sensor can be used, it is necessary to acquire a plurality of images at different times in order to detect the phase difference. Therefore, it may take time until the subject is in focus, or the AF accuracy may be reduced in the case of a moving subject. Therefore, this publication describes a technique for performing motion correction on a moving subject, but still requires a plurality of images for phase difference detection.

そこで、汎用の撮像素子を利用可能であり、かつ、1枚の画像から位相差検出が可能な技術が提案されている。例えば特開2001−174696号公報には、部分瞳毎に異なる分光特性(例えばRGとGB)を持たせた瞳色分割用フィルタを撮像光学系に介在させ、撮像光学系からの被写体像をカラー撮像素子により受光することで、色(例えばRとB)による瞳分割を行う技術が記載されている。すなわち、カラー撮像素子から出力される画像信号を色分離して、各色画像上の同一被写体間の相対的なズレ量を検知することにより、合焦位置から近距離側にずれているのか遠距離側にずれているのかのフォーカシングズレ方向と、その方向への合焦位置からのズレ量であるフォーカシングズレ量と、の2つのフォーカシング情報が取得される。   Therefore, a technique that can use a general-purpose image sensor and can detect a phase difference from one image has been proposed. For example, in Japanese Patent Laid-Open No. 2001-174696, a pupil color dividing filter having different spectral characteristics (for example, RG and GB) for each partial pupil is interposed in an imaging optical system, and a subject image from the imaging optical system is colored. A technique for performing pupil division by color (for example, R and B) by receiving light with an image sensor is described. In other words, the image signal output from the color image sensor is color-separated, and the relative shift amount between the same subject on each color image is detected, so that it is shifted from the in-focus position to the short distance side or the long distance Two pieces of focusing information, that is, a focusing shift direction that is shifted to the side and a focusing shift amount that is a shift amount from the in-focus position in that direction, are acquired.

ところで、相関演算を行っても、位相差検出に必要なコントラスト評価値を得られないことがある。いわゆる苦手被写体の代用例は低コントラストの被写体であり、これに準ずる状態となっているのが大デフォーカスの被写体である。このような場合に対応する技術として、特開2003−344753号公報には、瞳分割に係る被写体像のコントラスト評価値の何れかが閾値以下である場合には、相関演算が不可能であると判定して、相関演算が可能になるまでAF対象領域を拡大する技術が記載されている。   By the way, even if correlation calculation is performed, a contrast evaluation value necessary for phase difference detection may not be obtained. A substitute example of a so-called weak subject is a low-contrast subject, and a subject in accordance with this is a large defocused subject. As a technique corresponding to such a case, Japanese Patent Application Laid-Open No. 2003-344753 discloses that correlation calculation is impossible when any of the contrast evaluation values of the subject image related to pupil division is equal to or less than a threshold value. A technique for enlarging the AF target area until it is determined and correlation calculation is possible is described.

特開平11−258489号公報Japanese Patent Application Laid-Open No. 11-258889 特開2001−174696号公報JP 2001-174696 A 特開2003−344753号公報Japanese Patent Laid-Open No. 2003-344753

上述した特開2001−174696号公報に記載の技術においても、特有の苦手被写体が存在する。   Even in the technique described in Japanese Patent Application Laid-Open No. 2001-174696 described above, there is a particular weak subject.

すなわち、該公報に記載の技術は、例えばR画像とB画像との間で相関演算を行う技術であるために、R画像の波長帯域とB画像の波長帯域との両方において画素値を有する被写体でないと、相関演算を行うことができない。従って、例えば狭帯域の被写体、より具体的にR色のみの深紅のバラの場合、R画像は取得できるもののB画像を取得することができないために、相関演算を行うことができない。   That is, since the technique described in the publication is, for example, a technique for performing a correlation operation between an R image and a B image, an object having pixel values in both the wavelength band of the R image and the wavelength band of the B image. Otherwise, the correlation calculation cannot be performed. Therefore, for example, in the case of a narrow-band subject, more specifically, a deep red rose of only the R color, an R image can be acquired, but a B image cannot be acquired, so that a correlation calculation cannot be performed.

このような苦手被写体について、本願の実施形態に係る図面を参照してより詳細に説明する。   Such a poor subject will be described in detail with reference to the drawings according to the embodiment of the present application.

まず、特開2001−174696号公報に記載された瞳色分割用フィルタは、例えば図3に示す帯域制限フィルタ12と同様に構成されている。すなわち、帯域制限フィルタ12は、レンズを含む撮像光学系の瞳を、RGを透過する部分瞳とGBを透過する部分瞳とに分割するように構成されている。ここに、RGを透過する部分瞳を形成するのがRGフィルタ12r、GBを透過する部分瞳を形成するのがGBフィルタ12bである。   First, the pupil color dividing filter described in Japanese Patent Laid-Open No. 2001-174696 is configured in the same manner as the band limiting filter 12 shown in FIG. 3, for example. That is, the band limiting filter 12 is configured to divide the pupil of the imaging optical system including the lens into a partial pupil that transmits RG and a partial pupil that transmits GB. Here, the RG filter 12r forms a partial pupil that transmits RG, and the GB filter 12b forms a partial pupil that transmits GB.

このような構成の光学系により、例えば合焦位置よりも遠い位置にある通常の被写体OBJrgbを結像するときの様子は、光学系を上から見た図4に示すようになる。   For example, when the normal object OBJrgb at a position farther than the in-focus position is imaged by the optical system having such a configuration, a state in which the optical system is viewed from above is shown in FIG.

すなわち、被写体が合焦位置よりも遠い位置にあると、レンズ10と撮像素子22との間に合焦面が位置するために、帯域制限フィルタ12とは左右が反転した位置にRのボケ画像IMGrとBのボケ画像IMGbとが結像される。   That is, when the subject is located farther than the in-focus position, the in-focus surface is located between the lens 10 and the image sensor 22, and therefore the R blurred image is at a position where the left and right sides of the band limiting filter 12 are reversed. IMGr and B blurred image IMGb are imaged.

撮像素子が例えば図2に示すようなベイヤー配列の撮像素子であるとすると、通常の被写体OBJrgb、つまり、RGBの各帯域の光を反射する被写体の場合には、図5に示すように、各色の画素が光電変換を行って画素値を発生させる(図5および後述する図9のハッチングは画素値が発生したことを示している)。   If the image sensor is an image sensor having a Bayer array as shown in FIG. 2, for example, in the case of a normal subject OBJrgb, that is, a subject that reflects light in each of the RGB bands, as shown in FIG. These pixels perform photoelectric conversion to generate a pixel value (hatching in FIG. 5 and FIG. 9 described later indicates that a pixel value has occurred).

こうして得られたR画像とB画像とをSAD方式により相関演算したときには、図6に示すようなV字形状の谷をなす相関値が得られ、0に近い谷の底の像ずれ量が求める位相差量となる。また、ZNCC方式により相関演算したときには、図7に示すような逆V字形状の山をなす相関値が得られ、1に近い山の頂点の像ずれ量が求める位相差量となる。   When the correlation between the R image and the B image thus obtained is calculated by the SAD method, a correlation value forming a V-shaped valley as shown in FIG. 6 is obtained, and an image shift amount at the bottom of the valley close to 0 is obtained. The amount of phase difference. Further, when the correlation calculation is performed by the ZNCC method, a correlation value forming an inverted V-shaped peak as shown in FIG. 7 is obtained, and an image shift amount at the peak of the peak close to 1 is obtained as a phase difference amount.

これに対して、R色のみの(より正確には、R色光の強度が、B色光およびG色光の強度に比して圧倒的に高い)深紅のバラ等の狭帯域の被写体OBJrを上述した光学系により結像するときの様子は、図8に示すようになる。   On the other hand, the subject OBJr having a narrow band such as a crimson rose, which has only the R color (more precisely, the intensity of the R color light is overwhelmingly higher than the intensity of the B color light and the G color light) is described above. FIG. 8 shows a state when an image is formed by the optical system.

このときには、被写体OBJrから照射されたR光は、RGフィルタ12rは透過するが、GBフィルタ12bには遮断される。従って、図9に示すように、R画素は光電変換を行って画素値を発生させるが、B画素およびG画素では光電変換がほとんど行われず画素値がほとんど発生しない。   At this time, the R light emitted from the subject OBJr passes through the RG filter 12r but is blocked by the GB filter 12b. Therefore, as shown in FIG. 9, the R pixel performs photoelectric conversion to generate a pixel value, but the B pixel and the G pixel hardly perform photoelectric conversion and generate almost no pixel value.

このようにして得られたR画像とB画像とをSAD方式により相関演算しても、例えば図10に示すような明確なV字形状の谷が見られない相関値が得られてしまい、0に近い谷の底を求めるのが困難であり、仮に求めたとしても信頼性が著しく低いものとなる。同様に、ZNCC方式により相関演算したとしても、図11に示すような明確な逆V字形状の山が見られない相関値が得られてしまい、1に近い山の頂点を求めるのが困難であり、仮に求めたとしても信頼性が著しく低いものとなる。こうして、被写体が狭帯域である場合には、位相差検出を行うことが困難であり、仮に、位相差検出を行ったとしても検出した位相差量の信頼性が低くなってしまったりすることが分かる。   Even if the correlation calculation is performed between the R image and the B image obtained in this way by the SAD method, a correlation value in which no clear V-shaped valley as shown in FIG. It is difficult to obtain the bottom of the valley close to, and even if it is obtained, the reliability is extremely low. Similarly, even if the correlation calculation is performed by the ZNCC method, a correlation value in which a clear inverted V-shaped peak as shown in FIG. 11 is not obtained is obtained, and it is difficult to obtain the peak of the peak close to 1. Yes, even if it is obtained, the reliability is extremely low. Thus, when the subject is in a narrow band, it is difficult to detect the phase difference, and even if the phase difference is detected, the reliability of the detected phase difference amount may be lowered. I understand.

本発明は上記事情に鑑みてなされたものであり、波長帯域および瞳領域が異なる複数の画像に基づく位相差検出が困難な苦手被写体に対しても、位相差検出による距離測定を可能とする距離測定装置、撮像装置、距離測定方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and enables distance measurement by phase difference detection even for subjects who are difficult to detect phase difference based on a plurality of images having different wavelength bands and pupil regions. It aims at providing a measuring device, an imaging device, and a distance measuring method.

上記の目的を達成するために、本発明のある態様による距離測定装置は、光を受光して光電変換し、複数帯域の色画像を生成する撮像素子と、前記光を前記撮像素子に対して結像させる撮像光学系と、前記光が前記撮像光学系の瞳領域を通過する際に、前記帯域を少なくとも2つに分割する帯域制限フィルタと、前記撮像素子から得られた画像から、分割された前記帯域毎の重心位置を測定し、該重心位置の位相差量に基づき被写体までの距離を演算する距離演算部と、分割された前記帯域毎の重心位置が異なる帯域の画像同士間の何れかに相関があるか否かを判定する色相関判定部と、前記重心位置を変更する瞳位置変更部と、前記色相関判定部により相関があると判定された場合、前記撮像素子による1回の撮像画像から前記距離演算部に被写体までの距離を演算させ、相関がないと判定された場合、前記瞳位置変更部に前記重心位置を変更させ、前記撮像素子による前記重心位置の変更前と変更後との少なくとも2回の撮像画像から、前記距離演算部に被写体までの距離を演算させる制御部と、を備える。   In order to achieve the above object, a distance measuring device according to an aspect of the present invention includes an imaging device that receives light and performs photoelectric conversion to generate a color image of a plurality of bands, and the light to the imaging device. An imaging optical system that forms an image, a band limiting filter that divides the band into at least two when the light passes through a pupil region of the imaging optical system, and an image obtained from the imaging element. The distance calculation unit that measures the center of gravity position for each band and calculates the distance to the subject based on the phase difference amount of the center of gravity position, and between the divided images of the bands having different center of gravity positions for each band If it is determined that there is a correlation by a color correlation determination unit that determines whether there is a correlation, a pupil position change unit that changes the position of the center of gravity, and the color correlation determination unit, the image sensor once The distance calculation unit from the captured image of When the distance to the subject is calculated and it is determined that there is no correlation, the pupil position changing unit is caused to change the position of the center of gravity, and at least two times of imaging before and after the change of the position of the center of gravity by the image sensor A control unit that causes the distance calculation unit to calculate the distance to the subject from the image.

本発明の他の態様による撮像装置は、上記距離測定装置を備えている。   An imaging apparatus according to another aspect of the present invention includes the distance measuring device.

本発明のさらに他の態様による距離測定方法は、光を少なくとも2つの帯域に分割し、前記光を光電変換して、複数帯域の色画像を生成し、前記色画像から分割された前記帯域毎の重心位置を測定し、分割された前記帯域毎の重心位置が異なる帯域の画像同士の間の何れかに相関があるか否かを判定し、相関があると判定された場合、1回の撮像画像から得られた前記重心位置の位相差量に基づき被写体までの距離を演算し、相関がないと判定された場合、前記重心位置を変更し、前記重心位置の変更前と変更後との少なくとも2回の撮像画像から得られた前記重心位置の位相差量に基づき被写体までの距離を演算する。   The distance measurement method according to still another aspect of the present invention divides light into at least two bands, photoelectrically converts the light to generate a plurality of band color images, and each band divided from the color images. The center of gravity position of each of the divided bands is measured, and it is determined whether there is a correlation between the images of the bands having different center of gravity positions, and if it is determined that there is a correlation, The distance to the subject is calculated based on the phase difference amount of the centroid position obtained from the captured image, and when it is determined that there is no correlation, the centroid position is changed, and before and after the change of the centroid position The distance to the subject is calculated based on the phase difference amount of the barycentric position obtained from at least two captured images.

本発明の距離測定装置、撮像装置、距離測定方法によれば、波長帯域および瞳領域が異なる複数の画像に基づく位相差検出が困難な苦手被写体に対しても、位相差検出による距離測定が可能となる。   According to the distance measuring device, imaging device, and distance measuring method of the present invention, distance measurement by phase difference detection is possible even for subjects who are difficult to detect phase difference based on a plurality of images having different wavelength bands and pupil regions. It becomes.

本発明の実施形態1における撮像装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus according to Embodiment 1 of the present invention. 上記実施形態1における撮像素子の画素配列を説明するための図。FIG. 3 is a diagram for explaining a pixel array of the image sensor in the first embodiment. 上記実施形態1における帯域制限フィルタの一構成例を説明するための図。The figure for demonstrating one structural example of the band-limiting filter in the said Embodiment 1. FIG. 上記実施形態1において、合焦位置よりも遠距離側にある通常の被写体OBJrgbを撮像するときの被写体光束集光の様子を示す平面図。In the said Embodiment 1, the top view which shows the mode of a to-be-photographed object light flux when imaging normal object OBJrgb in the far side from a focusing position. 上記実施形態1において、通常の被写体OBJrgbを撮像するときのRGB画素の光電変換の様子を示す図。FIG. 3 is a diagram illustrating a state of photoelectric conversion of RGB pixels when a normal subject OBJrgb is imaged in the first embodiment. 上記実施形態1において、通常の被写体OBJrgbを撮像して得られたR画像とB画像の相対位置をずらしながらSAD方式により演算を行った相関値の例を示す線図。In the said Embodiment 1, the diagram which shows the example of the correlation value calculated by SAD system, shifting the relative position of R image and B image which were obtained by imaging normal object OBJrgb. 上記実施形態1において、通常の被写体OBJrgbを撮像して得られたR画像とB画像の相対位置をずらしながらZNCC方式により演算を行った相関値の例を示す線図。FIG. 6 is a diagram showing an example of correlation values calculated by the ZNCC method while shifting the relative positions of an R image and a B image obtained by imaging a normal subject OBJrgb in the first embodiment. 上記実施形態1において、合焦位置よりも遠距離側にあるR色の被写体OBJrを撮像するときの被写体光束集光の様子を示す平面図。FIG. 3 is a plan view showing a state of subject light flux condensing when imaging an R-color subject OBJr that is on the far side from the in-focus position in the first embodiment. 上記実施形態1において、R色の被写体OBJrを撮像するときのRGB画素の光電変換の様子を示す図。FIG. 3 is a diagram illustrating a state of photoelectric conversion of RGB pixels when an image of an R-color subject OBJr is imaged in the first embodiment. 上記実施形態1において、狭帯域の被写体OBJrを撮像して得られたR画像とB画像の相対位置をずらしながらSAD方式により演算を行った相関値の例を示す線図。FIG. 5 is a diagram showing an example of correlation values calculated by the SAD method while shifting the relative positions of the R image and B image obtained by imaging the narrow-band subject OBJr in the first embodiment. 上記実施形態1において、狭帯域の被写体OBJrを撮像して得られたR画像とB画像の相対位置をずらしながらZNCC方式により演算を行った相関値の例を示す線図。FIG. 5 is a diagram showing an example of correlation values calculated by the ZNCC method while shifting the relative positions of the R image and B image obtained by imaging the narrow-band subject OBJr in the first embodiment. 上記実施形態1において、図3の帯域制限フィルタを光軸周りに180°回転させて、合焦位置よりも遠距離側にあるR色の被写体OBJrを撮像するときの被写体光束集光の様子を示す平面図。In the first embodiment, the subject light flux is collected when the band limiting filter of FIG. 3 is rotated by 180 ° around the optical axis to capture the R-colored subject OBJr on the far side from the in-focus position. FIG. 上記実施形態1において、帯域制限フィルタが図3に示す位置にあるときの、R色の色瞳重心位置g1を示す図。FIG. 4 is a diagram illustrating a color pupil barycentric position g1 of an R color when the band limiting filter is in the position illustrated in FIG. 3 in the first embodiment. 上記実施形態1において、帯域制限フィルタを光軸周りに180°回転させたときの、R色の色瞳重心位置g2を示す図。FIG. 6 is a diagram illustrating a color pupil barycentric position g2 of R color when the band limiting filter is rotated by 180 ° around the optical axis in the first embodiment. 上記実施形態1において、R色の色瞳重心位置の変更前後の様子を示す図。In the said Embodiment 1, the figure which shows the mode before and behind the change of the color pupil gravity center position of R color. 上記実施形態1において、図3の帯域制限フィルタを光軸周りに120°回転させたときのR色の色瞳重心位置g2を示す図。FIG. 4 is a diagram showing an R color pupil center of gravity position g2 when the band limiting filter of FIG. 3 is rotated by 120 ° around the optical axis in the first embodiment. 上記実施形態1において、図3の帯域制限フィルタを光軸周りに240°回転させたときのR色の色瞳重心位置g3を示す図。FIG. 4 is a diagram showing a color pupil barycentric position g3 of an R color when the band limiting filter of FIG. 3 is rotated by 240 ° around the optical axis in the first embodiment. 上記実施形態1において、光軸周りの3等分位置となる色瞳重心位置g1〜g3を示す図。In the said Embodiment 1, the figure which shows the color pupil gravity center position g1-g3 used as the position of 3 equally around an optical axis. 上記実施形態1において、図3の帯域制限フィルタを光軸周りに90°回転させたときのR色の色瞳重心位置g3を示す図。FIG. 4 is a diagram showing a color pupil barycenter position g3 of an R color when the band limiting filter of FIG. 3 is rotated 90 ° around the optical axis in the first embodiment. 上記実施形態1において、図3の帯域制限フィルタを光軸周りに270°回転させたときのR色の色瞳重心位置g4を示す図。FIG. 4 is a diagram showing a color pupil barycenter position g4 of the R color when the band limiting filter of FIG. 3 is rotated 270 ° around the optical axis in the first embodiment. 上記実施形態1において、光軸周りの4等分位置となる色瞳重心位置g1〜g4を示す図。In the said Embodiment 1, the figure which shows the color pupil gravity center positions g1-g4 used as the position of 4 equally around an optical axis. 上記実施形態1において、帯域制限フィルタの周囲にギヤーを設けて光軸周りに回転可能とした例を示す図。The figure which shows the example which provided the gear around the band-limiting filter in the said Embodiment 1, and was able to rotate around an optical axis. 上記実施形態1の撮像装置における撮像処理を示すフローチャート。3 is a flowchart illustrating an imaging process in the imaging apparatus according to the first embodiment. 上記実施形態1において、図23の撮像処理において行われるAF動作の詳細を示すフローチャート。24 is a flowchart showing details of an AF operation performed in the imaging process of FIG. 23 in the first embodiment. 上記実施形態1において、図23の撮像処理において行われるAF動作の他の例を示すフローチャート。24 is a flowchart showing another example of the AF operation performed in the imaging process of FIG. 23 in the first embodiment. 上記実施形態1において、図24または図25のAF動作において行われる距離演算の処理を示すフローチャート。The flowchart which shows the process of the distance calculation performed in AF operation | movement of FIG. 24 or FIG. 25 in the said Embodiment 1. FIG. 上記実施形態1において、図26の距離演算において行われる瞳色時分割取得の処理を示すフローチャート。In the said Embodiment 1, the flowchart which shows the process of the pupil color time division acquisition performed in the distance calculation of FIG. 上記実施形態1の変形例において、帯域制限フィルタが光路から退避しているときの様子を示す図。The figure which shows a mode when the band-limiting filter is evacuating from the optical path in the modification of the said Embodiment 1. FIG. 上記実施形態1の変形例において、帯域制限フィルタが光路内に挿入されているときの様子を示す図。The figure which shows a mode when the band-limiting filter is inserted in the optical path in the modification of the said Embodiment 1. FIG. 上記実施形態1の変形例において、帯域制限フィルタが光路内に途中まで挿入されているときの様子を示す図。The figure which shows a mode when the band-limiting filter is inserted to the middle in the optical path in the modification of the said Embodiment 1. FIG. 本発明の実施形態2における撮像装置の構成を示すブロック図。The block diagram which shows the structure of the imaging device in Embodiment 2 of this invention. 上記実施形態2における絞りの一構成例を示す図。The figure which shows the example of 1 structure of the aperture_diaphragm | restriction in the said Embodiment 2. FIG. 上記実施形態2において、図32の絞りを駆動して第1の色瞳重心位置g1を実現している様子を示す図。FIG. 33 is a diagram illustrating a state in which the first color pupil barycentric position g1 is realized by driving the diaphragm of FIG. 32 in the second embodiment. 上記実施形態2において、図32の絞りを駆動して第2の色瞳重心位置g2を実現している様子を示す図。FIG. 33 is a diagram illustrating a state in which the second color pupil center-of-gravity position g2 is realized by driving the diaphragm of FIG. 32 in the second embodiment. 上記実施形態2の変形例において、絞りを開放して第1の色瞳重心位置g1を実現している様子を示す図。The figure which shows a mode that the aperture_diaphragm | restriction is open | released and the 1st color pupil gravity center position g1 is implement | achieved in the modification of the said Embodiment 2. FIG. 上記実施形態2の変形例において、絞りを絞って第2の色瞳重心位置g2を実現している様子を示す図。The figure which shows a mode that the 2nd color pupil center-of-gravity position g2 is implement | achieved by restrict | squeezing an aperture stop in the modification of the said Embodiment 2. FIG. 本発明の実施形態3における撮像装置の構成を示すブロック図。FIG. 6 is a block diagram illustrating a configuration of an imaging apparatus according to Embodiment 3 of the present invention. 上記実施形態3において、レンズバリアを駆動して第1の色瞳重心位置g1を実現している様子を示す図。In the said Embodiment 3, a figure which shows a mode that the lens barrier is driven and the 1st color pupil gravity center position g1 is implement | achieved. 上記実施形態3において、レンズバリアを駆動して第2の色瞳重心位置g2を実現している様子を示す図。FIG. 10 is a diagram showing a state in which a second color pupil barycentric position g2 is realized by driving a lens barrier in the third embodiment.

以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]

図1から図27は本発明の実施形態1を示したものであり、図1は撮像装置の構成を示すブロック図である。   1 to 27 show Embodiment 1 of the present invention, and FIG. 1 is a block diagram showing a configuration of an imaging apparatus.

本実施形態の距離測定装置を備えた撮像装置は、例えばデジタルスチルカメラとして構成されている。ただし、ここではデジタルスチルカメラを例に挙げているが、撮像装置は、カラー撮像素子を備え撮像機能を有する装置であればどのようなものでも良く、幾つかの例を挙げれば、上述したデジタルスチルカメラ、ビデオカメラ、カメラ付携帯電話、カメラ付携帯情報端末(カメラ付PDA)、カメラ付パーソナルコンピュータ、監視カメラ、内視鏡、デジタル顕微鏡(デジタルマイクロスコープ)、測距機能付き双眼鏡などである。   An imaging device including the distance measuring device according to the present embodiment is configured as a digital still camera, for example. However, here, a digital still camera is taken as an example, but the imaging device may be any device as long as it has a color imaging element and has an imaging function. Still cameras, video cameras, mobile phones with cameras, personal digital assistants with cameras (PDAs with cameras), personal computers with cameras, surveillance cameras, endoscopes, digital microscopes (digital microscopes), binoculars with ranging functions, etc. .

撮像装置は、レンズユニット1と、このレンズユニット1がレンズマウントを介して着脱自在に取り付けられる本体部であるボディユニット2と、を備えている。なお、ここではレンズユニット1が着脱式である場合を例に挙げて説明するが、勿論、着脱式でなくても構わない。   The imaging apparatus includes a lens unit 1 and a body unit 2 that is a main body portion to which the lens unit 1 is detachably attached via a lens mount. Here, a case where the lens unit 1 is detachable will be described as an example, but of course, it may not be detachable.

レンズユニット1は、レンズ10と絞り11とを含む撮像光学系9と、帯域制限フィルタ12と、レンズ制御部14と、レンズ側通信コネクタ15と、レンズ駆動部16と、フィルタ駆動部17と、絞り駆動部18と、を備えている。   The lens unit 1 includes an imaging optical system 9 including a lens 10 and a diaphragm 11, a band limiting filter 12, a lens control unit 14, a lens side communication connector 15, a lens driving unit 16, a filter driving unit 17, And an aperture drive unit 18.

ボディユニット2は、シャッタ21と、撮像素子22と、撮像回路23と、撮像駆動部24と、画像処理部25と、画像メモリ26と、表示部27と、インターフェース(IF)28と、システムコントローラ30と、センサ部31と、操作部32と、ストロボ制御回路33と、ストロボ34と、ボディ側通信コネクタ35と、を備えている。なお、図1のボディユニット2内には記録媒体29も記載されているが、この記録媒体29は撮像装置に対して着脱自在な例えばメモリカード(スマートメディア、SDカード、xDピクチャーカード等)で構成されているために、撮像装置に固有の構成でなくても構わない。   The body unit 2 includes a shutter 21, an imaging element 22, an imaging circuit 23, an imaging drive unit 24, an image processing unit 25, an image memory 26, a display unit 27, an interface (IF) 28, and a system controller. 30, a sensor unit 31, an operation unit 32, a strobe control circuit 33, a strobe 34, and a body side communication connector 35. In addition, although the recording medium 29 is also described in the body unit 2 of FIG. 1, this recording medium 29 is a memory card (smart media, SD card, xD picture card, etc.) which is detachable with respect to the imaging device. Since it is configured, the configuration may not be unique to the imaging apparatus.

まず、レンズユニット1における撮像光学系9は、被写体像を撮像素子22に結像するためのものである。この撮像光学系9のレンズ10は、焦点調節を行うためのフォーカスレンズを備えて構成されている。レンズ10は、一般的には複数枚のレンズで構成されることが多いが、図1においては簡単のために1枚のレンズのみを図示している。   First, the imaging optical system 9 in the lens unit 1 is for forming a subject image on the imaging element 22. The lens 10 of the imaging optical system 9 includes a focus lens for performing focus adjustment. Although the lens 10 is generally composed of a plurality of lenses in general, only one lens is shown in FIG. 1 for simplicity.

撮像光学系9の絞り11は、レンズ10を通過する被写体光束の通過範囲を規制することにより、撮像素子22上に結像される被写体像の明るさを調節するためのものである。この絞り11の絞り開口径を変更すると、撮像光学系9の瞳領域も変更される。   The diaphragm 11 of the imaging optical system 9 is for adjusting the brightness of the subject image formed on the imaging element 22 by regulating the passage range of the subject light flux passing through the lens 10. When the aperture diameter of the aperture 11 is changed, the pupil region of the imaging optical system 9 is also changed.

帯域制限フィルタ12は、撮像光学系9を経て撮像素子22に至る撮影光束の光路上(望ましくは、撮像光学系9の絞り11の位置またはその近傍)に配設されており、撮像光学系9の瞳領域の一部である第1の領域を通過しようとする撮影光束中の第1の帯域(ここに、帯域は波長帯域を示す。以下同様。)の光を遮断し第2の帯域および第3の帯域の光を通過させる第1の帯域制限と、撮像光学系9の瞳領域の他の一部である第2の領域を通過しようとする撮影光束中の第2の帯域の光を遮断し第1の帯域および第3の帯域の光を通過させる第2の帯域制限と、を行うフィルタである。   The band limiting filter 12 is disposed on the optical path of the imaging light beam that passes through the imaging optical system 9 and reaches the imaging device 22 (preferably at the position of the diaphragm 11 of the imaging optical system 9 or in the vicinity thereof). The first band (here, the band indicates a wavelength band; the same shall apply hereinafter) in the imaging light flux that attempts to pass through the first area that is a part of the pupil area of The first band limitation that allows light in the third band to pass through and the light in the second band in the imaging light flux that attempts to pass through the second area that is another part of the pupil area of the imaging optical system 9 It is a filter that performs the second band limitation that blocks the light of the first band and the third band and blocks the light.

図3は帯域制限フィルタ12の一構成例を説明するための図である。この図3に示す構成例の帯域制限フィルタ12は、撮像光学系9の瞳領域が、第1の領域と第2の領域とに2分されたものとなっている。すなわち、帯域制限フィルタ12は、撮像装置を標準姿勢(いわゆる、カメラを通常の横位置に構えた姿勢)として撮像素子22から見たときに、左半分がG(緑)成分およびR(赤)成分を通過させB(青)成分を遮断する(すなわち、B(青)成分は第1の帯域と第2の帯域との内の一方の帯域である)RGフィルタ12rと、右半分がG成分およびB成分を通過させR成分を遮断する(すなわち、R成分は第1の帯域と第2の帯域との内の他方の帯域である)GBフィルタ12bとなっている。従って、帯域制限フィルタ12は、撮像光学系9の絞り11の開口を通過する光に含まれるG成分を全領域において通過させ(すなわち、G成分は第3の帯域である)、R成分を開口の半分の領域だけ通過させ、B成分を開口の残り半分の領域だけ通過させる。このように帯域制限フィルタ12は、通過させる光の帯域(色)によって、撮像光学系9の瞳領域における通過領域を制限するものであるために、帯域制限フィルタ12により分割された各帯域の光が撮像光学系9の瞳領域を通過する際の光量の重心位置(色瞳重心位置)は、帯域(色)毎に異なることになる。具体的には、Gが瞳領域を通過する際の光量の重心位置は撮像光学系9の光軸中心に一致し、Rが瞳領域を通過する際の光量の重心位置は撮像光学系9の光軸中心から偏心して図3の左側にずれ、Bが瞳領域を通過する際の光量の重心位置は撮像光学系9の光軸中心から偏心して図3の右側にずれることになる。   FIG. 3 is a diagram for explaining a configuration example of the band limiting filter 12. In the band limiting filter 12 of the configuration example shown in FIG. 3, the pupil region of the imaging optical system 9 is divided into a first region and a second region. In other words, the band limiting filter 12 has a left half of the G (green) component and R (red) when the image pickup device is viewed from the image pickup device 22 in a standard posture (so-called posture in which the camera is held in a normal horizontal position). An RG filter 12r that passes the component and blocks the B (blue) component (that is, the B (blue) component is one of the first band and the second band), and the right half is the G component. The B filter passes through the B component and blocks the R component (that is, the R component is the other one of the first band and the second band). Therefore, the band limiting filter 12 allows the G component included in the light passing through the aperture 11 of the imaging optical system 9 to pass through the entire region (that is, the G component is the third band), and the R component is opened. Only the half area of the aperture is allowed to pass, and the B component is allowed to pass only for the remaining half of the aperture. As described above, the band limiting filter 12 limits the pass region in the pupil region of the imaging optical system 9 by the band (color) of the light to be transmitted, and thus the light of each band divided by the band limit filter 12. The gravity center position (color pupil gravity center position) of the amount of light when passing through the pupil region of the imaging optical system 9 differs for each band (color). Specifically, the gravity center position of the light amount when G passes through the pupil region coincides with the optical axis center of the imaging optical system 9, and the gravity center position of the light amount when R passes through the pupil region is determined by the imaging optical system 9. Eccentric from the optical axis center and shifted to the left in FIG. 3, and the barycentric position of the amount of light when B passes through the pupil region is eccentric from the optical axis center of the imaging optical system 9 and shifted to the right in FIG.

なお、帯域制限フィルタ12のRGB各分光透過特性が、撮像素子22にオンチップで構成されている素子フィルタ(図2参照)のRGB各分光透過特性と異なると、RGフィルタ12rとGBフィルタ12bの空間位置の相違に基づいて得られる画像から後述するように取得する位置情報の精度が低下したり、分光特性のミスマッチによる光量ロスが発生したりすることになる。従って、帯域制限フィルタ12の分光透過特性は、撮像素子22の素子フィルタの分光透過特性と、同一または可能な限り近似していることが望ましい。   If the RGB spectral transmission characteristics of the band limiting filter 12 are different from the RGB spectral transmission characteristics of an element filter (see FIG. 2) configured on-chip in the image sensor 22, the RG filter 12r and the GB filter 12b As will be described later, the accuracy of the position information acquired from the images obtained based on the difference in the spatial position is reduced, or a light amount loss due to a mismatch in spectral characteristics occurs. Therefore, it is desirable that the spectral transmission characteristic of the band limiting filter 12 is the same as or as close as possible to the spectral transmission characteristic of the element filter of the image sensor 22.

レンズ制御部14は、レンズユニット1の制御を行うものである。すなわち、レンズ制御部14は、レンズ側通信コネクタ15およびボディ側通信コネクタ35を介してシステムコントローラ30から受信した指令に基づき、レンズ駆動部16、フィルタ駆動部17、絞り駆動部18を制御する。   The lens control unit 14 controls the lens unit 1. That is, the lens control unit 14 controls the lens driving unit 16, the filter driving unit 17, and the aperture driving unit 18 based on a command received from the system controller 30 via the lens side communication connector 15 and the body side communication connector 35.

レンズ側通信コネクタ15は、レンズユニット1とボディユニット2とがレンズマウントにより結合されてボディ側通信コネクタ35と接続されることにより、レンズ制御部14とシステムコントローラ30との間の通信を可能にするコネクタである。   The lens-side communication connector 15 enables communication between the lens control unit 14 and the system controller 30 by connecting the lens unit 1 and the body unit 2 with a lens mount and connecting to the body-side communication connector 35. Connector.

レンズ駆動部16は、レンズ制御部14の制御に基づき、レンズ10内のフォーカスレンズを駆動し合焦させるものである。また、レンズ10が電動ズームレンズである場合には、レンズ駆動部16は、レンズ制御部14の制御に基づき、レンズ10内のズームレンズの駆動も行う。   The lens driving unit 16 drives and focuses the focus lens in the lens 10 based on the control of the lens control unit 14. Further, when the lens 10 is an electric zoom lens, the lens driving unit 16 also drives the zoom lens in the lens 10 based on the control of the lens control unit 14.

フィルタ駆動部17は、レンズ制御部14の制御に基づき、帯域制限フィルタ12を撮像光学系9の光路上へ挿入しあるいは光路上から退避させるものである。   The filter drive unit 17 inserts the band limiting filter 12 on the optical path of the imaging optical system 9 or retracts it from the optical path based on the control of the lens control unit 14.

絞り駆動部18は、レンズ制御部14の制御に基づき、絞り11を駆動し絞り開口径を変更するものである。   The aperture driving unit 18 drives the aperture 11 and changes the aperture diameter based on the control of the lens control unit 14.

次に、ボディユニット2におけるシャッタ21は、レンズ10から撮像素子22に到達する被写体光束の通過時間を規制することにより、撮像素子22の露光時間を調節するための光学シャッタである。なお、ここでは光学シャッタを用いているが、光学シャッタに代えて、または光学シャッタに加えて、撮像素子22による素子シャッタ(電子シャッタ)を用いるようにしても構わない。   Next, the shutter 21 in the body unit 2 is an optical shutter for adjusting the exposure time of the image sensor 22 by regulating the passage time of the subject light beam reaching the image sensor 22 from the lens 10. Although an optical shutter is used here, an element shutter (electronic shutter) by the image sensor 22 may be used instead of or in addition to the optical shutter.

撮像素子22は、撮像光学系9により結像される被写体像を、1回の撮像において複数の波長帯(例えば、RGBが挙げられるが、これに限るものではない)光毎にそれぞれ受光して光電変換し、電気信号として出力するカラー撮像素子であり、例えば、CCDやCMOS等として構成されている。ここに、カラー撮像素子の構成としては、オンチップの素子カラーフィルタを備えた単板の撮像素子でも良いし、RGB各色光への色分解を行うダイクロイックプリズムを用いた3板式であっても良いし、同一の画素位置で半導体の深さ方向位置に応じてRGBの撮像情報を取得可能な方式の撮像素子であっても良いし、複数の波長帯光の撮像情報を取得可能であればどのようなものでも構わない。   The imaging element 22 receives the subject image formed by the imaging optical system 9 for each of a plurality of wavelength bands (for example, but not limited to RGB) in one imaging. A color imaging device that performs photoelectric conversion and outputs an electrical signal, and is configured as a CCD or CMOS, for example. Here, the configuration of the color image sensor may be a single-plate image sensor provided with an on-chip element color filter, or a three-plate system using a dichroic prism that performs color separation into RGB color lights. However, it may be an image sensor of a method capable of acquiring RGB imaging information according to the position in the depth direction of the semiconductor at the same pixel position, or any imaging element that can acquire imaging information of a plurality of wavelength bands. It does n’t matter.

例えば、図2を参照して、一般的なデジタルスチルカメラに用いられることが多い単板のカラー撮像素子の構成例を説明する。ここに、図2は撮像素子22の画素配列を説明するための図である。本実施形態においては、オンチップで搭載される素子カラーフィルタが透過する複数の波長帯光はR、G、およびBとなっており、この図2に示すように、原色ベイヤー配列の単板カラー撮像素子が構成されている。従って、撮像素子22がこの図2に示したような構成である場合には、1画素に付き1色の色成分のみが得られることになるために、画像処理部25においてデモザイキング処理を行い1画素につきRGBの3色が揃ったカラー画像を生成するようになっている。   For example, with reference to FIG. 2, a configuration example of a single-plate color image sensor often used for a general digital still camera will be described. FIG. 2 is a diagram for explaining the pixel arrangement of the image sensor 22. In the present embodiment, the plurality of wavelength band lights transmitted through the element color filter mounted on-chip are R, G, and B. As shown in FIG. An image sensor is configured. Therefore, when the image pickup device 22 has the configuration shown in FIG. 2, only one color component is obtained per pixel, and therefore the image processor 25 performs a demosaicing process. A color image in which three colors of RGB are aligned per pixel is generated.

撮像回路23は、撮像素子22から出力される画像信号を増幅(ゲイン調整)したり、また、撮像素子22がアナログ撮像素子であってアナログの画像信号を出力する場合には、A/D変換してデジタル画像信号(以下では「画像情報」ともいう)を生成するものである(撮像素子22がデジタル撮像素子である場合には、撮像回路23に入力される時点で既にデジタルとなっているためにA/D変換は行わない)。撮像回路23は、撮像駆動部24で切り換えられた撮像モードに対応するフォーマットで、画像信号を画像処理部25へ出力する。なお、詳細は後述する。   The image pickup circuit 23 amplifies (gain adjusts) the image signal output from the image pickup device 22, or performs A / D conversion when the image pickup device 22 is an analog image pickup device and outputs an analog image signal. Thus, a digital image signal (hereinafter also referred to as “image information”) is generated (when the image pickup device 22 is a digital image pickup device, it is already digital when it is input to the image pickup circuit 23). Therefore, A / D conversion is not performed). The imaging circuit 23 outputs an image signal to the image processing unit 25 in a format corresponding to the imaging mode switched by the imaging driving unit 24. Details will be described later.

撮像駆動部24は、システムコントローラ30の指令に基づいて、撮像素子22および撮像回路23にタイミング信号および電力を供給して、撮像素子に露光、読出、素子シャッタ等を行わせるとともに、撮像素子22の動作に同期させて撮像回路23によるゲイン調整およびA/D変換を実行させるように制御するものである。また、この撮像駆動部24は、撮像素子22の撮像モードを切り換える制御も行う。   The imaging drive unit 24 supplies a timing signal and power to the imaging element 22 and the imaging circuit 23 based on a command from the system controller 30 to cause the imaging element to perform exposure, reading, element shuttering, and the like, and also to the imaging element 22. Control is performed to execute gain adjustment and A / D conversion by the imaging circuit 23 in synchronism with the above operations. The imaging drive unit 24 also performs control to switch the imaging mode of the imaging element 22.

画像処理部25は、各種のデジタル画像処理を行うものである。画像処理部25は、例えば、黒レベルの補正、γ補正、欠陥画素の補正、デモザイキング、画像情報の色情報の変換処理、画像情報の画素数変換処理、等を行う。さらに、画像処理部25は、WB(ホワイトバランス)調整を行うホワイトバランス調整部36も含んで構成されている。また、帯域制限フィルタ12は通過させる光の帯域(色)によって、撮像光学系9の瞳領域における通過領域を制限しているために、通過する光は、帯域によって明るさが異なることになる。そこで、画像処理部25は、このような帯域間(色間)の明るさの違いも補正するようになっている。加えて、図3に示したような帯域制限フィルタ12を用いた場合には、非合焦部分においてR画像とB画像とに空間的な位置ズレが発生することになるために、画像処理部25は、この空間的な位置ズレを補正して、色ズレのない平面画像を生成するカラー化処理も行う。   The image processing unit 25 performs various digital image processing. The image processing unit 25 performs, for example, black level correction, γ correction, defective pixel correction, demosaicing, image information color information conversion processing, image information pixel number conversion processing, and the like. Furthermore, the image processing unit 25 includes a white balance adjustment unit 36 that performs WB (white balance) adjustment. Further, since the band limiting filter 12 limits the passing area in the pupil area of the imaging optical system 9 by the band (color) of the light to pass, the brightness of the passing light varies depending on the band. Therefore, the image processing unit 25 corrects such a difference in brightness between bands (between colors). In addition, when the band limiting filter 12 as shown in FIG. 3 is used, a spatial misalignment occurs between the R image and the B image in the out-of-focus portion, so that the image processing unit 25 also performs a colorization process for correcting the spatial positional deviation and generating a flat image without color deviation.

画像メモリ26は、高速な書き込みや読み出しが可能なメモリであり、例えばSDRAM(Synchronous Dynamic Random Access Memory)により構成されていて、画像処理用のワークエリアとして使用されるとともに、システムコントローラ30のワークエリアとしても使用される。例えば、画像メモリ26は、画像処理部25により処理された最終的な画像を記憶するだけでなく、画像処理部25による複数の処理過程における各中間画像も適宜記憶する。   The image memory 26 is a memory capable of high-speed writing and reading, and is constituted by, for example, an SDRAM (Synchronous Dynamic Random Access Memory). The image memory 26 is used as a work area for image processing and is also a work area of the system controller 30. Also used as For example, the image memory 26 not only stores the final image processed by the image processing unit 25 but also appropriately stores each intermediate image in a plurality of processing steps by the image processing unit 25.

表示部27は、LCD等を有して構成されていて、画像処理部25により表示用に処理された画像(記録媒体29から読み出されて画像処理部25により表示用に処理された画像も含む)を表示するものである。具体的には、この表示部27は、ライブビュー画像の表示、静止画像記録時の確認表示、記録媒体29から読み出した静止画像または動画像の再生表示、等を行う。   The display unit 27 includes an LCD or the like, and an image processed for display by the image processing unit 25 (an image read from the recording medium 29 and processed for display by the image processing unit 25 is also included). Display). Specifically, the display unit 27 performs live view image display, confirmation display when recording a still image, reproduction display of a still image or a moving image read from the recording medium 29, and the like.

インターフェース(IF)28は、記録媒体29を着脱可能に接続するものであり、記録媒体29へ記録する情報の伝達、および記録媒体29から読み出した情報の伝達を行う。   The interface (IF) 28 is detachably connected to the recording medium 29, and transmits information to be recorded on the recording medium 29 and information read from the recording medium 29.

記録媒体29は、画像処理部25により記録用に処理された画像や、該画像に関連する各種データを記録するものであり、上述したように例えばメモリカード等として構成されている。   The recording medium 29 records an image processed for recording by the image processing unit 25 and various data related to the image, and is configured as a memory card or the like as described above.

センサ部31は、例えば、撮像装置のブレを検出するための加速度センサ等で構成される手振れセンサ、撮像素子22の温度を測定するための温度センサ、撮像装置周辺の明るさを測定するための明るさセンサ、等を含んでいる。このセンサ部31による検出結果はシステムコントローラ30に入力される。ここに、手振れセンサによる検出結果は撮像素子22やレンズ10を駆動して手振れ補正を行ったり、画像処理による手振れ補正を行ったりするために用いられる。また、温度センサによる検出結果は撮像駆動部24による駆動クロックの制御や撮像素子22から得られる画像中のノイズ量を推定するのに用いられる。さらに、明るさセンサによる検出結果は、例えば、周囲の明るさに応じて表示部27の輝度を適正に制御するために用いられる。   The sensor unit 31 is, for example, a camera shake sensor configured by an acceleration sensor or the like for detecting blur of the imaging device, a temperature sensor for measuring the temperature of the imaging device 22, and a brightness for measuring the brightness around the imaging device. Includes brightness sensor, etc. The detection result by the sensor unit 31 is input to the system controller 30. Here, the detection result by the camera shake sensor is used to drive the image pickup device 22 and the lens 10 to perform camera shake correction or to perform camera shake correction by image processing. The detection result by the temperature sensor is used to control the drive clock by the imaging drive unit 24 and to estimate the amount of noise in the image obtained from the image sensor 22. Furthermore, the detection result by the brightness sensor is used, for example, to appropriately control the luminance of the display unit 27 according to the ambient brightness.

操作部32は、撮像装置の電源をオン/オフするための電源スイッチ、静止画像や動画像等の撮像動作を指示入力するための2段式の押圧ボタンでなるレリーズボタン、撮像モード等を変更するためのモードボタン、選択項目や数値などを変更するのに用いられる十字キー、等を含んでいる。この操作部32の操作により発生した信号は、システムコントローラ30に入力される。   The operation unit 32 changes a power switch for turning on / off the power of the image pickup device, a release button including a two-stage press button for inputting an image pickup operation such as a still image or a moving image, an image pickup mode, and the like. Mode buttons, cross keys used to change selection items, numerical values, and the like. A signal generated by the operation of the operation unit 32 is input to the system controller 30.

ストロボ制御回路33は、システムコントローラ30の指令に基づいて、ストロボ34の発光量や発光タイミングを制御するものである。   The strobe control circuit 33 controls the light emission amount and the light emission timing of the strobe 34 based on a command from the system controller 30.

ストロボ34は、ストロボ制御回路33の制御により、被写体へ照明光を照射する発光源である。   The strobe 34 is a light source that emits illumination light to the subject under the control of the strobe control circuit 33.

ボディ側通信コネクタ35は、上述したように、レンズユニット1とボディユニット2とがレンズマウントにより結合されてレンズ側通信コネクタ15と接続されることにより、レンズ制御部14とシステムコントローラ30との間の通信を可能にするコネクタである。   As described above, the body side communication connector 35 is connected between the lens control unit 14 and the system controller 30 when the lens unit 1 and the body unit 2 are coupled by the lens mount and connected to the lens side communication connector 15. It is a connector that enables communication.

システムコントローラ30は、このボディユニット2の制御を行うとともに、レンズ制御部14を介してレンズユニット1の制御も行うものであり、この撮像装置を統合的に制御する制御部である。このシステムコントローラ30は、図示しないフラッシュメモリ等の不揮発性メモリから撮像装置の基本制御プログラムを読み出して、操作部32からの入力に応じて、撮像装置全体を制御するようになっている。   The system controller 30 controls the body unit 2 and also controls the lens unit 1 via the lens control unit 14, and is a control unit that integrally controls the imaging apparatus. The system controller 30 reads a basic control program of the image pickup apparatus from a non-illustrated non-volatile memory such as a flash memory, and controls the entire image pickup apparatus in accordance with an input from the operation unit 32.

例えば、システムコントローラ30は、レンズ制御部14を介してレンズユニット1内の各部を制御したり、シャッタ21を制御して駆動したり、センサ部31の加速度センサによる検出結果に基づいて図示しない手振れ補正機構を制御駆動して手振れ補正を行ったり、等を行う。さらに、システムコントローラ30は、操作部32のモードボタンからの入力に応じて、撮像装置のモード設定(静止画像を撮像するための静止画モード、動画像を撮像するための動画モード等の設定)を行うものとなっている。   For example, the system controller 30 controls each part in the lens unit 1 via the lens control unit 14, controls and drives the shutter 21, and a camera shake (not shown) based on a detection result by the acceleration sensor of the sensor unit 31. The correction mechanism is controlled to perform camera shake correction or the like. Further, the system controller 30 sets the mode of the imaging device (settings such as a still image mode for capturing a still image and a moving image mode for capturing a moving image) in response to an input from the mode button of the operation unit 32. It is intended to do.

さらに、システムコントローラ30は、距離演算部37と、色相関判定部38と、コントラストAF制御部39とを備えている。   Further, the system controller 30 includes a distance calculation unit 37, a color correlation determination unit 38, and a contrast AF control unit 39.

色相関判定部38は、上述した色瞳重心位置が異なる帯域の画像同士間の何れかに、相関があるか否かを判定するものである。   The color correlation determination unit 38 determines whether or not there is a correlation between the images in the bands having different color pupil centroid positions.

距離演算部37は、撮像素子22から得られた画像における、色瞳重心位置が異なる複数の帯域の画像の位相差量に基づき、被写体までの距離を演算するものである。例えば、距離演算部37は、撮像素子22から得られた、第1の帯域の第1の画像と第2の帯域の第2の画像との位相差量を演算し、演算した位相差量に基づき、被写体までの距離を演算する。具体的には、距離演算部37は、R画像とB画像との位相差量、R画像とG画像との位相差量、またはB画像とG画像との位相差量に基づき被写体距離を演算するようになっている。   The distance calculation unit 37 calculates the distance to the subject based on the phase difference amounts of images in a plurality of bands having different color pupil centroid positions in the image obtained from the image sensor 22. For example, the distance calculation unit 37 calculates the phase difference amount between the first image in the first band and the second image in the second band obtained from the image sensor 22, and calculates the calculated phase difference amount. Based on this, the distance to the subject is calculated. Specifically, the distance calculation unit 37 calculates the subject distance based on the phase difference amount between the R image and the B image, the phase difference amount between the R image and the G image, or the phase difference amount between the B image and the G image. It is supposed to be.

距離演算部37により得られた距離情報は、例えばオートフォーカス(AF)に利用され、システムコントローラ30が距離情報に基づきレンズユニット1を制御して位相差AFを行う(勿論、距離情報の利用対象はAFに限るものではなく、ボケ量コントロールや、立体視画像の生成等に用いても構わない)。   The distance information obtained by the distance calculation unit 37 is used, for example, for autofocus (AF), and the system controller 30 controls the lens unit 1 based on the distance information to perform phase difference AF (of course, the distance information is used) Is not limited to AF, and may be used for blur amount control, generation of stereoscopic images, and the like.

コントラストAF制御部39は、撮像素子22から得られた画像に基づきフォーカスレンズを駆動してコントラストAFを行うものである。より詳しくは、コントラストAF制御部39は、画像処理部25から出力される画像信号(この画像信号は、輝度成分を含む割合が高いG画像であっても良いし、上述したカラー化処理により色ズレが補正された画像に係る輝度信号画像であっても構わない)からコントラスト値(AF評価値ともいう)を生成し、レンズ制御部14を介してレンズ10内のフォーカスレンズを制御するものである。すなわち、コントラストAF制御部39は、画像信号にフィルタ、例えばハイパスフィルタを作用させて高周波成分を抽出し、コントラスト値とする。そして、コントラストAF制御部39は、フォーカスレンズ位置を異ならせてコントラスト値を取得し、コントラスト値が大きくなる方向へフォーカスレンズを移動させて、さらにコントラスト値を取得する。このような処理を繰り返して行うことにより、最大のコントラスト値が得られるフォーカスレンズ位置(合焦位置)へフォーカスレンズを駆動するように制御するものである。   The contrast AF control unit 39 performs contrast AF by driving the focus lens based on the image obtained from the image sensor 22. More specifically, the contrast AF control unit 39 may output an image signal output from the image processing unit 25 (this image signal may be a G image having a high ratio including a luminance component, or may be processed by the above-described colorization process. A contrast value (also referred to as an AF evaluation value) is generated from a luminance signal image related to an image with corrected deviation, and the focus lens in the lens 10 is controlled via the lens control unit 14. is there. That is, the contrast AF control unit 39 extracts a high-frequency component by applying a filter, for example, a high-pass filter, to the image signal and sets it as a contrast value. Then, the contrast AF control unit 39 acquires the contrast value by changing the focus lens position, moves the focus lens in the direction in which the contrast value increases, and further acquires the contrast value. By repeatedly performing such processing, control is performed so that the focus lens is driven to the focus lens position (focus position) at which the maximum contrast value is obtained.

システムコントローラ30は、瞳位置変更部(後述するように、フィルタ駆動部17、絞り駆動部18、またはバリア駆動部19(図37参照)等)を制御することにより、帯域制限フィルタ12により分割される帯域の内の少なくとも1つの帯域の色瞳重心位置を変更するようになっている(従って、瞳位置変更部は、色瞳重心位置変更部といっても良い)。   The system controller 30 is divided by the band limiting filter 12 by controlling a pupil position changing unit (a filter driving unit 17, a diaphragm driving unit 18, or a barrier driving unit 19 (see FIG. 37) as described later). The color pupil centroid position of at least one of the bands is changed (thus, the pupil position changing unit may be called the color pupil centroid position changing unit).

そして、システムコントローラ30は、後述するように、色相関判定部38により相関があると判定された場合、撮像素子22による1回の撮像画像から距離演算部37に被写体までの距離を演算させ、相関がないと判定された場合、瞳位置変更部に色瞳重心位置を変更させ、撮像素子22による色瞳重心位置の変更前と変更後との少なくとも2回の撮像画像から、距離演算部37に被写体までの距離を演算させる制御を行う。   Then, as will be described later, when the color correlation determination unit 38 determines that there is a correlation, the system controller 30 causes the distance calculation unit 37 to calculate the distance to the subject from one captured image by the image sensor 22, If it is determined that there is no correlation, the pupil position changing unit is caused to change the color pupil centroid position, and the distance calculation unit 37 is obtained from at least two captured images before and after the change of the color pupil centroid position by the image sensor 22. Control to calculate the distance to the subject.

さらに、システムコントローラ30は、距離演算部37による位相差量に基づく被写体距離の演算を行うのに適切であるか否かを判定し、不適切であると判定したときには、距離演算部37による被写体距離の演算を行うことなく、コントラストAF制御部によるコントラストAFを行わせるように制御するものとなっている。なお、詳細は後述する。   Further, the system controller 30 determines whether or not the distance calculation unit 37 is appropriate for calculating the subject distance based on the phase difference amount. Control is performed so that contrast AF is performed by the contrast AF control unit without calculating the distance. Details will be described later.

次に、上述したような構成の撮像装置により、通常の被写体OBJrgbと狭帯域の被写体OBJrとを撮像する場合について、図4〜図11を参照して説明する。   Next, a case where a normal subject OBJrgb and a narrow-band subject OBJr are imaged by the imaging apparatus having the above-described configuration will be described with reference to FIGS.

図4は、合焦位置よりも遠距離側にある通常の被写体OBJrgbを撮像するときの被写体光束集光の様子を示す平面図である。   FIG. 4 is a plan view showing a state of subject light beam condensing when an image of a normal subject OBJrgb on the far side from the in-focus position is imaged.

RGBの各帯域に光強度を有する通常の被写体OBJrgbの場合には、被写体OBJrgbからの光は、R成分がRGフィルタ12rを通過する一方でGBフィルタ12bに遮断され、B成分はGBフィルタ12bを通過する一方でRGフィルタ12rに遮断される。また、G成分についてはRGフィルタ12rおよびGBフィルタ12bの両方を通過する。   In the case of a normal subject OBJrgb having light intensity in each of the RGB bands, the light from the subject OBJrgb is blocked by the GB filter 12b while the R component passes through the RG filter 12r, and the B component passes through the GB filter 12b. While passing, it is blocked by the RG filter 12r. Further, the G component passes through both the RG filter 12r and the GB filter 12b.

そして、図3に示した形状の帯域制限フィルタ12を用いる場合の非合焦時には、被写体OBJrgb上の1点から放射された光は、G成分については円形ボケをなす被写体像IMGgを形成し、R成分については半円形ボケをなす被写体像IMGr、B成分についても半円形ボケをなす被写体像IMGbをそれぞれ形成する。ただし、R成分のボケ被写体像IMGrとB成分のボケ被写体像IMGbは、合焦位置よりも近距離側の非合焦であるときには帯域制限フィルタ12と左右が一致し、合焦位置よりも遠距離側の非合焦であるときには帯域制限フィルタ12と左右が反転する。   When the band limiting filter 12 having the shape shown in FIG. 3 is used, the light emitted from one point on the subject OBJrgb forms a subject image IMGg that forms a circular blur for the G component, A subject image IMGr that forms a semicircular blur for the R component and a subject image IMGb that forms a semicircular blur for the B component are formed. However, the R component blurred subject image IMGr and the B component blurred subject image IMGb coincide with the band limiting filter 12 on the left and right sides when the in-focus state is closer to the in-focus side, and farther than the in-focus position. When the distance side is not in focus, the left and right sides of the band limiting filter 12 are reversed.

撮像光学系9からの光を受けた撮像素子22上のRGB各色の画素は、図5のハッチングに示すように、光電変換をそれぞれ行って画素値を発生させる。ここに、図5は、通常の被写体OBJrgbを撮像するときのRGB画素の光電変換の様子を示す図である。   The RGB pixels on the image sensor 22 that have received the light from the imaging optical system 9 perform photoelectric conversion and generate pixel values, as shown by hatching in FIG. FIG. 5 is a diagram showing a state of photoelectric conversion of the RGB pixels when imaging a normal subject OBJrgb.

上述したように、こうして得られたR画像とB画像とをSAD方式により相関演算したときには、図6に示すようなV字形状の谷をなす相関値が得られ、0に近い谷の底の像ずれ量が求める位相差量となる。また、ZNCC方式により相関演算したときには、図7に示すような逆V字形状の山をなす相関値が得られ、1に近い山の頂点の像ずれ量が求める位相差量となる。なお、図6は通常の被写体OBJrgbを撮像して得られたR画像とB画像の相対位置をずらしながらSAD方式により演算を行った相関値の例を示す線図であり、図7は通常の被写体OBJrgbを撮像して得られたR画像とB画像の相対位置をずらしながらZNCC方式により演算を行った相関値の例を示す線図である。また、図6、図7(および後述する図10、図11)のグラフの横軸は、相関演算対象の画像(例えば、上述したR画像とB画像)の像ズレ量(単位は画素)を示し、縦軸は相関演算の結果得られる相関値を示している。   As described above, when the R image and the B image thus obtained are subjected to correlation calculation by the SAD method, a correlation value forming a V-shaped valley as shown in FIG. 6 is obtained, and the bottom of the valley close to 0 is obtained. The amount of image shift is the amount of phase difference to be obtained. Further, when the correlation calculation is performed by the ZNCC method, a correlation value forming an inverted V-shaped peak as shown in FIG. 7 is obtained, and an image shift amount at the peak of the peak close to 1 is obtained as a phase difference amount. 6 is a diagram showing an example of correlation values calculated by the SAD method while shifting the relative positions of the R image and the B image obtained by imaging a normal subject OBJrgb, and FIG. It is a diagram which shows the example of the correlation value calculated by the ZNCC system, shifting the relative position of R image and B image which were obtained by imaging to-be-photographed object OBJrgb. In addition, the horizontal axis of the graphs of FIGS. 6 and 7 (and FIGS. 10 and 11 to be described later) represents the image shift amount (unit: pixel) of the correlation calculation target image (for example, the R image and B image described above). The vertical axis indicates the correlation value obtained as a result of the correlation calculation.

続いて、図8は、合焦位置よりも遠距離側にあるR色の被写体OBJrを撮像するときの被写体光束集光の様子を示す平面図である。   Next, FIG. 8 is a plan view showing a state of subject light flux condensing when the R subject OBJr on the far side from the in-focus position is imaged.

まず、被写体OBJrは、狭帯域の被写体であって、例えば深紅のバラ等の、R色光の強度がB色光およびG色光の強度に比して圧倒的に高い被写体であるものとする。   First, it is assumed that the subject OBJr is a narrow-band subject, such as a crimson rose, whose R color light intensity is overwhelmingly higher than that of B color light and G color light.

このときには、被写体OBJrから照射されたR光は、RGフィルタ12rは透過するが、GBフィルタ12bには遮断される。これにより、非合焦の被写体OBJrgb上の1点から放射された光は、R成分については半円形ボケをなす被写体像IMGrを形成するが、G成分およびB成分については被写体像がほとんど形成されない。従って、図9に示すように、R画素は光電変換を行って画素値を発生させるが、B画素およびG画素では光電変換があまり行われず画素値がほとんど発生しない。ここに、図9は、R色の被写体OBJrを撮像するときのRGB画素の光電変換の様子を示す図である。撮像素子22は、R画像だけでなくB画像およびG画像についても画像信号を出力するために、データとしてはRGB画像が揃うことになる。   At this time, the R light emitted from the subject OBJr passes through the RG filter 12r but is blocked by the GB filter 12b. Thereby, light emitted from one point on the out-of-focus subject OBJrgb forms a subject image IMGr that forms a semicircular blur for the R component, but hardly any subject image is formed for the G component and the B component. . Therefore, as shown in FIG. 9, the R pixel performs photoelectric conversion to generate a pixel value, but the B pixel and the G pixel do not perform much photoelectric conversion and generate almost no pixel value. FIG. 9 is a diagram showing a state of photoelectric conversion of the RGB pixels when the R subject OBJr is imaged. Since the image sensor 22 outputs image signals not only for the R image but also for the B image and the G image, RGB images are prepared as data.

しかし、このようにして得られたR画像とB画像とをSAD方式により相関演算しても、例えば図10に示すような明確なV字形状の谷が見られない相関値が得られてしまい、0に近い谷の底を求めるのが困難であり、仮に求めたとしても信頼性が著しく低いものとなる。同様に、ZNCC方式により相関演算したとしても、図11に示すような明確な逆V字形状の山が見られない相関値が得られてしまい、1に近い山の頂点を求めるのが困難であり、仮に求めたとしても信頼性が著しく低いものとなる。こうして、被写体が狭帯域である場合には、位相差検出を行うことが困難であり、仮に位相差検出を行ったとしても検出した位相差量の信頼性が低くなってしまったりすることが分かる。図10は狭帯域の被写体OBJrを撮像して得られたR画像とB画像の相対位置をずらしながらSAD方式により演算を行った相関値の例を示す線図であり、図11は狭帯域の被写体OBJrを撮像して得られたR画像とB画像の相対位置をずらしながらZNCC方式により演算を行った相関値の例を示す線図である。   However, even if the correlation calculation is performed between the R image and the B image obtained in this way by the SAD method, a correlation value that does not show a clear V-shaped valley as shown in FIG. 10 is obtained. , It is difficult to obtain the bottom of the valley close to 0, and even if it is obtained, the reliability is extremely low. Similarly, even if the correlation calculation is performed by the ZNCC method, a correlation value in which a clear inverted V-shaped peak as shown in FIG. 11 is not obtained is obtained, and it is difficult to obtain the peak of the peak close to 1. Yes, even if it is obtained, the reliability is extremely low. Thus, when the subject is in a narrow band, it is difficult to detect the phase difference, and even if phase difference detection is performed, the reliability of the detected phase difference amount may be reduced. . FIG. 10 is a diagram showing an example of correlation values calculated by the SAD method while shifting the relative positions of the R image and the B image obtained by imaging the narrow band subject OBJr, and FIG. It is a diagram which shows the example of the correlation value computed by the ZNCC system, shifting the relative position of R image and B image which were obtained by image | photographing the object OBJr.

このような場合に本実施形態においては、R画像とG画像(またはB画像とG画像)の相関演算に基づき被写体距離の演算を行ったり、あるいはR画像の色瞳重心位置を変更して、色瞳重心位置変更の前後において撮像した2枚以上のR画像の相関演算に基づき被写体距離の演算を行ったり、あるいは相関演算に基づく被写体距離の演算の信頼度が低い場合には、コントラストAFにより被写体距離を求めたりするようにしている。なお、詳細は後述する。   In such a case, in the present embodiment, the subject distance is calculated based on the correlation calculation between the R image and the G image (or the B image and the G image), or the color pupil centroid position of the R image is changed, When the subject distance is calculated based on the correlation calculation of two or more R images captured before and after the color pupil centroid position change, or when the reliability of the object distance calculation based on the correlation calculation is low, contrast AF is used. The subject distance is calculated. Details will be described later.

図12から図15を参照して、色瞳重心位置を変更する例について説明する。ここに、図12は、図3の帯域制限フィルタ12を光軸周りに180°回転させて、合焦位置よりも遠距離側にあるR色の被写体OBJrを撮像するときの被写体光束集光の様子を示す平面図であり、図13は帯域制限フィルタ12が図3に示す位置にあるときの、R色の色瞳重心位置g1を示す図であり、図14は帯域制限フィルタ12を光軸周りに180°回転させたときの、R色の色瞳重心位置g2を示す図であり、図15はR色の色瞳重心位置の変更前後の様子を示す図である。   An example of changing the position of the center of gravity of the color pupil will be described with reference to FIGS. FIG. 12 shows the subject light flux collection when the band limiting filter 12 of FIG. 3 is rotated 180 ° around the optical axis and the R subject OBJr on the far side from the in-focus position is imaged. FIG. 13 is a diagram showing a color pupil centroid position g1 of the R color when the band limiting filter 12 is in the position shown in FIG. 3, and FIG. 14 shows the band limiting filter 12 on the optical axis. FIG. 15 is a diagram illustrating the R color pupil center of gravity position g2 when rotated around 180 °, and FIG. 15 is a diagram illustrating a state before and after the change of the R color pupil center of gravity position.

図3に示した帯域制限フィルタ12を光軸周りに180°回転させると、図14のように、右半円がRGフィルタ12rとなり、左半円がGBフィルタ12bとなる。   When the band limiting filter 12 shown in FIG. 3 is rotated by 180 ° around the optical axis, the right semicircle becomes the RG filter 12r and the left semicircle becomes the GB filter 12b as shown in FIG.

この場合には、非合焦の被写体OBJrgb上の1点から放射されたR色光が形成する被写体像IMGrは、図8に示した半円形ボケと反対側の半円形ボケとなる。   In this case, the subject image IMGr formed by the R color light emitted from one point on the out-of-focus subject OBJrgb is a semicircular blur opposite to the semicircular blur shown in FIG.

撮像光学系9の瞳を通過する際の光量の重心位置について考えれば、帯域制限フィルタ12が図3に示したような状態であるときには、R色の色瞳重心位置は図13に示すg1となるが、帯域制限フィルタ12が図14に示したような状態となったときにはR色の色瞳重心位置は同図に示すg2となる。   Considering the barycentric position of the amount of light when passing through the pupil of the imaging optical system 9, when the band limiting filter 12 is in the state shown in FIG. 3, the R color pupil barycentric position is g1 shown in FIG. However, when the band limiting filter 12 is in the state shown in FIG. 14, the color pupil center of gravity of the R color is g2 shown in FIG.

従って、図15に示すように、被写体が単一の色(この例ではR色)であっても異なる2つの色瞳重心位置を実現することができるために、色瞳重心位置を変更する前後に撮像した2枚の画像に基づいて相関演算を行うことにより、被写体までの距離を求めることが可能となる。   Therefore, as shown in FIG. 15, since two different color pupil centroid positions can be realized even if the subject is a single color (R color in this example), before and after the color pupil centroid position is changed. By performing the correlation calculation based on the two images taken at the same time, the distance to the subject can be obtained.

続いて、図16から図21を参照して、色瞳重心位置を異ならせる幾つかの例を説明する。ここに、図16は図3の帯域制限フィルタ12を光軸周りに120°回転させたときのR色の色瞳重心位置g2を示す図であり、図17は図3の帯域制限フィルタ12を光軸周りに240°回転させたときのR色の色瞳重心位置g3を示す図であり、図18は光軸周りの3等分位置となる色瞳重心位置g1〜g3を示す図であり、図19は図3の帯域制限フィルタ12を光軸周りに90°回転させたときのR色の色瞳重心位置g3を示す図であり、図20は図3の帯域制限フィルタ12を光軸周りに270°回転させたときのR色の色瞳重心位置g4を示す図であり、図21は光軸周りの4等分位置となる色瞳重心位置g1〜g4を示す図である。   Subsequently, with reference to FIGS. 16 to 21, some examples in which the position of the center of gravity of the color pupil is changed will be described. FIG. 16 is a diagram illustrating the color pupil center of gravity position g2 of the R color when the band limiting filter 12 of FIG. 3 is rotated 120 ° around the optical axis, and FIG. 17 is a diagram illustrating the band limiting filter 12 of FIG. FIG. 18 is a diagram illustrating the color pupil centroid position g3 of the R color when rotated by 240 ° around the optical axis, and FIG. 19 is a diagram illustrating the color pupil center of gravity position g3 of the R color when the band limiting filter 12 of FIG. 3 is rotated by 90 ° around the optical axis, and FIG. 20 is a diagram illustrating the band limiting filter 12 of FIG. FIG. 21 is a diagram showing the color pupil centroid position g4 of the R color when rotated around 270 °, and FIG. 21 is a diagram showing the color pupil centroid positions g1 to g4 that are four equal positions around the optical axis.

図13に示すフィルタ位置において第1の色瞳重心位置g1のR画像を取得し、図16に示すフィルタ位置において第2の色瞳重心位置g2のR画像を取得し、図17に示すフィルタ位置において第3の色瞳重心位置g3のR画像を取得すれば、図18に示すように、光軸周りの3等分位置に色瞳重心位置をもつ視差画像を得ることができる。   The R image of the first color pupil centroid position g1 is acquired at the filter position shown in FIG. 13, the R image of the second color pupil centroid position g2 is acquired at the filter position shown in FIG. 16, and the filter position shown in FIG. As shown in FIG. 18, a parallax image having a color pupil barycentric position at three equal positions around the optical axis can be obtained.

このときの各色瞳重心位置におけるR画像取得の順序と、取得したR画像のうち、どのR画像を組み合わせて距離情報を取得するかは種々のバリエーションが考えられるが、1つの例は次のようになる。   Various variations are conceivable for the order of R image acquisition at each color pupil center of gravity position and which R image is combined to acquire distance information among the acquired R images, but one example is as follows. become.

まず、図18に示す第1の色瞳重心位置g1において第1のR画像を取得し、次に、図18に示す第2の色瞳重心位置g2において第2のR画像を取得する。そして、第1のR画像と第2のR画像とに基づき相関演算を行い、第1の距離情報を取得する。   First, the first R image is acquired at the first color pupil centroid position g1 shown in FIG. 18, and then the second R image is acquired at the second color pupil centroid position g2 shown in FIG. Then, correlation calculation is performed based on the first R image and the second R image, and first distance information is acquired.

続いて、図18に示す第3の色瞳重心位置g3において第3のR画像を取得し、第2のR画像と第3のR画像とに基づき相関演算を行い、第2の距離情報を取得する。   Subsequently, a third R image is acquired at the third color pupil centroid position g3 shown in FIG. 18, a correlation operation is performed based on the second R image and the third R image, and the second distance information is obtained. get.

その後、再度、図18に示す第1の色瞳重心位置g1の第4のR画像を取得し、第3のR画像と第4のR画像とに基づき相関演算を行い、第3の距離情報を取得する。ここで、再度図18に示す第1の色瞳重心位置g1のR画像を取得しているのは、第1のR画像と第3のR画像とでは取得された時間差が第1のR画像と第2のR画像の時間差の例えば2倍となり、その間に被写体が移動する等により相関演算の信頼性が低下するのを防止するためである。   Thereafter, again, a fourth R image of the first color pupil center of gravity position g1 shown in FIG. 18 is acquired, and correlation calculation is performed based on the third R image and the fourth R image to obtain third distance information. To get. Here, the R image of the first color pupil centroid position g1 shown in FIG. 18 is acquired again because the time difference acquired between the first R image and the third R image is the first R image. This is to prevent the reliability of the correlation calculation from being lowered due to, for example, twice the time difference between the second R image and the second R image.

なお、ライブビューなどの連続的に画像を取得している場合には、その後も同様にして、順次色瞳重心位置を異ならせながら距離情報を取得していけば良い。   In addition, when images are continuously acquired such as live view, distance information may be acquired in the same manner while sequentially changing the color pupil center of gravity position.

また、距離情報の取得の他の例は、次のようになる。   Another example of obtaining distance information is as follows.

まず、図18における第1の色瞳重心位置g1において第1のR画像を取得し、次に、図18における第2の色瞳重心位置g2において第2のR画像を取得する。そして、第1のR画像と第2のR画像とに基づき相関演算を行い、第1の距離情報を取得する。   First, the first R image is acquired at the first color pupil centroid position g1 in FIG. 18, and then the second R image is acquired at the second color pupil centroid position g2 in FIG. Then, correlation calculation is performed based on the first R image and the second R image, and first distance information is acquired.

続いて、図18における第3の色瞳重心位置g3において第3のR画像を取得し、第2のR画像と第3のR画像とに基づき相関演算を行い、第2の距離情報を取得する。さらに、第1のR画像と第3のR画像とに基づき相関演算を行い、第3の距離情報を取得する。   Subsequently, a third R image is acquired at the third color pupil center of gravity position g3 in FIG. 18, and a correlation calculation is performed based on the second R image and the third R image to acquire second distance information. To do. Further, correlation calculation is performed based on the first R image and the third R image, and third distance information is acquired.

そして、得られた第1の距離情報と第2の距離情報と第3の距離情報とに基づき、最も信頼性が高いと推定できる距離情報を算出する。ここに、信頼性が高い距離情報の推定は、3つの距離情報の相関度に基づき判定しても良いし、統計的に処理して求めても構わないし、その他の手段を用いても良い。   Then, based on the obtained first distance information, second distance information, and third distance information, distance information that can be estimated to have the highest reliability is calculated. Here, the estimation of distance information with high reliability may be determined based on the degree of correlation of the three distance information, may be obtained by statistical processing, or other means may be used.

これら以外にも、距離情報の求め方には様々なパターンが考えられるために、用途に応じて適切なものを選択すれば良い。   In addition to these, since there are various patterns for obtaining the distance information, an appropriate one may be selected according to the application.

図18に示したような色瞳重心位置において得られた複数枚の画像を組み合わせれば、水平方向の位相差量、および垂直方向の位相差量を共に検出することができる。従って、水平方向のパターンの被写体、および垂直方向のパターンの被写体の何れであっても、高い信頼性で距離情報を算出することができる利点がある。   By combining a plurality of images obtained at the center of gravity of the color pupil as shown in FIG. 18, both the horizontal phase difference amount and the vertical phase difference amount can be detected. Therefore, there is an advantage that the distance information can be calculated with high reliability regardless of whether the subject has a horizontal pattern or a vertical pattern.

また、図13に示すフィルタ位置において第1の色瞳重心位置g1のR画像を取得し、図14に示すフィルタ位置において第2の色瞳重心位置g2のR画像を取得し、図19に示すフィルタ位置において第3の色瞳重心位置g3のR画像を取得し、図20に示すフィルタ位置において第4の色瞳重心位置g4のR画像を取得すれば、図21に示すように、光軸周りの4等分位置に色瞳重心位置をもつ視差画像を得ることができる。   Further, an R image of the first color pupil centroid position g1 is acquired at the filter position shown in FIG. 13, and an R image of the second color pupil centroid position g2 is acquired at the filter position shown in FIG. If the R image of the third color pupil centroid position g3 is acquired at the filter position and the R image of the fourth color pupil centroid position g4 is acquired at the filter position shown in FIG. 20, the optical axis as shown in FIG. It is possible to obtain a parallax image having the color pupil barycentric position at the surrounding four equal positions.

このときの画像取得の順序と、どの画像を組み合わせて距離情報を取得するかは種々のバリエーションが考えられるが、1つの例は次のようになる。   Various variations are conceivable for the order of image acquisition at this time and which image is used to acquire distance information, but one example is as follows.

まず、図20に示す第1の色瞳重心位置g1において第1のR画像を取得し、次に、図20に示す第2の色瞳重心位置g2において第2のR画像を取得する。そして、第1のR画像と第2のR画像とに基づき相関演算を行い、第1の距離情報を取得する。   First, the first R image is acquired at the first color pupil centroid position g1 shown in FIG. 20, and then the second R image is acquired at the second color pupil centroid position g2 shown in FIG. Then, correlation calculation is performed based on the first R image and the second R image, and first distance information is acquired.

続いて、図20に示す第3の色瞳重心位置g3において第3のR画像を取得し、次に、図20に示す第4の色瞳重心位置g4において第4のR画像を取得する。そして、第3のR画像と第4のR画像とに基づき相関演算を行い、第2の距離情報を取得する。   Subsequently, the third R image is acquired at the third color pupil centroid position g3 shown in FIG. 20, and then the fourth R image is acquired at the fourth color pupil centroid position g4 shown in FIG. Then, correlation calculation is performed based on the third R image and the fourth R image, and second distance information is acquired.

こうして得られた第1の距離情報は水平方向の視差に基づく距離情報であり、第2の距離情報は垂直方向の視差に基づく距離情報である。これら第1の距離情報と第2の距離情報とが一致する場合には何れの結果を用いても構わないが、一致しない場合には、例えば被写体のパターンに応じて適切な方を選択すれば良い。   The first distance information thus obtained is distance information based on horizontal parallax, and the second distance information is distance information based on vertical parallax. If the first distance information and the second distance information match, any result may be used. If they do not match, for example, an appropriate one may be selected according to the pattern of the subject. good.

この4点の色瞳重心位置の場合にも、上述した3点の色瞳重心位置の場合と同様に、距離情報の求め方には様々なパターンが考えられる。例えば、90°毎の右回り、すなわち、図21の色瞳重心位置g1,g3,g2,g4の順序で画像を順次取得するなどである。従って、用途に応じて適切な順序で画像を取得し、距離情報を算出するようにすれば良い。   Also in the case of the four color pupil centroid positions, as in the case of the three color pupil centroid positions described above, various patterns can be considered for obtaining the distance information. For example, the images are acquired sequentially in the clockwise direction every 90 °, that is, in the order of the color pupil centroid positions g1, g3, g2, and g4 in FIG. Therefore, it is only necessary to acquire images in an appropriate order according to the application and calculate distance information.

次に、上述したような複数の色瞳重心位置の切換を実現する構成について、以下に説明する。   Next, a configuration for realizing the switching of the plurality of color pupil centroid positions as described above will be described below.

まず、図示はしないが、一例としてはターレットを用いることである。すなわち、回転可能なターレット板の複数の回転角度位置に、複数の色瞳重心位置を実現する帯域制限フィルタ12をそれぞれ設けておき、ターレット板を回転させて所望の色瞳重心位置の帯域制限フィルタ12が撮像光学系9の光路上に位置するようにすれば良い。このとき、ターレット板上に帯域制限フィルタ12と同様の大きさの開口を設けておけば、帯域制限フィルタ12が光路上から全退避した状態を実現することができる。このターレット板の回転位置の制御は、システムコントローラ30の指令に基づき、レンズ制御部14を介してフィルタ駆動部17により行われる。   First, although not shown, as an example, a turret is used. That is, band limiting filters 12 that realize a plurality of color pupil centroid positions are provided at a plurality of rotation angle positions of a rotatable turret plate, respectively, and the turret plate is rotated to set a band limitation filter at a desired color pupil centroid position. 12 may be positioned on the optical path of the imaging optical system 9. At this time, if an opening having the same size as that of the band limiting filter 12 is provided on the turret plate, a state in which the band limiting filter 12 is fully retracted from the optical path can be realized. The rotation position of the turret plate is controlled by the filter driving unit 17 via the lens control unit 14 based on a command from the system controller 30.

次に、図22は、帯域制限フィルタ12の周囲にギヤーを設けて光軸周りに回転可能とした例を示す図である。   Next, FIG. 22 is a diagram illustrating an example in which a gear is provided around the band limiting filter 12 so as to be rotatable around the optical axis.

すなわち、円形をなす帯域制限フィルタ12の周囲にギヤー12aが設けられている。このギヤー12aには例えばウォームギヤー17cが噛合している。このウォームギヤー17cは、モータ17aの回転軸17bに取り付けられている。ここに、モータ17a、回転軸17b、およびウォームギヤー17cは、瞳位置変更部として機能するフィルタ駆動部17の構成の一部である。   That is, the gear 12a is provided around the band limiting filter 12 having a circular shape. For example, a worm gear 17c is engaged with the gear 12a. The worm gear 17c is attached to the rotating shaft 17b of the motor 17a. Here, the motor 17a, the rotating shaft 17b, and the worm gear 17c are part of the configuration of the filter driving unit 17 that functions as a pupil position changing unit.

このような構成において、回転角の検出(モータ17aをステッピングモータにより構成してそのパルス数をカウントする、あるいは回転角検出用のフォトインタラプタ等のセンサを設ける、など)を行いながら、帯域制限フィルタ12を光軸周りの所望の角度に回転させれば良い。   In such a configuration, the band-limiting filter is used while detecting the rotation angle (the motor 17a is configured by a stepping motor and counting the number of pulses, or a sensor such as a photointerrupter for detecting the rotation angle is provided). What is necessary is just to rotate 12 to the desired angle around an optical axis.

次に、撮像装置の作用について説明する。図23は、撮像装置における撮像処理を示すフローチャートである。   Next, the operation of the imaging device will be described. FIG. 23 is a flowchart illustrating an imaging process in the imaging apparatus.

撮像モードに設定された状態の撮像装置の電源スイッチがオンされるか、または電源スイッチがオンされた後に撮像モードに設定されることにより、この処理が開始される。   This processing is started by turning on the power switch of the imaging apparatus in the imaging mode or by setting the imaging switch after the power switch is turned on.

まず、撮像素子22から画像を取り込んでライブビュー表示を実行する(ステップS1)。このライブビュー表示のときには、AE(自動露出制御)動作、AWB(オートホワイトバランス)動作、AF(オートフォーカス)動作がフレーム毎に(あるいは所定数のフレーム毎に)、繰り返して行われる。   First, an image is captured from the image sensor 22 and live view display is executed (step S1). During live view display, an AE (automatic exposure control) operation, an AWB (auto white balance) operation, and an AF (autofocus) operation are repeatedly performed for each frame (or for every predetermined number of frames).

そして、システムコントローラ30は、操作部32のレリーズボタンが半押しされたか否かを判定する(ステップS2)。   Then, the system controller 30 determines whether or not the release button of the operation unit 32 is half-pressed (step S2).

ここで、レリーズボタンが半押しされるまでは、ステップS1へ戻ってライブビュー表示を引き続き行う。   Here, until the release button is pressed halfway, the process returns to step S1 to continue the live view display.

一方、レリーズボタンが半押しされたと判定された場合には、レリーズボタンが半押しされた時点の露出値、ホワイトバランス値、合焦距離を維持するために、AE動作、AWB動作、およびAF動作を停止(フリーズ)する(ステップS3)。このときには帯域制限フィルタ12は、撮像光学系9の光路上から退避した状態となるようにフィルタ駆動部17により駆動される。ただし、撮像に係るモード設定によっては(例えば、コンティニュアスAFが設定されている場合などには)、この限りではなく、レリーズボタン半押し後もこれらの動作が適宜行われることになる。   On the other hand, if it is determined that the release button is half-pressed, the AE operation, AWB operation, and AF operation are performed in order to maintain the exposure value, white balance value, and focus distance at the time when the release button is half-pressed. Is stopped (frozen) (step S3). At this time, the band limiting filter 12 is driven by the filter driving unit 17 so as to be in a state of being retracted from the optical path of the imaging optical system 9. However, depending on the mode setting related to imaging (for example, when continuous AF is set), this operation is not limited to this, and these operations are appropriately performed even after half-pressing the release button.

その後、システムコントローラ30は、レリーズボタンが全押しされたか否かを判定する(ステップS4)。   Thereafter, the system controller 30 determines whether or not the release button has been fully pressed (step S4).

レリーズボタンが全押しされていない場合にはステップS2の半押しの判定に戻り、全押しされている場合には、撮像素子22の全画素の画素信号を読み出す本撮像の動作が行われる(ステップS5)。   If the release button is not fully pressed, the process returns to the half-pressed determination in step S2, and if it is fully pressed, the main imaging operation for reading out the pixel signals of all the pixels of the image sensor 22 is performed (step S2). S5).

その後、撮像素子22から読み出された画像信号は、撮像回路23を経て画像処理部25により画像処理され(ステップS6)、表示部27に表示されると共に、記録媒体29に記録されて(ステップS7)、この処理が終了する。   Thereafter, the image signal read from the image sensor 22 is subjected to image processing by the image processing unit 25 via the imaging circuit 23 (step S6), displayed on the display unit 27, and recorded on the recording medium 29 (step). S7) This process ends.

次に、図24は図23の撮像処理において行われるAF動作の詳細を示すフローチャートである。   Next, FIG. 24 is a flowchart showing details of the AF operation performed in the imaging process of FIG.

AF動作を開始すると、システムコントローラ30が、距離演算の処理を行う(ステップS11)。なお、距離演算の処理については後で図26を参照して説明する。   When the AF operation is started, the system controller 30 performs a distance calculation process (step S11). The distance calculation process will be described later with reference to FIG.

この距離演算により算出された被写体との距離情報に合焦するように、システムコントローラ30がレンズ駆動量を演算する(ステップS12)。   The system controller 30 calculates the lens driving amount so as to focus on the distance information with the subject calculated by the distance calculation (step S12).

そして、システムコントローラ30は、レンズ制御部14およびレンズ駆動部16を介してレンズ10のフォーカスレンズを駆動し(ステップS13)、AF動作からリターンする。   Then, the system controller 30 drives the focus lens of the lens 10 via the lens control unit 14 and the lens driving unit 16 (step S13), and returns from the AF operation.

また、図25は図23の撮像処理において行われるAF動作の他の例を示すフローチャートである。   FIG. 25 is a flowchart showing another example of the AF operation performed in the imaging process of FIG.

この図25に示すAF動作の例は、上述した図24に示したAF動作の例の変形例であり、近年の撮像装置に一般的に備えられているAWBの機能を利用して、苦手被写体(狭帯域の被写体)を効率良く判定するようにしたものとなっている。   The example of the AF operation shown in FIG. 25 is a modification of the above-described example of the AF operation shown in FIG. 24, and uses the AWB function generally provided in recent imaging apparatuses to (Narrow band subject) is determined efficiently.

すなわち、ホワイトバランス調整部36は、撮像された画像に対して、RGB各色の強度を把握するための評価値を取得する。この評価値は、例えば、画像のAWB対象領域におけるRGB各色の平均値などであり、値が大きい方から順に、AWB1,AWB2,AWB3が得られたものとする。   That is, the white balance adjustment unit 36 acquires an evaluation value for grasping the intensity of each RGB color with respect to the captured image. This evaluation value is, for example, an average value of each of the RGB colors in the AWB target area of the image, and it is assumed that AWB1, AWB2, and AWB3 are obtained in descending order.

この図25に示すAF動作においては、ホワイトバランス調整部36により得られたこれらの評価値に基づいて、AF方式を選択するようになっている。   In the AF operation shown in FIG. 25, the AF method is selected based on these evaluation values obtained by the white balance adjustment unit 36.

すなわち、被写体が狭帯域(例えば、R色などの単色)となっている場合には、最も値が大きい評価値AWB1(被写体がR色の単色である場合には、R色の平均値として得られたAWB評価値)の値が、2番目の評価値AWB2および3番目の評価値AWB3に比して、特段に大きな値を示すはずである。   That is, when the subject has a narrow band (for example, a single color such as R color), the largest evaluation value AWB1 (or the average value of R color when the subject is a single color of R color) is obtained. The value of the obtained (AWB evaluation value) should be a particularly large value compared to the second evaluation value AWB2 and the third evaluation value AWB3.

そこで、この処理を開始すると、システムコントローラ30は、ホワイトバランス調整部36から評価値AWB1,AWB2を取得して、AWB1をAWB2で割った値が、所定の閾値Th1(例えば、5、あるいは10等の値)以上であるか否かを判定する(ステップS10)。この判定は、位相差量に基づく被写体距離の演算を行うのが適切であるか否かの判定となる。   Therefore, when this process is started, the system controller 30 acquires the evaluation values AWB1 and AWB2 from the white balance adjustment unit 36, and a value obtained by dividing AWB1 by AWB2 is a predetermined threshold Th1 (for example, 5 or 10). It is determined whether or not (step S10). This determination is a determination as to whether or not it is appropriate to calculate the subject distance based on the phase difference amount.

ここで、AWB1をAWB2で割った値が所定の閾値Th1未満であると判定された場合には、図24に示した処理と同様のステップS11〜S13の処理を行う。   Here, when it is determined that the value obtained by dividing AWB1 by AWB2 is less than the predetermined threshold Th1, the processes in steps S11 to S13 similar to the process shown in FIG. 24 are performed.

一方、AWB1をAWB2で割った値が所定の閾値Th1以上であると判定された場合(位相差量に基づく被写体距離の演算を行うのが不適切であると判定された場合)には、狭帯域の被写体である可能性が高いために、システムコントローラ30は、コントラストAF制御部39にコントラストAFを行わせる(ステップS14)。このときには、距離演算部37による被写体距離の演算は行われない。   On the other hand, when it is determined that the value obtained by dividing AWB1 by AWB2 is equal to or greater than a predetermined threshold Th1 (when it is determined that it is inappropriate to calculate the subject distance based on the phase difference amount), it is narrow. Since there is a high possibility that the subject is in the band, the system controller 30 causes the contrast AF control unit 39 to perform contrast AF (step S14). At this time, the distance calculation unit 37 does not calculate the subject distance.

そして、ステップS13またはステップS14の処理が行われたところで、AF動作からリターンする。   Then, when the process of step S13 or step S14 is performed, the process returns from the AF operation.

なお、上述ではAWB評価値に基づいてRGBの内の何れか1色の強度のみが高いか否かを判定したが、AEが色情報を用いるAEである場合には、AE情報に基づいても構わないし、撮像装置が備えるその他の機能の中にRGBの色相関を求める機能がある場合には、その機能を利用しても良い。   In the above description, it is determined whether only one of the RGB colors is high based on the AWB evaluation value. However, if the AE is an AE that uses color information, it may be based on the AE information. Of course, if there is a function for obtaining RGB color correlation among other functions provided in the imaging apparatus, this function may be used.

また、ステップS10において所定の閾値Th1以上であると判定された場合に、図25に示す処理ではコントラストAFを行うようにしているが、評価値AWB1を与える色の色瞳重心位置を変更することができる場合(例えば、評価値AWB1を与える色がGである場合、本実施形態の構成では色瞳重心位置を変更することができないが、後述する変形例や幾つかの実施形態の構成には色瞳重心位置を変更可能なものもある)には、該色の画像を異なる色瞳重心位置において取得して位相差AFを行うようにしても構わない。   If it is determined in step S10 that the threshold value is equal to or greater than the predetermined threshold Th1, contrast AF is performed in the process shown in FIG. 25, but the color pupil centroid position of the color that gives the evaluation value AWB1 is changed. (For example, when the color giving the evaluation value AWB1 is G, the center of gravity of the color pupil cannot be changed with the configuration of the present embodiment, but there are modifications and configurations of some embodiments described later) In some cases, the color pupil centroid position can be changed), and the phase difference AF may be performed by acquiring the image of the color at a different color pupil centroid position.

続いて、図26は図24または図25のAF動作において行われる距離演算の処理を示すフローチャートである。   Next, FIG. 26 is a flowchart showing distance calculation processing performed in the AF operation of FIG. 24 or FIG.

距離演算の処理を開始すると、システムコントローラ30は、レンズ制御部14を介してフィルタ駆動部17を制御し、退避状態にあった帯域制限フィルタ12を撮像光学系9の光路上に挿入し、挿入状態(第1の状態)にする(ステップS21)。   When the distance calculation process is started, the system controller 30 controls the filter driving unit 17 via the lens control unit 14 to insert the band-limiting filter 12 in the retracted state on the optical path of the imaging optical system 9 and insert The state (first state) is set (step S21).

さらに、距離演算部37が、距離情報取得範囲、いわゆるAFエリアを設定する(ステップS22)。この距離情報取得範囲は、撮像装置に設定されている撮影モードに応じて設定されるようになっており、例えば、全画素領域となったり、画像処理部25により検出された注目被写体領域(例えば、顔検出により検出された顔、あるいは画面中央部など)となったり、ユーザにより所望に手動設定された領域となったりする。   Further, the distance calculation unit 37 sets a distance information acquisition range, so-called AF area (step S22). This distance information acquisition range is set according to the shooting mode set in the imaging apparatus. For example, the distance information acquisition range is an all-pixel area or a target object area (for example, detected by the image processing unit 25). , A face detected by face detection or the center of the screen) or an area manually set by a user.

そして、撮像を行い、画像を取得する(ステップS23)。   And imaging is performed and an image is acquired (step S23).

そうすると距離演算部37が、設定された距離情報取得範囲における所定の2色(帯域制限フィルタ12が図3に示したような構成である場合には、所定の2色として予め設定されているのはRとB)の画像間で相関演算を行う(ステップS24)。この相関演算は、SAD方式やZNCC方式等の種々の方式により行うことが可能であるが、以下では例えばZNCC方式により行うものとして説明する。   Then, the distance calculation unit 37 sets the predetermined two colors in the set distance information acquisition range (in the case where the band limiting filter 12 has the configuration shown in FIG. 3, the predetermined two colors are set in advance). Performs a correlation operation between the R and B) images (step S24). Although this correlation calculation can be performed by various methods such as the SAD method and the ZNCC method, the following description will be made assuming that the correlation calculation is performed by, for example, the ZNCC method.

そして、色相関判定部38は、上記相関演算の結果に基づいて、所定の2色間に相関性があるか否かを判定する(ステップS25)。この相関性有無の判定は、例えば、図7や図11に示したようなZNCC方式の相関演算結果において、所定の閾値(例えば、0.7)以上の相関値が発見されたか否かにより判定することができる。   Then, the color correlation determination unit 38 determines whether or not there is a correlation between two predetermined colors based on the result of the correlation calculation (step S25). The determination of the presence / absence of the correlation is made, for example, based on whether or not a correlation value equal to or higher than a predetermined threshold (for example, 0.7) is found in the correlation calculation result of the ZNCC method as shown in FIG. 7 or FIG. can do.

所定の2色間に相関性があると判定されたときには距離演算部37は、所定の2色に対する補正テーブルを選択する(ステップS26)。ここに、各色の色瞳重心位置は、絞り11の絞り値や、レンズ10の駆動状態、あるいは帯域制限フィルタ12の挿入状態に応じて変化する。そこで、距離演算部37は、このようなパラメータの組み合わせに対して変化する各色の色瞳重心位置に応じて補正を行うための補正値を記録したテーブルを予め備えている。従って、ここでは、各パラメータを取得してテーブル参照を行い、補正値を取得する。   When it is determined that there is a correlation between the two predetermined colors, the distance calculation unit 37 selects a correction table for the two predetermined colors (step S26). Here, the position of the center of gravity of the color pupil of each color changes according to the aperture value of the aperture 11, the driving state of the lens 10, or the insertion state of the band limiting filter 12. Therefore, the distance calculation unit 37 is previously provided with a table that records correction values for performing correction in accordance with the color pupil centroid position of each color that changes with such a combination of parameters. Therefore, here, each parameter is acquired, the table is referred to, and the correction value is acquired.

そして、距離演算部37は、取得した補正値に基づき、取得した位相差量から被写体の距離情報(位相差AFを行う場合には、さらに、レンズ10のデフォーカス量)を取得する(ステップS27)。   Then, based on the acquired correction value, the distance calculation unit 37 acquires distance information of the subject (in the case of performing phase difference AF, the defocus amount of the lens 10) from the acquired phase difference amount (step S27). ).

一方、ステップS25において、所定の2色間に相関性がないと判定された場合には、相関性がある色の組み合せを発見するために、色相関判定部38は、ステップS22において設定された距離情報取得範囲におけるRGB各色の平均値(平均値は画素加算値を画素数で割ったものであるために、画素加算値の算出が含まれる)を演算して、平均画素値が大きい上位2色を選択する(ステップS28)。ここに、上位2色の平均画素値を、値が大きい方から順にPV1,PV2とする。なお、値のオーバーフロー等がなければ、平均値に代えて画素加算値に基づき選択を行っても構わない。   On the other hand, if it is determined in step S25 that there is no correlation between the two predetermined colors, the color correlation determination unit 38 is set in step S22 in order to find a combination of correlated colors. Calculate the average value of each color of RGB in the distance information acquisition range (the average value is calculated by dividing the pixel addition value by the number of pixels, so the calculation of the pixel addition value is included), and the highest two average pixel values A color is selected (step S28). Here, the average pixel values of the upper two colors are PV1 and PV2 in order from the largest value. If there is no value overflow or the like, selection may be performed based on the pixel addition value instead of the average value.

そして、色相関判定部38は、選択した上位2色が、ステップS24において相関演算を行った所定の2色(上述した例ではRとB)以外であるか否かを判定する(ステップS29)。   Then, the color correlation determination unit 38 determines whether the selected upper two colors are other than the predetermined two colors (R and B in the above-described example) for which the correlation calculation was performed in step S24 (step S29). .

ここで、所定の2色以外である(上述した例では、RとG、またはBとGである)と判定された場合には、色相関判定部38は、ステップS28において算出したPV1をPV2で割った値が、所定の閾値Th2(例えば、5等の値)以上であるか否かを判定する(ステップS30)。   Here, when it is determined that the colors are other than the predetermined two colors (in the above-described example, R and G, or B and G), the color correlation determination unit 38 sets PV1 calculated in step S28 to PV2. It is determined whether or not the value divided by is greater than or equal to a predetermined threshold Th2 (for example, a value such as 5) (step S30).

所定の閾値Th2未満であると判定された場合には、上位2色の画像間に相関性がある可能性があるために、これら上位2色の画像間で、上述したステップS24の処理と同様に相関演算を行う(ステップS31)。   If it is determined that it is less than the predetermined threshold Th2, there is a possibility that there is a correlation between the upper two color images, and therefore, the same processing as in step S24 described above is performed between these upper two color images. The correlation calculation is performed (step S31).

そして、色相関判定部38は、上位2色の画像間の相関演算の結果に基づいて、上位2色間に相関性があるか否かを上述したステップS25と同様に判定する(ステップS32)。   Then, the color correlation determination unit 38 determines whether there is a correlation between the upper two colors based on the result of the correlation calculation between the images of the upper two colors (step S32). .

ここで、上位2色の画像間に相関性があると判定された場合には、上位2色の相関性に基づく位相差量ひいては距離情報の取得が可能であると考えられるために、距離演算部37は、上位2色に対する補正テーブルを選択する(ステップS33)。   Here, when it is determined that there is a correlation between the images of the upper two colors, it is considered that the phase difference amount based on the correlation of the upper two colors and thus the distance information can be acquired. The unit 37 selects a correction table for the upper two colors (step S33).

そして、距離演算部37は、取得した補正値に基づき、取得した位相差量から被写体の距離情報(位相差AFを行う場合には、さらに、レンズ10のデフォーカス量)を取得する(ステップS34)。   Then, based on the acquired correction value, the distance calculation unit 37 acquires object distance information (or the defocus amount of the lens 10 when performing phase difference AF) from the acquired phase difference amount (step S34). ).

一方、ステップS30において所定の閾値Th2以上であると判定された場合(この場合には、上位2色の画像間に相関性がないと判定されたことになる)、またはステップS32において相関性がないと判定された場合には、最上位の平均画素値PV1を与える色がGであるか否かを判定する(ステップS35)。   On the other hand, if it is determined in step S30 that it is equal to or greater than the predetermined threshold Th2 (in this case, it is determined that there is no correlation between the upper two color images), or the correlation is determined in step S32. If it is determined that there is not, it is determined whether or not the color that gives the highest average pixel value PV1 is G (step S35).

ここで、最上位の平均画素値PV1を与える色がGであると判定された場合には、システムコントローラ30は、例えばフィルタ駆動部17により帯域制限フィルタ12を撮像光学系9の光路上から退避させてから、コントラストAF制御部39にコントラストAFを行わせる(ステップS36)。なおここでは、G色では色瞳重心位置を変更することができない場合(例えば上述したような、帯域制限フィルタ12を光軸周りに回転させる構成の場合)を想定して、PV1を与える色がGである場合にコントラストAFを行うようにしたが、G色であっても色瞳重心位置を変更することができる場合(後述する幾つかの変形例や実施形態で説明するような構成の場合)には、ステップS35およびステップS36の処理を行うことなくステップS37の処理へ進むようにしても構わない。   If it is determined that the color that gives the highest average pixel value PV1 is G, the system controller 30 retracts the band limiting filter 12 from the optical path of the imaging optical system 9 by the filter driving unit 17, for example. Then, the contrast AF control unit 39 is caused to perform contrast AF (step S36). Here, assuming that the color pupil centroid position cannot be changed with G color (for example, in the case of the configuration in which the band-limiting filter 12 is rotated around the optical axis as described above), the color that gives PV1 is Contrast AF is performed when the color is G, but the center of gravity of the color pupil can be changed even when the color is G (in the case of a configuration described in some modified examples and embodiments described later) ) May proceed to step S37 without performing steps S35 and S36.

ステップS29において上位2色が所定の2色と同一であると判定された場合、またはステップS35において最上位の平均画素値PV1を与える色がGでないと判定された場合には、後で図27を参照して説明する瞳色時分割取得の処理を行う(ステップS37)。上述した例では、このステップS37の処理を行うのは、最上位の色がRまたはBの場合となる。   If it is determined in step S29 that the upper two colors are the same as the two predetermined colors, or if it is determined in step S35 that the color that gives the highest average pixel value PV1 is not G, FIG. The pupil color time-division acquisition process described with reference to FIG. 6 is performed (step S37). In the example described above, the process of step S37 is performed when the highest color is R or B.

こうして、ステップS27、ステップS34、ステップS36、またはステップS37の処理が行われて距離情報が取得されたところで、この処理からリターンする。   Thus, when the process of step S27, step S34, step S36, or step S37 is performed and the distance information is acquired, the process returns from this process.

図27は、図26の距離演算において行われる瞳色時分割取得の処理を示すフローチャートである。   FIG. 27 is a flowchart showing pupil color time division acquisition processing performed in the distance calculation of FIG.

この処理を開始すると、まず、上述したステップS28において算出された各色の平均画素値の内の、最上位の値を与える1色を選択する(ステップS41)。上述した例では、最上位の色としてRまたはBが選択される。ただし、別の例においてGの色瞳重心位置を変更可能である場合には、Gも最上位の色として選択され得る。   When this process is started, first, one color that gives the highest value among the average pixel values of the respective colors calculated in step S28 is selected (step S41). In the example described above, R or B is selected as the highest color. However, if the color pupil center of gravity position of G can be changed in another example, G can also be selected as the highest color.

次に、距離演算部37は、色瞳重心位置の切換条件(具体的には、帯域制限フィルタ12の回転角度など)を選択する(ステップS42)。ここでは、帯域制限フィルタ12を、上述したステップS21で設定された第1の状態とは異なる1以上の状態へ変更するための条件選択(あるいはさらに、第1の状態とは異なる状態から第1の状態へ再び戻すための条件選択)を行う。   Next, the distance calculation unit 37 selects a color pupil barycenter position switching condition (specifically, a rotation angle of the band limiting filter 12 or the like) (step S42). Here, the condition selection for changing the band limiting filter 12 to one or more states different from the first state set in step S21 described above (or, further, from the state different from the first state to the first state). Condition selection for returning to the state of (1) again.

そして、選択された色瞳重心位置の切替条件に従って、瞳位置変更部が、色瞳重心位置を第nの状態(最初にこの処理に入るときには第2の状態)へ切り換える(ステップS43)。   Then, the pupil position changing unit switches the color pupil centroid position to the nth state (the second state when first entering this process) according to the selected color pupil centroid position switching condition (step S43).

その後、撮像を行い、画像を取得する(ステップS44)。なお、上述したステップS23の撮像を行うときから、このステップS44において撮像を行うまでは、上述した手振れ補正機構による手振れ補正が実行されていることが望ましい。   Thereafter, imaging is performed to acquire an image (step S44). In addition, it is desirable that the camera shake correction by the camera shake correction mechanism described above is performed from the time when the above-described imaging in step S23 is performed until the imaging is performed in step S44.

すると距離演算部37は、色瞳重心位置を変更する前に取得した最上位色の画像と、色瞳重心位置を変更した後に取得した最上位色の画像と、の間で相関演算を行う(ステップS45)。具体例として、被写体が上述した深紅のバラ等の狭帯域の被写体OBJrである場合には、ここでは、瞳重心位置変更前後に取得された2枚(あるいは2枚以上であっても構わない)のR色画像に基づき相関演算を行うことになる。   Then, the distance calculation unit 37 performs a correlation calculation between the highest color image acquired before the color pupil centroid position is changed and the highest color image acquired after the color pupil centroid position is changed ( Step S45). As a specific example, when the subject is a narrow-band subject OBJr such as the crimson rose described above, here two images (or two or more images) acquired before and after the pupil center of gravity position change may be used. The correlation calculation is performed based on the R color image.

なお、この相関演算を行うに際しては、例えば上記特開平11−258489号公報に記載されたような動き補正を行って、2枚の画像の撮像タイミングの相違に基づく被写体ズレを補正する処理を行うようにしても良い。   When performing this correlation calculation, for example, motion correction as described in the above-mentioned Japanese Patent Application Laid-Open No. 11-258889 is performed, and processing for correcting a subject shift based on a difference in imaging timing of two images is performed. You may do it.

距離演算部37は、瞳重心位置変更前後の帯域制限フィルタ12の状態や、絞り11、レンズ10の状態などに基づいて、上述したステップS26と同様に補正テーブルを選択する(ステップS46)。   The distance calculation unit 37 selects a correction table in the same manner as in step S26 described above based on the state of the band limiting filter 12 before and after the change of the pupil center of gravity position, the state of the diaphragm 11 and the lens 10 (step S46).

そして、距離演算部37は、取得した補正値に基づき、取得した位相差量から被写体の距離情報(位相差AFを行う場合には、さらに、レンズ10のデフォーカス量)を取得する(ステップS47)。   Then, based on the acquired correction value, the distance calculation unit 37 acquires distance information of the subject (in the case of performing phase difference AF, the defocus amount of the lens 10) from the acquired phase difference amount (step S47). ).

その後、色瞳重心位置をさらに切り換えるか否か(例えば、図16〜図21を参照して説明したように、第3の色瞳重心位置g3や第4の色瞳重心位置g4へさらに切り換えるか否か、あるいは、第2〜第4の色瞳重心位置g2〜g4から第1の色瞳重心位置g1へ再び切り換えるか否か)を判定して(ステップS48)、さらに切り換える場合にはステップS43へ行って上述したような処理を繰り返して行う。   Thereafter, whether or not to further switch the color pupil centroid position (for example, as described with reference to FIGS. 16 to 21, whether to further switch to the third color pupil centroid position g3 or the fourth color pupil centroid position g4) Whether or not to switch from the second to fourth color pupil barycentric positions g2 to g4 to the first color pupil barycentric position g1 again (step S48). And repeat the process as described above.

一方、色瞳重心位置の切換を終了すると判定された場合には、瞳色時分割取得からリターンする。   On the other hand, when it is determined that the switching of the color pupil center of gravity position is to be finished, the process returns from the pupil color time division acquisition.

なお、上述では撮像素子22が原色(RGB)のオンチップ素子フィルタを備えている例を説明したが、帯域制限を行うことができれば原色フィルタに限るものでなく、例えば補色系フィルタ(C(シアン)(GB)、M(マゼンタ)(RB)、Y(イエロー)(RG)、G(グリーン))を備えたものであっても構わない。この場合には、例えば帯域制限フィルタ12を、半円部分をG(グリーン)、他の半円部分をM(マゼンタ)(RB)となるように構成しておけば、被写体がほぼR光のみを発する狭帯域の被写体である場合に、Rを受光することができるM(マゼンタ)(RB)およびY(イエロー)(RG)の画素から得られた色瞳重心位置移動前後の複数の画像に基づき距離情報を演算することが可能である。   In the above description, the example in which the image sensor 22 includes the primary color (RGB) on-chip element filter has been described. However, as long as band limitation can be performed, the image sensor 22 is not limited to the primary color filter. For example, a complementary color filter (C (cyan) ) (GB), M (magenta) (RB), Y (yellow) (RG), G (green)). In this case, for example, if the band limiting filter 12 is configured so that the semicircular portion is G (green) and the other semicircular portion is M (magenta) (RB), the subject is almost only R light. In the case of a narrow-band subject that emits R, a plurality of images before and after the movement of the center of gravity of the color pupil obtained from M (magenta) (RB) and Y (yellow) (RG) pixels that can receive R Based on this, it is possible to calculate distance information.

このような実施形態1によれば、複数の帯域の画像同士に相関があるかないかを判定し、相関があると判定された場合には、1回の撮像画像から被写体までの距離を演算するようにしているために、位相差に基づく距離検出を高速に行うことができる。   According to the first embodiment, it is determined whether or not there is a correlation between images in a plurality of bands, and when it is determined that there is a correlation, the distance from one captured image to the subject is calculated. Therefore, distance detection based on the phase difference can be performed at high speed.

そして、相関がないと判定された場合には、色瞳重心位置を変更し、変更前後の少なくとも2枚の撮像画像から被写体までの距離を演算するようにしたために、例えば被写体が狭帯域である場合にも、位相差に基づく距離検出を行うことが可能となる。   When it is determined that there is no correlation, the center of gravity of the color pupil is changed, and the distance from the at least two captured images before and after the change to the subject is calculated. For example, the subject has a narrow band. Even in this case, distance detection based on the phase difference can be performed.

また、複数の帯域の画像同士に相関があるかないかを、測距エリアにおける帯域毎の画素加算値の内の、最も値が大きい第1の画素加算値を、2番目に値が大きい第2の画素加算値で割ったときの値が、所定の閾値以上であるか否かに基づき判定するようにしたために、所定の帯域の色成分だけが他の帯域の色成分よりも突出して大きいか否かを、簡便かつ精度良く判定することができる。   Further, whether or not there is a correlation between the images in a plurality of bands is determined by changing the first pixel addition value having the largest value among the pixel addition values for each band in the ranging area to the second value having the second largest value. Since the determination is based on whether or not the value obtained by dividing by the pixel addition value is greater than or equal to a predetermined threshold value, is only the color component of the predetermined band protrudingly larger than the color component of the other band? Whether or not can be determined easily and accurately.

撮像光学系9の光軸周りに帯域制限フィルタ12を回転して色瞳重心位置を変更するようにしたために、帯域制限フィルタ12を退避する場所を確保する必要がなく、レンズユニット1の小型化を図ることが可能となる。   Since the band limit filter 12 is rotated around the optical axis of the imaging optical system 9 to change the position of the center of gravity of the color pupil, it is not necessary to secure a place for retracting the band limit filter 12, and the lens unit 1 can be downsized. Can be achieved.

さらに、位相差量に基づく被写体距離の演算を行うのが適切であるか否かを判定して、不適切であると判定したときには、コントラストAFを行うようにしたために、いわゆる苦手被写体があってもAFを行うことが可能となる。そして、位相差AFとコントラストAFとの内の、適切な方式を選択することができ、よりAFの信頼性を高めることができる。   Further, it is determined whether or not it is appropriate to calculate the subject distance based on the phase difference amount, and when it is determined that the calculation is inappropriate, there is a so-called poor subject because contrast AF is performed. Can also perform AF. An appropriate method of phase difference AF and contrast AF can be selected, and AF reliability can be further improved.

加えて、帯域毎のホワイトバランス評価値の内の、最も高いホワイトバランス評価値を、2番目に高いホワイトバランス評価値で割ったときの値が所定の閾値以上であるときに、位相差量に基づく被写体距離の演算が不適切であると判定するようにした場合には、一般的な撮像装置に既に設けられているホワイトバランス機能を有効に利用して、位相差量に基づく被写体距離の演算を無駄に行うのを未然に防止することができる。   In addition, when the value obtained by dividing the highest white balance evaluation value among the white balance evaluation values for each band by the second highest white balance evaluation value is equal to or greater than a predetermined threshold value, When it is determined that the subject distance calculation based on the calculation is inappropriate, the white balance function already provided in a general imaging device is used effectively to calculate the subject distance based on the phase difference amount. Can be prevented in advance.

上述した実施形態1では、帯域制限フィルタ12を駆動して色瞳重心位置の変更を行っていたが、帯域制限フィルタ12以外の部材によって帯域制限フィルタ12を部分的に遮光すれば、帯域制限フィルタ12が固定であっても色瞳重心位置を変更することが可能である。以下ではこのような実施形態や変形例を幾つか説明する。
[実施形態1の変形例]
In the first embodiment described above, the band limiting filter 12 is driven to change the position of the center of gravity of the color pupil. However, if the band limiting filter 12 is partially shielded by a member other than the band limiting filter 12, the band limiting filter is used. Even if 12 is fixed, the position of the center of gravity of the color pupil can be changed. Several such embodiments and modifications will be described below.
[Modification of Embodiment 1]

図28から図30は本発明の実施形態1の変形例を示したものであり、図28は帯域制限フィルタ12が光路から退避しているときの様子を示す図であり、図29は帯域制限フィルタ12が光路内に挿入されているときの様子を示す図であり、図30は帯域制限フィルタ12が光路内に途中まで挿入されているときの様子を示す図である。   28 to 30 show modifications of the first embodiment of the present invention, FIG. 28 is a diagram showing a state when the band limiting filter 12 is retracted from the optical path, and FIG. 29 is a band limiting. FIG. 30 is a diagram illustrating a state when the filter 12 is inserted into the optical path, and FIG. 30 is a diagram illustrating a state when the band-limiting filter 12 is inserted partway into the optical path.

この実施形態1の変形例において、上述の実施形態1と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。   In the modified example of the first embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals, description thereof is omitted, and only different points will be mainly described.

本変形例は、帯域制限フィルタ12を光路中に挿入/退避させる構成を利用し、複数の色瞳重心位置の切換を実現する例となっている。   This modification is an example of realizing switching of a plurality of color pupil barycentric positions using a configuration in which the band limiting filter 12 is inserted / retracted in the optical path.

まず、本変形例の撮像装置の構成は、上述した実施形態1の図1に示したものと基本的に同様である。   First, the configuration of the imaging apparatus of the present modification is basically the same as that shown in FIG. 1 of the first embodiment described above.

ただし、本変形例のフィルタ駆動部17は、上述したように、帯域制限フィルタ12の位置を変更することにより、帯域制限フィルタ12を撮像光学系9の光路上へ挿入しあるいは光路上から退避させる機構を備えているが、上述した実施形態1のような帯域制限フィルタ12を光軸周りに回転させる機構は備えていない。   However, as described above, the filter driving unit 17 of the present modification changes the position of the band limiting filter 12 so that the band limiting filter 12 is inserted into the optical path of the imaging optical system 9 or retracted from the optical path. Although a mechanism is provided, a mechanism for rotating the band limiting filter 12 around the optical axis as in the first embodiment is not provided.

そして、帯域制限フィルタ12は、基本的には、位相差に基づく測距を行うときに撮像光学系9の光路上へ挿入され、位相差に基づく測距を行わないときには光路上から退避される。   The band limiting filter 12 is basically inserted into the optical path of the imaging optical system 9 when distance measurement based on the phase difference is performed, and is retracted from the optical path when distance measurement based on the phase difference is not performed. .

また、この変形例に示す帯域制限フィルタ12は、例えばドーナツ円板状をなす遮光フレーム12fに支持されていて、上述した実施形態1のようなギヤー12aは備えていない。   Further, the band limiting filter 12 shown in this modification is supported by a light shielding frame 12f having a donut disk shape, for example, and does not include the gear 12a as in the first embodiment.

そして、図28に示すように、帯域制限フィルタ12が撮像光学系9の絞り11の開口内に進入していない状態が退避状態となる。この状態においては、撮像素子22により撮像された画像に基づく位相差による距離情報の取得はできないが、ボケ部分の色ズレがない通常の静止画像や動画像を撮像することが可能である。   As shown in FIG. 28, the state where the band limiting filter 12 does not enter the aperture 11 of the imaging optical system 9 is the retracted state. In this state, it is not possible to acquire distance information based on the phase difference based on the image captured by the image sensor 22, but it is possible to capture a normal still image or moving image that does not have a color shift in the blurred portion.

この図28に示す状態から、撮像光学系9の光軸に垂直な方向に帯域制限フィルタ12の位置を変更することにより、帯域制限フィルタ12が撮像光学系9の絞り11の開口内を通過する光の光路上へ進入する。   28, by changing the position of the band limiting filter 12 in the direction perpendicular to the optical axis of the imaging optical system 9, the band limiting filter 12 passes through the aperture of the diaphragm 11 of the imaging optical system 9. Enter the light path.

そして、図29に示すように、帯域制限フィルタ12の中心が光軸上に位置して、帯域制限フィルタ12が撮像光学系9の絞り11の開口内を完全に覆う状態が挿入状態となる。この状態においては、非合焦部分のR画像とB画像とに色ズレが生じ、位相差に基づく距離情報の取得が可能となる。ただし、上述したように狭帯域の被写体の場合には、1枚の画像のみからでは距離情報を取得することができないことがある。   Then, as shown in FIG. 29, the center of the band limiting filter 12 is located on the optical axis, and the state where the band limiting filter 12 completely covers the inside of the aperture 11 of the imaging optical system 9 is an insertion state. In this state, a color shift occurs between the R image and the B image in the out-of-focus portion, and distance information based on the phase difference can be acquired. However, as described above, in the case of a narrow-band subject, distance information may not be acquired from only one image.

そこで、フィルタ駆動部17が瞳位置変更部として機能して帯域制限フィルタ12を所定の退避量だけ退避させ、図29とは色瞳重心位置を異ならせた状態を図30に示すように実現するようになっている。この図30に示す状態においては、帯域制限フィルタ12が撮像光学系9の絞り11の開口内を所定量だけ部分的に覆っている。そして、帯域制限フィルタ12と絞り11の開口とが重なっている部分以外は、遮光フレーム12fにより遮光されている。   Therefore, the filter driving unit 17 functions as a pupil position changing unit to retract the band limiting filter 12 by a predetermined retraction amount, and realizes a state where the color pupil barycentric position is different from FIG. 29 as shown in FIG. It is like that. In the state shown in FIG. 30, the band limiting filter 12 partially covers the inside of the aperture 11 of the imaging optical system 9 by a predetermined amount. The portions other than the portion where the band limiting filter 12 and the aperture 11 overlap are shielded from light by the light shielding frame 12f.

このとき、本変形例においては、距離演算部37がステップS42において選択する色瞳重心位置の切換条件は、帯域制限フィルタ12の挿入方向への駆動量(挿入量)などとなる。   At this time, in the present modification, the color pupil barycenter position switching condition selected by the distance calculation unit 37 in step S42 is a drive amount (insertion amount) in the insertion direction of the band limiting filter 12 or the like.

なお、帯域制限フィルタ12の挿入量を制御するためには、帯域制限フィルタ12を挿入するためのアクチュエータとして例えばステッピングモータを用いてそのパルス数をカウントしたり、あるいは挿入量を検出するためのセンサ等を別途に設けてセンサ出力に応じて制御したりする等の、一般的な技術を適宜利用すれば良い。   In order to control the insertion amount of the band limiting filter 12, for example, a stepping motor is used as an actuator for inserting the band limiting filter 12 to count the number of pulses, or a sensor for detecting the insertion amount. It is sufficient to use a general technique as appropriate, such as separately providing the control and the like according to the sensor output.

また、図30には図28に示す退避状態と図29に示す挿入状態との中間状態を示しているが、さらに、図29に示す挿入状態よりもさらに挿入方向に移動させた過挿入状態を実現して、中間状態で撮像した画像と過挿入状態で撮像した画像とで相関演算を行うようにすれば、色瞳重心位置の変化量をより大きくすることができ、より精度の高い距離測定を行うことも可能となる。   30 shows an intermediate state between the retracted state shown in FIG. 28 and the inserted state shown in FIG. 29. Further, the over-inserted state moved further in the inserting direction than the inserted state shown in FIG. If realized and correlation calculation is performed between an image captured in an intermediate state and an image captured in an over-inserted state, the amount of change in the center of gravity of the color pupil can be increased, and distance measurement can be performed with higher accuracy. Can also be performed.

なお、この場合にも、受光する光量の違いに応じた信号補正を行うようにすることは、上述と同様である。また、G色についても透過領域の分布の変更や色瞳重心位置の移動を実現することが可能となる。   In this case, the signal correction corresponding to the difference in the amount of received light is the same as described above. Also for the G color, it is possible to change the distribution of the transmission region and move the color pupil center of gravity position.

このような実施形態1の変形例によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、撮像光学系9の光軸に垂直な方向に帯域制限フィルタ12の挿脱を行うフィルタ駆動部17を用いて、帯域制限フィルタ12の挿入位置を変更し色瞳重心位置を変更するようにしたために、帯域制限フィルタ12を配設する場合に設けることが望ましい(あるいは既に設けられている)挿入/退避機構を利用することになり、色瞳重心位置を切り換えるための専用の機構を不要としながら、狭帯域の被写体に対する位相差に基づく距離検出が可能となる。従って、専用の機構を設ける場合に比して、低コスト化、省スペース化を図ることが可能となる。   According to such a modification of the first embodiment, the filter drive that achieves substantially the same effect as the first embodiment described above and inserts / removes the band limiting filter 12 in a direction perpendicular to the optical axis of the imaging optical system 9. Since the insertion position of the band limiting filter 12 is changed using the unit 17 to change the position of the center of gravity of the color pupil, the band limiting filter 12 is preferably provided (or already provided). The insertion / retraction mechanism is used, and a distance detection based on a phase difference with respect to a narrow-band subject can be performed without using a dedicated mechanism for switching the color pupil center of gravity position. Therefore, it is possible to reduce costs and save space as compared with the case where a dedicated mechanism is provided.

また、上述した実施形態1の構成では、帯域制限フィルタ12の全領域を透過するG色については色瞳重心位置を変更することが不可能であったが、本変形例の構成によれば、G色(より一般には、帯域制限フィルタ12内における色瞳重心位置に偏りがない色)についても色瞳重心位置を変更することが可能となる。このG色は輝度成分に近く、しかもベイヤー配列の場合には撮像素子22上にR色やB色の2倍の密度で画素が配列されているために、より精度の高い位相差情報を取得することができる利点がある。   Further, in the configuration of the first embodiment described above, it is impossible to change the color pupil barycentric position for the G color that passes through the entire region of the band limiting filter 12, but according to the configuration of this modification example, The color pupil barycentric position can also be changed for G color (more generally, the color pupil barycentric position in the band limiting filter 12 is not biased). This G color is close to the luminance component, and in the case of the Bayer array, pixels are arrayed on the image sensor 22 at twice the density of the R color and B color, so phase difference information with higher accuracy is acquired. There are advantages that can be done.

さらに、帯域制限フィルタ12の位置を変更して色瞳重心位置を変更する場合には、後述する実施形態2のように絞り11を駆動して色瞳重心位置を変更する場合や、後述する実施形態3のようにレンズバリア20を駆動して色瞳重心位置を変更する場合に比して、絞り11やレンズバリア20の駆動状態とは無関係に独立して制御することができ、制御の自由度が高い利点がある。
[実施形態2]
Furthermore, when the position of the band limiting filter 12 is changed to change the color pupil center of gravity position, the aperture 11 is driven to change the color pupil center of gravity position as in Embodiment 2 described later, or implementation described later. Compared to the case where the lens barrier 20 is driven to change the position of the center of gravity of the color pupil as in the third embodiment, the control can be performed independently regardless of the driving state of the diaphragm 11 and the lens barrier 20, and the control is free. There is an advantage of high degree.
[Embodiment 2]

図31から図34は本発明の実施形態2を示したものであり、図31は撮像装置の構成を示すブロック図であり、図32は絞り11の一構成例を示す図であり、図33は絞り11を駆動して第1の色瞳重心位置g1を実現している様子を示す図であり、図34は絞り11を駆動して第2の色瞳重心位置g2を実現している様子を示す図である。   FIGS. 31 to 34 show the second embodiment of the present invention, FIG. 31 is a block diagram showing the configuration of the imaging apparatus, FIG. 32 is a diagram showing a configuration example of the diaphragm 11, and FIG. FIG. 34 is a diagram showing a state in which the first color pupil barycentric position g1 is realized by driving the diaphragm 11, and FIG. 34 is a state in which the second color pupil barycentric position g2 is realized by driving the diaphragm 11. FIG.

この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。   In the second embodiment, parts that are the same as those in the first embodiment are given the same reference numerals and description thereof is omitted, and only differences are mainly described.

図31に示すように、本実施形態2の撮像装置は、上述した実施形態1の図1に示した構成から、フィルタ駆動部17を取り除いたものとなっている。そして、本実施形態では、複数枚で構成される絞り11を利用して、複数の色瞳重心位置の切換を実現する。   As illustrated in FIG. 31, the imaging apparatus according to the second embodiment is obtained by removing the filter driving unit 17 from the configuration illustrated in FIG. 1 according to the first embodiment. In this embodiment, a plurality of color pupil barycentric positions are switched by using a plurality of diaphragms 11.

図32に示すように、絞り11は、2枚の絞り羽根11u,11dにより構成されている。絞り羽根11u,11dにはV字状の切欠がそれぞれ形成されていて、各切欠が例えば上下方向から対向するように配置されている。そして、対向するV字状の切欠の組み合わせにより形成される菱形状の開口を、絞り羽根11u,11dの移動量に応じて拡大、縮小することで、開口径の変更を行うようになっている。   As shown in FIG. 32, the diaphragm 11 is composed of two diaphragm blades 11u and 11d. V-shaped notches are formed in the diaphragm blades 11u and 11d, and the notches are arranged so as to face each other, for example, in the vertical direction. And the opening diameter is changed by enlarging and reducing the rhombus-shaped opening formed by the combination of the V-shaped notches facing each other according to the movement amount of the diaphragm blades 11u and 11d. .

このような構成において、絞り駆動部18が瞳位置変更部として機能して、絞り11の一方の絞り羽根11dのみを撮影光束の光路内に進入させることにより、帯域制限フィルタ12における例えばR透過領域の分布が変更され、図33に示すように、第1の色瞳重心位置g1が実現される。   In such a configuration, the diaphragm drive unit 18 functions as a pupil position changing unit, and only one diaphragm blade 11d of the diaphragm 11 enters the optical path of the imaging light beam, so that, for example, an R transmission region in the band limiting filter 12 As shown in FIG. 33, the first color pupil barycentric position g1 is realized.

また、絞り駆動部18が、絞り11の他方の絞り羽根11uのみを撮影光束の光路内に進入させることにより、帯域制限フィルタ12における例えばR透過領域の分布が変更され、図34に示すように、第2の色瞳重心位置g2が実現される。   Further, when the diaphragm drive unit 18 causes only the other diaphragm blade 11u of the diaphragm 11 to enter the optical path of the imaging light beam, for example, the distribution of the R transmission region in the band limiting filter 12 is changed, as shown in FIG. The second color pupil center of gravity position g2 is realized.

なお、本実施形態においては、距離演算部37がステップS42において選択する色瞳重心位置の切換条件は、絞り羽根11u,11dのそれぞれの駆動量などとなる。   In the present embodiment, the color pupil center-of-gravity position switching condition selected by the distance calculation unit 37 in step S42 is the drive amount of each of the diaphragm blades 11u and 11d.

また、絞り11を開放しても異なる色瞳重心位置を実現することができるが、変更の前後における色瞳重心位置の移動量が大きい方が位相差検出の精度を高くすることができるため、ここでは2枚で構成される絞り11を一つずつ駆動して、第1の色瞳重心位置g1と第2の色瞳重心位置g2とを実現している。   Further, even if the diaphragm 11 is opened, different color pupil centroid positions can be realized. However, the greater the amount of movement of the color pupil centroid position before and after the change, the higher the accuracy of phase difference detection. Here, the two apertures 11 are driven one by one to realize the first color pupil barycentric position g1 and the second color pupil barycentric position g2.

このような構成によれば、狭帯域でない通常の被写体の場合には、R成分とB成分との間で水平方向の位相差に基づく距離情報を取得することができると共に、狭帯域の被写体の場合には、絞り11を駆動することにより第1の色瞳重心位置g1と第2の色瞳重心位置g2に示すような垂直方向の位相差に基づく距離情報を取得することができる。   According to such a configuration, in the case of a normal subject that is not a narrow band, distance information based on the phase difference in the horizontal direction can be acquired between the R component and the B component, and the subject of the narrow band subject can be acquired. In this case, by driving the diaphragm 11, it is possible to acquire distance information based on the vertical phase difference as indicated by the first color pupil centroid position g1 and the second color pupil centroid position g2.

さらに、狭帯域でない通常の被写体の場合であっても、被写体のパターンによっては、水平方向の位相差に基づく距離情報を取得できない場合がある。このような場合でも、色瞳重心位置を垂直方向に変更すれば、垂直方向の位相差に基づく距離情報を取得することができるために、いわゆるクロスセンサと同様の効果を奏することができ、距離情報の取得が可能になる利点がある。従って、色瞳重心位置の変更は、被写体が狭帯域である場合に行うに限るものではない。   Furthermore, even in the case of a normal subject that is not a narrow band, depending on the subject pattern, distance information based on the phase difference in the horizontal direction may not be acquired. Even in such a case, if the center of gravity position of the color pupil is changed to the vertical direction, distance information based on the phase difference in the vertical direction can be acquired, so that the same effect as a so-called cross sensor can be obtained. There is an advantage that information can be obtained. Therefore, the change of the color pupil centroid position is not limited to the case where the subject is in a narrow band.

また、図33および図34に示す例においては、絞り羽根11u,11dの移動方向は上下方向となっているために、第1の色瞳重心位置g1と第2の色瞳重心位置g2の変化方向は上下方向となっているが、異なる方向に移動する絞り羽根を用いれば、異なる方向への色瞳重心位置の変化も実現することができる。   In the examples shown in FIGS. 33 and 34, the movement directions of the diaphragm blades 11u and 11d are up and down, so that the first color pupil centroid position g1 and the second color pupil centroid position g2 change. Although the direction is the vertical direction, if the diaphragm blades moving in different directions are used, the change of the color pupil barycentric position in different directions can also be realized.

このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、絞りを駆動制御して色瞳重心位置を変更しているために、一般的な撮像装置に既に設けられている機構を利用することができ、専用の機構を追加する必要がなくなって、撮像装置の小型化や低価格化を図ることができる。   According to the second embodiment, the same effect as that of the first embodiment described above can be obtained, and the position of the center of gravity of the color pupil is changed by driving and controlling the diaphragm. Therefore, it is not necessary to add a dedicated mechanism, and the imaging apparatus can be reduced in size and price.

そして、本実施形態2の構成によっても、G色の色瞳重心位置を変更することが可能となる利点がある。   The configuration of the second embodiment also has an advantage that the G color pupil center of gravity position can be changed.

さらに、クロスセンサと同様の機能を果たすことが可能となり、距離情報の取得精度を向上することができる。
[実施形態2の変形例]
Furthermore, the same function as that of the cross sensor can be achieved, and the distance information acquisition accuracy can be improved.
[Modification of Embodiment 2]

図35および図36は本発明の実施形態2の変形例を示したものであり、図35は絞り11を開放して第1の色瞳重心位置g1を実現している様子を示す図であり、図36は絞り11を絞って第2の色瞳重心位置g2を実現している様子を示す図である。   FIGS. 35 and 36 show a modification of the second embodiment of the present invention, and FIG. 35 is a diagram showing a state in which the aperture 11 is opened and the first color pupil center of gravity position g1 is realized. FIG. 36 is a diagram illustrating a state in which the second color pupil center-of-gravity position g2 is realized by reducing the stop 11.

この実施形態2の変形例において、上述の実施形態2と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。   In the modified example of the second embodiment, the same parts as those of the above-described second embodiment are denoted by the same reference numerals, description thereof is omitted, and only different points will be mainly described.

本変形例は、絞り11の開口径の変化を利用して複数の色瞳重心位置の切換を実現する例となっている。そして、本変形例の撮像装置の構成は、上述した実施形態2の図31に示したものと基本的に同様である。なお、図35および図36には、絞り11が理想的な円形絞りである場合を図示しているが、円形絞りでなくても勿論構わない。   This modification is an example in which switching of a plurality of color pupil barycentric positions is realized by using a change in the aperture diameter of the diaphragm 11. And the structure of the imaging device of this modification is fundamentally the same as what was shown in FIG. 31 of Embodiment 2 mentioned above. Although FIGS. 35 and 36 illustrate the case where the diaphragm 11 is an ideal circular diaphragm, it does not matter if it is not a circular diaphragm.

図35に示すように絞り11を開放したとき(例えば、絞り値F2としたとき)の第1の色瞳重心位置g1と、図36に示すように絞り11を絞ったとき(例えば、絞り値F8としたとき)の第2の色瞳重心位置g2とは、変化量は比較的小さいものの、一般に異なる位置となる。つまり、絞り駆動部18は、瞳位置変更部として機能する。   As shown in FIG. 35, the first color pupil center of gravity position g1 when the diaphragm 11 is opened (for example, when the diaphragm value is set to F2), and when the diaphragm 11 is narrowed as shown in FIG. 36 (for example, the diaphragm value). Although the amount of change is relatively small, the second color pupil center of gravity position g2 (when F8) is generally a different position. That is, the aperture driving unit 18 functions as a pupil position changing unit.

このとき、本変形例においては、距離演算部37がステップS42において選択する色瞳重心位置の切換条件は、絞り11の絞り値などとなる。   At this time, in the present modification, the color pupil barycentric position switching condition selected by the distance calculation unit 37 in step S42 is the aperture value of the aperture 11.

従って、単に絞り11の絞り値を変更するだけでも、色瞳重心位置の変更を行うことが可能である。ただし、この場合に、撮像素子22が受ける光量が異なるために、色瞳重心位置変更の前後で取得された画像の信号増幅量を異ならせて、同一光量を受けたときの画像に相当するように補正するのは勿論である。   Therefore, it is possible to change the color pupil center of gravity position simply by changing the aperture value of the aperture 11. However, in this case, since the amount of light received by the image sensor 22 is different, the signal amplification amounts of the images acquired before and after the color pupil centroid position change are made different so as to correspond to images when the same amount of light is received. Of course, the correction is made.

このような実施形態2の変形例によれば、上述した実施形態2とほぼ同様の効果を奏するとともに、色瞳重心位置を変更するための特別な構成が不要になるだけでなく、特定の絞り羽根のみを駆動するといったような特別な駆動法を用いることも不要となる利点がある。
[実施形態3]
According to such a modification of the second embodiment, the same effect as that of the second embodiment described above can be obtained, and a special configuration for changing the position of the center of gravity of the color pupil is not necessary. There is an advantage that it is not necessary to use a special driving method such as driving only the blades.
[Embodiment 3]

図37から図39は本発明の実施形態3を示したものであり、図37は撮像装置の構成を示すブロック図であり、図38はレンズバリア20を駆動して第1の色瞳重心位置g1を実現している様子を示す図であり、図39はレンズバリア20を駆動して第2の色瞳重心位置g2を実現している様子を示す図である。   FIGS. 37 to 39 show the third embodiment of the present invention, FIG. 37 is a block diagram showing the configuration of the imaging apparatus, and FIG. 38 shows the first color pupil center of gravity position by driving the lens barrier 20. FIG. 39 is a diagram illustrating a state in which g1 is realized, and FIG. 39 is a diagram illustrating a state in which the lens barrier 20 is driven to realize the second color pupil center of gravity position g2.

この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。   In the third embodiment, parts that are the same as those in the first and second embodiments are given the same reference numerals, description thereof is omitted, and only differences are mainly described.

本実施形態3の撮像装置は、図37に示すように、上述した実施形態1の図1に示した構成からフィルタ駆動部17を取り除き、レンズバリア20と、バリア駆動部19と、を新たな構成として追加したものとなっている。   As shown in FIG. 37, the imaging apparatus of the third embodiment removes the filter driving unit 17 from the configuration shown in FIG. 1 of the above-described first embodiment, and replaces the lens barrier 20 and the barrier driving unit 19 with new ones. It has been added as a configuration.

レンズ制御部14は、実施形態1で上述した制御に追加して、さらに、バリア駆動部19を制御するようになっている。     In addition to the control described above in the first embodiment, the lens control unit 14 further controls the barrier driving unit 19.

バリア駆動部19は、レンズ制御部14の制御に基づき、電動によりレンズバリア20の開閉を行うものである。     The barrier driving unit 19 is configured to open and close the lens barrier 20 electrically based on the control of the lens control unit 14.

レンズバリア20は、撮像光学系9の光路上前方に配設されていて、バリア駆動部19によって駆動されることにより、撮像光学系9を遮光する保護状態と、撮像光学系9を開放する撮影状態と、撮像光学系9の一部を遮光し他の一部を開放する測距用状態と、を取り得る保護部材である。   The lens barrier 20 is disposed on the front of the optical path of the imaging optical system 9 and is driven by the barrier driving unit 19 so as to shield the imaging optical system 9 and to capture the imaging optical system 9. This is a protective member that can take a state and a distance measurement state in which a part of the imaging optical system 9 is shielded from light and the other part is opened.

すなわち、本実施形態は、レンズバリア20を利用して複数の色瞳重心位置の切換を実現するものとなっている。     That is, in the present embodiment, switching of a plurality of color pupil barycentric positions is realized using the lens barrier 20.

具体例としては、レンズバリア20は、2枚の遮光板20u,20dにより構成されている。ここに、遮光板20uは撮像光学系9の前方を一方側(例えば上側)から覆い、遮光板20dは撮像光学系9の前方を他方側(例えば下側)から覆うものとなっている。   As a specific example, the lens barrier 20 includes two light shielding plates 20u and 20d. Here, the light shielding plate 20u covers the front of the imaging optical system 9 from one side (for example, the upper side), and the light shielding plate 20d covers the front of the imaging optical system 9 from the other side (for example, the lower side).

そして、遮光板20u,20dの両方が撮像光学系9を遮光に覆うことにより、保護状態が実現される。   The light shielding plates 20u and 20d both cover the imaging optical system 9 with light shielding, thereby realizing a protection state.

また、遮光板20u,20dの両方が撮像光学系9へ入射する光の光路上から退避することにより、撮影状態が実現される。   Further, the imaging state is realized by retreating both the light shielding plates 20u and 20d from the optical path of the light incident on the imaging optical system 9.

さらに、バリア駆動部19は、瞳位置変更部として機能して、保護部材であるレンズバリア20に、上述した保護状態および撮影状態だけでなく、さらに、撮像光学系9の一部を遮光し他の一部を開放する測距用状態を取らせることにより、色瞳重心位置を変更するものとなっている。この測距用状態は、典型例としては、2枚の遮光板20u,20dの何れか一方のみが撮像光学系9を遮光に覆うことにより実現される(ただし、この典型例に限るものでないことは勿論である)。図38に示すように、遮光板20dのみが撮像光学系9を遮光に覆うことにより、第1の色瞳重心位置g1が実現される。また、図39に示すように、遮光板20uのみが撮像光学系9を遮光に覆うことにより、第2の色瞳重心位置g2が実現される。   Furthermore, the barrier drive unit 19 functions as a pupil position changing unit, and not only protects and captures the above-described protection state and imaging state, but also shields a part of the imaging optical system 9 from the lens barrier 20 serving as a protection member. The center of gravity of the color pupil is changed by taking a state for distance measurement in which a part of the color pupil is opened. As a typical example, this state for distance measurement is realized by only one of the two light shielding plates 20u and 20d covering the imaging optical system 9 with light shielding (however, the present invention is not limited to this typical example). Of course). As shown in FIG. 38, the first color pupil barycentric position g1 is realized by only the light shielding plate 20d covering the imaging optical system 9 with light shielding. As shown in FIG. 39, only the light shielding plate 20u covers the imaging optical system 9 with light shielding, thereby realizing the second color pupil barycentric position g2.

このとき、本実施形態においては、距離演算部37がステップS42において選択する色瞳重心位置の切換条件は、遮光板20u,20dのそれぞれの駆動量などとなる。   At this time, in the present embodiment, the color pupil barycenter position switching condition selected by the distance calculation unit 37 in step S42 is the driving amount of each of the light shielding plates 20u and 20d.

なお、撮影状態における色瞳重心位置も、図38に示す第1の色瞳重心位置g1や図39に示す第2の色瞳重心位置g2とは異なるが、変更の前後における色瞳重心位置の移動量が大きい方が位相差検出の精度を高くすることができるために、何れか一方の遮光板20u,20dにより撮像光学系9を覆うことで、2つの色瞳重心位置を実現している。   The color pupil barycentric position in the shooting state is also different from the first color pupil barycentric position g1 shown in FIG. 38 and the second color pupil barycentric position g2 shown in FIG. Since the greater the amount of movement, the higher the accuracy of phase difference detection, the two optical pupil centroid positions are realized by covering the imaging optical system 9 with one of the light shielding plates 20u, 20d. .

さらに、図38および図39に示す例においては、遮光板20u,20dの移動方向は上下方向となっているために、第1の色瞳重心位置g1と第2の色瞳重心位置g2の変化方向は上下方向となっているが、異なる方向に移動する遮光板を用いれば、異なる方向への色瞳重心位置の変化も実現することができる。   Further, in the example shown in FIGS. 38 and 39, the movement direction of the light shielding plates 20u and 20d is the vertical direction, and therefore the change in the first color pupil centroid position g1 and the second color pupil centroid position g2. Although the direction is the vertical direction, if a light-shielding plate that moves in a different direction is used, a change in the position of the center of gravity of the color pupil in a different direction can also be realized.

このような実施形態3によれば、上述した実施形態1,2とほぼ同様の効果を奏するとともに、レンズバリア20に撮像光学系9の一部を遮光し他の一部を開放する測距用状態をとらせることにより色瞳重心位置を変更するようにしたために、一般的な撮像装置に既に設けられている機構を利用することができ、専用の機構を追加する必要がなく、撮像装置の小型化や低価格化を図ることができる。   According to the third embodiment, the same effects as those of the first and second embodiments described above are obtained, and a part of the imaging optical system 9 is shielded from the lens barrier 20 and the other part is opened. Since the position of the center of gravity of the color pupil is changed by taking the state, a mechanism already provided in a general imaging device can be used, and there is no need to add a dedicated mechanism. Miniaturization and cost reduction can be achieved.

また、本実施形態3の構成によっても、G色の色瞳重心位置を変更することが可能となる利点がある。   Also, the configuration of the third embodiment has an advantage that the G color pupil center of gravity position can be changed.

なお、上述においては、特定の帯域の光が撮像光学系9の瞳領域を通過する際の重心を変更する構成について、幾つかの実施形態や変形例を説明したが、これらに限るものではない。   In the above description, some embodiments and modifications have been described for the configuration of changing the center of gravity when light in a specific band passes through the pupil region of the imaging optical system 9, but the present invention is not limited thereto. .

例えば、上述では、絞り11とレンズバリア20との何れか一方を利用する例を示したが、これらの両方を利用するようにしても良い。   For example, in the above description, an example in which one of the diaphragm 11 and the lens barrier 20 is used has been described, but both of them may be used.

あるいは、帯域制限フィルタ12として、複数のセグメントに分割された色選択透過素子を用いる構成が考えられる。ここに、色選択透過素子は、色(波長)に対応して偏光透過軸を回転可能な部材と、例えばLCDのような偏光透過軸の回転する/しないを選択制御可能な部材と、を複数組み合わせることにより実現された、色分布を変更可能な素子である。この色選択透過素子は、具体例としては、西暦2000年4月にSID2000において「SID ’00 Digest, Vol. 31, p. 92」として開示されたようなカラーリンク社のカラースイッチが挙げられる。   Or the structure using the color selective transmission element divided | segmented into the several segment as the band-limiting filter 12 can be considered. Here, the color selective transmission element includes a plurality of members capable of rotating the polarization transmission axis corresponding to the color (wavelength) and members capable of selectively controlling whether or not the polarization transmission axis rotates, such as an LCD. It is an element that can be changed in color distribution, realized by combination. As a specific example of this color selective transmission element, there is a color switch manufactured by Color Link Co., Ltd. disclosed as “SID '00 Digest, Vol. 31, p. 92” in SID 2000 in April 2000 AD.

そして、色選択透過素子を左右のセグメントに分割し、左のセグメントにG成分およびR成分を通過させB成分を遮断するRG状態をとらせ、右のセグメントにG成分およびB成分を通過させR成分を遮断するGB状態をとらせることにより、図3の光学フィルタと同様の構成を実現することができる。そして、これとは逆に、左のセグメントにGB状態をとらせ、右のセグメントにRG状態をとらせることにより、異なる色瞳重心位置を実現することができる。   Then, the color selective transmission element is divided into left and right segments, the left segment passes through the G and R components and the B component is blocked, and the right segment passes through the G and B components. By adopting a GB state in which components are blocked, the same configuration as the optical filter of FIG. 3 can be realized. On the contrary, different color pupil barycentric positions can be realized by causing the left segment to take the GB state and the right segment to take the RG state.

さらに、近年の撮像装置内に標準的に設けられている機構、例えば、手振れ補正機構や撮像素子22の前面側に付着するゴミを除去する機構、光路上に挿脱可能に設けられている各種のフィルタなどを用いて、帯域制限フィルタ12における帯域毎の透過領域の分布の変更や透過光の色瞳重心位置の移動を実現するようにしても良い。   Furthermore, a mechanism that is provided as a standard in recent imaging apparatuses, such as a camera shake correction mechanism, a mechanism that removes dust adhering to the front side of the imaging element 22, and various types that are detachably provided on the optical path. The band limiting filter 12 may be used to change the distribution of the transmission region for each band and to move the center of gravity of the color pupil of the transmitted light.

このように、色瞳重心位置を変更する手段は特定の技術に限られるものではなく、種々の技術を広く適用することが可能である。   Thus, the means for changing the color pupil center of gravity position is not limited to a specific technique, and various techniques can be widely applied.

なお、上述では主として距離測定装置を備えた撮像装置について説明したが、上述したような処理を行う距離測定方法、上述したような処理を行うための距離測定プログラム、該距離測定プログラムを記録するコンピュータにより読み取り可能な記録媒体、等であっても構わない。   In the above description, the imaging apparatus including the distance measuring device has been mainly described. However, the distance measuring method for performing the above-described processing, the distance measuring program for performing the above-described processing, and the computer that records the distance measuring program. It may be a recording medium readable by the above.

また、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

[付記]
以上詳述したような本発明の上記実施形態によれば、以下のごとき構成を得ることができる。
[Appendix]
According to the above-described embodiment of the present invention described in detail above, the following configuration can be obtained.

(1) 1回の撮像により、複数の波長の帯域の光をそれぞれ受光して光電変換し、複数の帯域の画像を生成するカラーの撮像素子と、
撮影光束による被写体像を、瞳領域を経て前記撮像素子に結像する撮像光学系と、
前記撮影光束の光路上に配設されていて、前記複数の帯域の光が前記瞳領域をそれぞれ通過する際の光量の各重心の内の、少なくとも1つの重心の位置を、他の少なくとも1つの重心の位置とは異ならせる帯域制限フィルタと、
前記撮像素子から得られた複数の画像の位相差量に基づき被写体までの距離を演算する距離演算部と、
前記複数の帯域の内の、前記重心の位置が異なる帯域の画像同士の間の何れかに相関があるか否かを判定する色相関判定部と、
前記複数の帯域の内の、ある1つの帯域の重心である第1の重心の位置を少なくとも変更する色瞳重心位置変更部と、
前記色相関判定部により相関があると判定されたときには、前記撮像素子に1回の撮像を行わせて得られた該相関があると判定された複数の画像に基づき前記距離演算部に被写体までの距離を演算させ、相関がないと判定されたときには、前記色瞳重心位置変更部に前記第1の重心の位置を変更させ、該第1の重心位置の変更前後に前記撮像素子に1回ずつの撮像を行わせて得られた2枚の前記ある1つの帯域の画像に基づき前記距離演算部に被写体までの距離を演算させるように制御する制御部と、
を具備したことを特徴とする距離測定装置。
(1) A color imaging element that receives light in a plurality of wavelength bands and photoelectrically converts each of the light in a plurality of wavelengths by one imaging, and generates an image in a plurality of bands;
An imaging optical system that forms an image of a subject by a photographic light beam on the imaging element through a pupil region;
The position of at least one of the centroids of the centroids of the amount of light when the light beams of the plurality of bands pass through the pupil regions are arranged on the optical path of the photographing light flux, and at least one other centroid position. A band limiting filter that is different from the position of the center of gravity;
A distance calculation unit that calculates the distance to the subject based on the phase difference amounts of a plurality of images obtained from the image sensor;
A color correlation determination unit that determines whether or not there is a correlation between images in bands of different positions of the center of gravity among the plurality of bands;
A color pupil centroid position changing unit that changes at least a position of a first centroid that is a centroid of one of the plurality of bands;
When it is determined that there is a correlation by the color correlation determination unit, the distance calculation unit is informed to the subject based on a plurality of images determined to have the correlation obtained by causing the image sensor to perform one imaging. When the color pupil barycentric position changing unit changes the position of the first barycentric position, and once before and after the change of the first barycentric position, the distance is calculated. A control unit that controls the distance calculation unit to calculate the distance to the subject based on the two images of the one band obtained by performing each imaging;
A distance measuring device comprising:

(2) 前記第1の重心の位置は、前記撮像光学系の光軸中心から偏心した位置であることを特徴とする付記(1)に記載の距離測定装置。 (2) The distance measuring device according to (1), wherein the position of the first gravity center is a position decentered from the optical axis center of the imaging optical system.

1…レンズユニット
2…ボディユニット
9…撮像光学系
10…レンズ(フォーカスレンズを含む)
11…絞り
11u,11d…絞り羽根
12…帯域制限フィルタ
12a…ギヤー
12b…GBフィルタ
12r…RGフィルタ
12f…遮光フレーム
14…レンズ制御部
15…レンズ側通信コネクタ
16…レンズ駆動部
17…フィルタ駆動部(瞳位置変更部)
17a…モータ
17b…回転軸
17c…ウォームギヤー
18…絞り駆動部(瞳位置変更部)
19…バリア駆動部(瞳位置変更部)
20…レンズバリア(保護部材)
20u,20d…遮光板
21…シャッタ
22…撮像素子(カラーの撮像素子)
23…撮像回路
24…撮像駆動部
25…画像処理部
26…画像メモリ
27…表示部
28…インターフェース(IF)
29…記録媒体
30…システムコントローラ(制御部)
31…センサ部
32…操作部
33…ストロボ制御回路
34…ストロボ
35…ボディ側通信コネクタ
36…ホワイトバランス調整部
37…距離演算部
38…色相関判定部
39…コントラストAF制御部
DESCRIPTION OF SYMBOLS 1 ... Lens unit 2 ... Body unit 9 ... Imaging optical system 10 ... Lens (a focus lens is included)
DESCRIPTION OF SYMBOLS 11 ... Diaphragm 11u, 11d ... Diaphragm blade 12 ... Band-limiting filter 12a ... Gear 12b ... GB filter 12r ... RG filter 12f ... Shading frame 14 ... Lens control part 15 ... Lens side communication connector 16 ... Lens drive part 17 ... Filter drive part (Pupil position change part)
17a ... Motor 17b ... Rotating shaft 17c ... Worm gear 18 ... Aperture drive unit (pupil position changing unit)
19: Barrier driving unit (pupil position changing unit)
20 ... Lens barrier (protective member)
20u, 20d ... light shielding plate 21 ... shutter 22 ... image sensor (color image sensor)
DESCRIPTION OF SYMBOLS 23 ... Imaging circuit 24 ... Imaging drive part 25 ... Image processing part 26 ... Image memory 27 ... Display part 28 ... Interface (IF)
29 ... Recording medium 30 ... System controller (control unit)
DESCRIPTION OF SYMBOLS 31 ... Sensor part 32 ... Operation part 33 ... Strobe control circuit 34 ... Strobe 35 ... Body side communication connector 36 ... White balance adjustment part 37 ... Distance calculation part 38 ... Color correlation determination part 39 ... Contrast AF control part

Claims (11)

光を受光して光電変換し、複数帯域の色画像を生成する撮像素子と、
前記光を前記撮像素子に対して結像させる撮像光学系と、
前記光が前記撮像光学系の瞳領域を通過する際に、前記帯域を少なくとも2つに分割する帯域制限フィルタと、
前記撮像素子から得られた画像から、分割された前記帯域毎の重心位置を測定し、該重心位置の位相差量に基づき被写体までの距離を演算する距離演算部と、
分割された前記帯域毎の重心位置が異なる帯域の画像同士間の何れかに相関があるか否かを判定する色相関判定部と、
前記重心位置を変更する瞳位置変更部と、
前記色相関判定部により相関があると判定された場合、前記撮像素子による1回の撮像画像から前記距離演算部に被写体までの距離を演算させ、相関がないと判定された場合、前記瞳位置変更部に前記重心位置を変更させ、前記撮像素子による前記重心位置の変更前と変更後との少なくとも2回の撮像画像から、前記距離演算部に被写体までの距離を演算させる制御部と、
を具備したことを特徴とする距離測定装置。
An image sensor that receives light, performs photoelectric conversion, and generates a color image of a plurality of bands;
An imaging optical system that forms an image of the light on the imaging device;
A band limiting filter that divides the band into at least two when the light passes through a pupil region of the imaging optical system;
A distance calculation unit that measures the position of the center of gravity for each of the divided bands from the image obtained from the image sensor, and calculates the distance to the subject based on the phase difference amount of the center of gravity position;
A color correlation determination unit that determines whether or not there is a correlation between images of different bands having different center-of-gravity positions for each of the bands;
A pupil position changing unit for changing the position of the center of gravity;
When the color correlation determination unit determines that there is a correlation, the distance calculation unit calculates the distance from the single image captured by the image sensor to the subject, and when it is determined that there is no correlation, the pupil position A control unit that causes the change unit to change the position of the center of gravity, and causes the distance calculation unit to calculate a distance to the subject from at least two captured images before and after the change of the center of gravity position by the imaging device;
A distance measuring device comprising:
前記距離演算部は、前記複数の画像における測距エリアの位相差量に基づき被写体までの距離を演算するものであり、
前記色相関判定部は、前記測距エリアにおける画素加算値を、前記重心位置が異なる帯域の画像のそれぞれに対して算出して、算出された内の最も値が大きい第1の画素加算値を、2番目に値が大きい第2の画素加算値で割ったときの値が、所定の閾値以上であるときに、前記重心位置が異なる帯域の画像同士の何れの間にも相関がないと判定する
ことを特徴とする請求項1に記載の距離測定装置。
The distance calculation unit calculates a distance to a subject based on a phase difference amount of ranging areas in the plurality of images.
The color correlation determination unit calculates a pixel addition value in the ranging area for each of the images in the bands having different centroid positions, and calculates a first pixel addition value having the largest value among the calculated values. When a value obtained by dividing by the second pixel addition value having the second largest value is equal to or greater than a predetermined threshold value, it is determined that there is no correlation between images in bands having different centroid positions. The distance measuring device according to claim 1, wherein:
前記撮像光学系は、前記瞳領域を変更するための絞りを有し、
前記瞳位置変更部は、前記絞りを駆動制御することにより、前記重心位置を変更する
ことを特徴とする請求項2に記載の距離測定装置。
The imaging optical system has a diaphragm for changing the pupil region,
The distance measuring device according to claim 2, wherein the pupil position changing unit changes the position of the center of gravity by driving and controlling the diaphragm.
前記瞳位置変更部は、前記帯域制限フィルタの位置を変更することにより、前記重心位置を変更する
ことを特徴とする請求項2に記載の距離測定装置。
The distance measuring device according to claim 2, wherein the pupil position changing unit changes the position of the center of gravity by changing a position of the band limiting filter.
前記瞳位置変更部は、前記撮像光学系の光軸に垂直な方向に前記帯域制限フィルタの位置を変更し得るものであり、前記帯域制限フィルタの挿入位置を変更することにより、前記重心位置を変更する
ことを特徴とする請求項4に記載の距離測定装置。
The pupil position changing unit is capable of changing a position of the band limiting filter in a direction perpendicular to the optical axis of the imaging optical system, and changing the insertion position of the band limiting filter to change the position of the center of gravity. The distance measuring device according to claim 4, wherein the distance measuring device is changed.
前記瞳位置変更部は、前記光軸周りに前記帯域制限フィルタを回転し得るものであり、前記帯域制限フィルタの回転位置を変更することにより、前記重心位置を変更する
ことを特徴とする請求項4に記載の距離測定装置。
The pupil position changing unit is capable of rotating the band limiting filter around the optical axis, and changing the position of the center of gravity by changing a rotation position of the band limiting filter. 4. The distance measuring device according to 4.
前記撮像光学系の光路上前方に配設され、該撮像光学系を遮光する保護状態と、該撮像光学系を開放する撮影状態と、該撮像光学系の一部を遮光し他の一部を開放する測距用状態と、を取り得る保護部材をさらに具備し、
前記瞳位置変更部は、前記保護部材に前記測距用状態をとらせることにより、前記重心位置を変更する
ことを特徴とする請求項4に記載の距離測定装置。
A protection state in which the imaging optical system is shielded from light, a shooting state in which the imaging optical system is opened, a part of the imaging optical system, and a part of the imaging optical system being shielded. Further comprising a protective member capable of taking the distance measurement state to be opened,
The distance measuring device according to claim 4, wherein the pupil position changing unit changes the position of the center of gravity by causing the protection member to take the state for distance measurement.
前記撮像光学系は焦点調節用のフォーカスレンズを含み、
前記撮像素子から得られた画像に基づき前記フォーカスレンズを駆動してコントラストオートフォーカスを行うコントラストオートフォーカス制御部をさらに具備し、
前記制御部は、前記距離演算部による位相差量に基づく被写体距離の演算を行うのに適切であるか否かを判定し、不適切であると判定したときには、該距離演算部による被写体距離の演算を行うことなく、前記コントラストオートフォーカス制御部によるコントラストオートフォーカスを行わせるように制御する
ことを特徴とする請求項1から請求項7までの何れか一項に記載の距離測定装置。
The imaging optical system includes a focus lens for focus adjustment,
A contrast autofocus control unit that performs contrast autofocus by driving the focus lens based on an image obtained from the image sensor;
The control unit determines whether or not it is appropriate to calculate the subject distance based on the phase difference amount by the distance calculation unit, and when it is determined to be inappropriate, the control unit determines the subject distance by the distance calculation unit. The distance measuring device according to any one of claims 1 to 7, wherein control is performed so that contrast autofocus is performed by the contrast autofocus control unit without performing calculation.
前記撮像素子から得られた画像のホワイトバランス評価値に基づきホワイトバランスを調整するホワイトバランス調整部をさらに具備し、
前記制御部は、最も高いホワイトバランス評価値である第1のホワイトバランス評価値を2番目に高いホワイトバランス評価値である第2のホワイトバランス評価値で割ったときの値が所定の閾値以上であるときに、前記距離演算部による被写体距離の演算を行うには不適切であると判定する
ことを特徴とする請求項8に記載の距離測定装置。
A white balance adjustment unit that adjusts the white balance based on the white balance evaluation value of the image obtained from the image sensor;
The control unit is configured such that a value obtained by dividing the first white balance evaluation value that is the highest white balance evaluation value by the second white balance evaluation value that is the second highest white balance evaluation value is a predetermined threshold value or more. 9. The distance measuring device according to claim 8, wherein the distance measuring device determines that the distance calculating unit is inappropriate for calculating a subject distance.
前記請求項1乃至請求項9の何れか一項に記載の距離測定装置を備えた撮像装置。   An imaging apparatus comprising the distance measuring device according to any one of claims 1 to 9. 光を少なくとも2つの帯域に分割し、
前記光を光電変換して、複数帯域の色画像を生成し、
前記色画像から分割された前記帯域毎の重心位置を測定し、
分割された前記帯域毎の重心位置が異なる帯域の画像同士の間の何れかに相関があるか否かを判定し、
相関があると判定された場合、1回の撮像画像から得られた前記重心位置の位相差量に基づき被写体までの距離を演算し、相関がないと判定された場合、前記重心位置を変更し、前記重心位置の変更前と変更後との少なくとも2回の撮像画像から得られた前記重心位置の位相差量に基づき被写体までの距離を演算する
ことを特徴とする距離測定方法。
Split the light into at least two bands,
Photoelectrically converting the light to generate a multi-band color image;
Measure the center of gravity position for each of the bands divided from the color image,
It is determined whether there is a correlation between any of the images of the bands having different centroid positions for each of the divided bands,
When it is determined that there is a correlation, the distance to the subject is calculated based on the phase difference amount of the barycentric position obtained from one captured image, and when it is determined that there is no correlation, the barycentric position is changed. A distance measuring method comprising: calculating a distance to a subject based on a phase difference amount of the centroid position obtained from at least two captured images before and after the change of the centroid position.
JP2011195414A 2011-09-07 2011-09-07 Distance measuring device, imaging device, and distance measuring method Withdrawn JP2013057761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011195414A JP2013057761A (en) 2011-09-07 2011-09-07 Distance measuring device, imaging device, and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011195414A JP2013057761A (en) 2011-09-07 2011-09-07 Distance measuring device, imaging device, and distance measuring method

Publications (1)

Publication Number Publication Date
JP2013057761A true JP2013057761A (en) 2013-03-28

Family

ID=48133702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011195414A Withdrawn JP2013057761A (en) 2011-09-07 2011-09-07 Distance measuring device, imaging device, and distance measuring method

Country Status (1)

Country Link
JP (1) JP2013057761A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014203639A1 (en) * 2013-06-21 2014-12-24 オリンパス株式会社 Image capture device, image processing device, image capture method, and image processing method
WO2014208178A1 (en) * 2013-06-26 2014-12-31 オリンパス株式会社 Image pickup device and image pickup method
JP2017220780A (en) * 2016-06-07 2017-12-14 株式会社東芝 Imaging apparatus and vehicle
CN108076266A (en) * 2016-11-11 2018-05-25 株式会社东芝 Processing unit and photographic device
JP2018084802A (en) * 2016-11-11 2018-05-31 株式会社東芝 Imaging device, imaging system, and distance information acquisition method
US10145994B2 (en) 2014-11-28 2018-12-04 Kabushiki Kaisha Toshiba Lens device and image capturing device for acquiring distance information at high accuracy
DE112020005346T5 (en) 2019-10-30 2022-08-11 Fujifilm Corporation OPTICAL ELEMENT, OPTICAL DEVICE AND IMAGING DEVICE
WO2022264576A1 (en) * 2021-06-15 2022-12-22 ソニーセミコンダクタソリューションズ株式会社 Distance measurement device and distance measurement method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005921A (en) * 2013-06-21 2015-01-08 オリンパス株式会社 Imaging device, image processing device, imaging method and image processing method
WO2014203639A1 (en) * 2013-06-21 2014-12-24 オリンパス株式会社 Image capture device, image processing device, image capture method, and image processing method
EP3015892A4 (en) * 2013-06-26 2017-01-25 Olympus Corporation Image pickup device and image pickup method
JP2015011058A (en) * 2013-06-26 2015-01-19 オリンパス株式会社 Imaging device and imaging method
CN105359024A (en) * 2013-06-26 2016-02-24 奥林巴斯株式会社 Image pickup device and image pickup method
US9525856B2 (en) 2013-06-26 2016-12-20 Olympus Corporation Imaging device and imaging method
WO2014208178A1 (en) * 2013-06-26 2014-12-31 オリンパス株式会社 Image pickup device and image pickup method
US10145994B2 (en) 2014-11-28 2018-12-04 Kabushiki Kaisha Toshiba Lens device and image capturing device for acquiring distance information at high accuracy
JP2017220780A (en) * 2016-06-07 2017-12-14 株式会社東芝 Imaging apparatus and vehicle
CN108076266A (en) * 2016-11-11 2018-05-25 株式会社东芝 Processing unit and photographic device
CN108076267A (en) * 2016-11-11 2018-05-25 株式会社东芝 Photographic device, camera system and range information acquisition methods
JP2018084802A (en) * 2016-11-11 2018-05-31 株式会社東芝 Imaging device, imaging system, and distance information acquisition method
DE112020005346T5 (en) 2019-10-30 2022-08-11 Fujifilm Corporation OPTICAL ELEMENT, OPTICAL DEVICE AND IMAGING DEVICE
US11796722B2 (en) 2019-10-30 2023-10-24 Fujifilm Corporation Optical element, optical device, and imaging apparatus for acquiring multispectral images
WO2022264576A1 (en) * 2021-06-15 2022-12-22 ソニーセミコンダクタソリューションズ株式会社 Distance measurement device and distance measurement method

Similar Documents

Publication Publication Date Title
US8203645B2 (en) Image-pickup apparatus and control method thereof with image generation based on a detected spatial frequency
JP5901246B2 (en) Imaging device
JP2013057761A (en) Distance measuring device, imaging device, and distance measuring method
US9578231B2 (en) Image capture apparatus and method for controlling the same
JP5947601B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
US8902349B2 (en) Image pickup apparatus
JP2009244862A (en) Focus detection device and imaging apparatus having the same
JP2014178603A (en) Imaging device
JP2010271670A (en) Imaging apparatus
JP2016038414A (en) Focus detection device, control method thereof, and imaging apparatus
JP2014222291A (en) Imaging apparatus and control method thereof
JP2013003159A (en) Imaging apparatus
US11159710B2 (en) Lowpass filter control apparatus, lowpass filter control method, and imaging apparatus
JP4997043B2 (en) Imaging apparatus, method and program
JP2013050691A (en) Imaging apparatus
JP2013113857A (en) Imaging device, and control method therefor
JP2013160991A (en) Imaging apparatus
JP2007225897A (en) Focusing position determination device and method
JP6482247B2 (en) FOCUS ADJUSTMENT DEVICE, IMAGING DEVICE, FOCUS ADJUSTMENT DEVICE CONTROL METHOD, AND PROGRAM
JP2017188633A (en) Imaging device and imaging apparatus
JP5858683B2 (en) Focus detection apparatus and imaging apparatus
JP2007248698A (en) Method and apparatus for imaging
JP2014142497A (en) Imaging apparatus and method for controlling the same
KR20170015158A (en) Control apparatus, image pickup apparatus, and control method
JP2010134291A (en) Image capturing apparatus and method for controlling the same

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202