JP2013057761A - Distance measuring device, imaging device, and distance measuring method - Google Patents
Distance measuring device, imaging device, and distance measuring method Download PDFInfo
- Publication number
- JP2013057761A JP2013057761A JP2011195414A JP2011195414A JP2013057761A JP 2013057761 A JP2013057761 A JP 2013057761A JP 2011195414 A JP2011195414 A JP 2011195414A JP 2011195414 A JP2011195414 A JP 2011195414A JP 2013057761 A JP2013057761 A JP 2013057761A
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- distance
- pupil
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 186
- 238000000034 method Methods 0.000 title claims description 80
- 210000001747 pupil Anatomy 0.000 claims abstract description 193
- 230000003287 optical effect Effects 0.000 claims abstract description 135
- 230000005484 gravity Effects 0.000 claims abstract description 85
- 230000008859 change Effects 0.000 claims abstract description 41
- 238000011156 evaluation Methods 0.000 claims description 22
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 13
- 238000003780 insertion Methods 0.000 claims description 9
- 230000037431 insertion Effects 0.000 claims description 9
- 230000001681 protective effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 21
- 238000010586 diagram Methods 0.000 description 50
- 238000012545 processing Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 32
- 230000004048 modification Effects 0.000 description 25
- 238000012986 modification Methods 0.000 description 25
- 239000003086 colorant Substances 0.000 description 24
- 238000012937 correction Methods 0.000 description 23
- 230000004888 barrier function Effects 0.000 description 22
- 230000005540 biological transmission Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 230000007246 mechanism Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 230000004907 flux Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 230000003595 spectral effect Effects 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000000691 measurement method Methods 0.000 description 4
- 241000220317 Rosa Species 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- MCSXGCZMEPXKIW-UHFFFAOYSA-N 3-hydroxy-4-[(4-methyl-2-nitrophenyl)diazenyl]-N-(3-nitrophenyl)naphthalene-2-carboxamide Chemical compound Cc1ccc(N=Nc2c(O)c(cc3ccccc23)C(=O)Nc2cccc(c2)[N+]([O-])=O)c(c1)[N+]([O-])=O MCSXGCZMEPXKIW-UHFFFAOYSA-N 0.000 description 1
- 244000181025 Rosa gallica Species 0.000 description 1
- 235000000533 Rosa gallica Nutrition 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 235000012489 doughnuts Nutrition 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000009416 shuttering Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像光学系の異なる瞳領域を通過した複数の帯域の光から得られる複数帯域の画像に基づき、被写体までの距離を測定する距離測定装置、撮像装置、距離測定方法に関する。 The present invention relates to a distance measuring device, an imaging device, and a distance measuring method for measuring a distance to a subject based on images of a plurality of bands obtained from light of a plurality of bands that have passed through different pupil regions of an imaging optical system.
距離情報は、自動焦点調節(AF:オートフォーカス)機構によるAF処理を行うためや、立体視用画像を作成するため、あるいは画像処理(例えば、被写体抽出処理や背景抽出処理、あるいはボケ量コントロールの画像加工処理)を行うためなど、撮像装置における様々な機能を実現するのに利用可能である。 The distance information is used for AF processing by an automatic focus adjustment (AF) mechanism, for creating a stereoscopic image, or for image processing (for example, subject extraction processing, background extraction processing, or blur amount control). The present invention can be used to realize various functions in the imaging apparatus, such as for performing image processing.
このような距離情報を取得する方法は、従来より種々のものが提案されており、例えば、照明光を照射し被写体からの反射光を受光して測距を行うアクティブ測距方式や、基線長を設けて配置した複数の撮像装置(例えばステレオカメラ)の取得画像から三角測距の原理により測距を行う方式、あるいは撮像装置自体により取得した画像のコントラストが高くなるようにフォーカスレンズを駆動するコントラストAF方式など、様々な方式が提案されている。 Various methods for obtaining such distance information have been proposed. For example, an active distance measurement method in which illumination light is irradiated and reflected light from a subject is received to perform distance measurement, or a baseline length. The focus lens is driven so as to increase the contrast of images acquired by a plurality of image pickup devices (for example, stereo cameras) arranged in accordance with the principle of triangulation, or the image acquired by the image pickup device itself. Various methods such as a contrast AF method have been proposed.
しかし、アクティブ測距方式は測距用投光装置などの測距専用の部材が必要であり、また、三角測距方式では複数の撮像装置が必要であるために、撮像装置が大型化したりコストが上昇したりする要因となる。一方、コントラストAF方式は、撮像装置自体により取得した画像を利用するために、測距専用部材等は不要であるが、フォーカスレンズの位置を変化させながら複数回の撮像を行ってコントラスト値のピークを探す方式であるために、合焦位置に対応するピークを探すのに時間を要し、高速のAFを行うことが困難である。 However, the active distance measurement method requires a dedicated member for distance measurement such as a light projection device for distance measurement, and the triangular distance measurement method requires a plurality of image pickup devices. Will increase. On the other hand, since the contrast AF method uses an image acquired by the imaging apparatus itself, a dedicated distance measuring member or the like is not required. However, the contrast value peak is obtained by performing multiple imaging while changing the position of the focus lens. Therefore, it takes time to search for a peak corresponding to the in-focus position, and it is difficult to perform high-speed AF.
このような背景の下、大型化やコストの上昇を抑えながら距離情報を取得する技術として、レンズの瞳を通過する光束を複数に分割して受光し、レンズ内の一瞳領域を通過した光束から得られた画素信号と、レンズ内の一瞳領域とは異なる他の瞳領域を通過した光束から得られた画素信号と、の間で相関演算を行うことにより、被写体までの距離情報を取得する技術が提案されている。 Under such a background, as a technology to acquire distance information while suppressing an increase in size and cost, a light beam that passes through the pupil of the lens is divided into a plurality of light beams, and a light beam that passes through one pupil region in the lens The distance information to the subject is obtained by performing a correlation calculation between the pixel signal obtained from the pixel signal and the pixel signal obtained from the light beam that has passed through another pupil region different from the one pupil region in the lens. Techniques to do this have been proposed.
例えば、撮像素子の一部の画素上に瞳分割を行い得るような遮光膜を形成して焦点検出用画素とし、焦点検出用画素から得られた画像から位相差を取得する技術が知られている。しかし、この場合には、微細加工技術を用いて画素との位置合わせをしながら遮光膜を形成して専用の撮像素子を構成する必要があり、汎用の撮像素子をそのまま利用することができない。 For example, a technique is known in which a light-shielding film that can perform pupil division is formed on a part of pixels of an image sensor to form a focus detection pixel, and a phase difference is obtained from an image obtained from the focus detection pixel. Yes. However, in this case, it is necessary to form a dedicated image sensor by forming a light shielding film while aligning with pixels using a fine processing technique, and a general-purpose image sensor cannot be used as it is.
これに対して、特開平11−258489号公報には、撮影用の光学系に移動可能な瞳を挿入し、この瞳を移動して、瞳領域の異なる光束よりなる光学像を、撮影用の撮像素子に結像させ、これにより得られる瞳領域の異なる複数の像の位相差を検出し、撮影レンズのデフォーカス量を検知する位相差方式(瞳時分割位相差AF)において、処理の高速化や回路規模の縮小を図るために、1ブロックから得られる信号を位相差検出に用いる技術が記載されている。この構成おいては、汎用の撮像素子を利用可能であるものの、位相差検出を行うには時間を異ならせて複数枚の画像を取得する必要がある。従って、合焦までに時間を要したり、動きのある被写体の場合にはAF精度が低下したりする場合がある。そこで、該公報には、動きがある被写体に対して動き補正を行う技術が記載されているが、位相差検出に複数枚の画像を必要とする点は依然としてそのままである。 On the other hand, in Japanese Patent Laid-Open No. 11-258889, a movable pupil is inserted into a photographing optical system, and the pupil is moved to obtain an optical image composed of light beams having different pupil regions. High-speed processing in the phase difference method (pupil time-division phase difference AF) that forms an image on an image sensor, detects the phase difference between a plurality of images obtained by different pupil regions, and detects the defocus amount of the photographing lens. In order to reduce the size and the circuit scale, a technique is described in which a signal obtained from one block is used for phase difference detection. In this configuration, although a general-purpose image sensor can be used, it is necessary to acquire a plurality of images at different times in order to detect the phase difference. Therefore, it may take time until the subject is in focus, or the AF accuracy may be reduced in the case of a moving subject. Therefore, this publication describes a technique for performing motion correction on a moving subject, but still requires a plurality of images for phase difference detection.
そこで、汎用の撮像素子を利用可能であり、かつ、1枚の画像から位相差検出が可能な技術が提案されている。例えば特開2001−174696号公報には、部分瞳毎に異なる分光特性(例えばRGとGB)を持たせた瞳色分割用フィルタを撮像光学系に介在させ、撮像光学系からの被写体像をカラー撮像素子により受光することで、色(例えばRとB)による瞳分割を行う技術が記載されている。すなわち、カラー撮像素子から出力される画像信号を色分離して、各色画像上の同一被写体間の相対的なズレ量を検知することにより、合焦位置から近距離側にずれているのか遠距離側にずれているのかのフォーカシングズレ方向と、その方向への合焦位置からのズレ量であるフォーカシングズレ量と、の2つのフォーカシング情報が取得される。 Therefore, a technique that can use a general-purpose image sensor and can detect a phase difference from one image has been proposed. For example, in Japanese Patent Laid-Open No. 2001-174696, a pupil color dividing filter having different spectral characteristics (for example, RG and GB) for each partial pupil is interposed in an imaging optical system, and a subject image from the imaging optical system is colored. A technique for performing pupil division by color (for example, R and B) by receiving light with an image sensor is described. In other words, the image signal output from the color image sensor is color-separated, and the relative shift amount between the same subject on each color image is detected, so that it is shifted from the in-focus position to the short distance side or the long distance Two pieces of focusing information, that is, a focusing shift direction that is shifted to the side and a focusing shift amount that is a shift amount from the in-focus position in that direction, are acquired.
ところで、相関演算を行っても、位相差検出に必要なコントラスト評価値を得られないことがある。いわゆる苦手被写体の代用例は低コントラストの被写体であり、これに準ずる状態となっているのが大デフォーカスの被写体である。このような場合に対応する技術として、特開2003−344753号公報には、瞳分割に係る被写体像のコントラスト評価値の何れかが閾値以下である場合には、相関演算が不可能であると判定して、相関演算が可能になるまでAF対象領域を拡大する技術が記載されている。 By the way, even if correlation calculation is performed, a contrast evaluation value necessary for phase difference detection may not be obtained. A substitute example of a so-called weak subject is a low-contrast subject, and a subject in accordance with this is a large defocused subject. As a technique corresponding to such a case, Japanese Patent Application Laid-Open No. 2003-344753 discloses that correlation calculation is impossible when any of the contrast evaluation values of the subject image related to pupil division is equal to or less than a threshold value. A technique for enlarging the AF target area until it is determined and correlation calculation is possible is described.
上述した特開2001−174696号公報に記載の技術においても、特有の苦手被写体が存在する。 Even in the technique described in Japanese Patent Application Laid-Open No. 2001-174696 described above, there is a particular weak subject.
すなわち、該公報に記載の技術は、例えばR画像とB画像との間で相関演算を行う技術であるために、R画像の波長帯域とB画像の波長帯域との両方において画素値を有する被写体でないと、相関演算を行うことができない。従って、例えば狭帯域の被写体、より具体的にR色のみの深紅のバラの場合、R画像は取得できるもののB画像を取得することができないために、相関演算を行うことができない。 That is, since the technique described in the publication is, for example, a technique for performing a correlation operation between an R image and a B image, an object having pixel values in both the wavelength band of the R image and the wavelength band of the B image. Otherwise, the correlation calculation cannot be performed. Therefore, for example, in the case of a narrow-band subject, more specifically, a deep red rose of only the R color, an R image can be acquired, but a B image cannot be acquired, so that a correlation calculation cannot be performed.
このような苦手被写体について、本願の実施形態に係る図面を参照してより詳細に説明する。 Such a poor subject will be described in detail with reference to the drawings according to the embodiment of the present application.
まず、特開2001−174696号公報に記載された瞳色分割用フィルタは、例えば図3に示す帯域制限フィルタ12と同様に構成されている。すなわち、帯域制限フィルタ12は、レンズを含む撮像光学系の瞳を、RGを透過する部分瞳とGBを透過する部分瞳とに分割するように構成されている。ここに、RGを透過する部分瞳を形成するのがRGフィルタ12r、GBを透過する部分瞳を形成するのがGBフィルタ12bである。
First, the pupil color dividing filter described in Japanese Patent Laid-Open No. 2001-174696 is configured in the same manner as the
このような構成の光学系により、例えば合焦位置よりも遠い位置にある通常の被写体OBJrgbを結像するときの様子は、光学系を上から見た図4に示すようになる。 For example, when the normal object OBJrgb at a position farther than the in-focus position is imaged by the optical system having such a configuration, a state in which the optical system is viewed from above is shown in FIG.
すなわち、被写体が合焦位置よりも遠い位置にあると、レンズ10と撮像素子22との間に合焦面が位置するために、帯域制限フィルタ12とは左右が反転した位置にRのボケ画像IMGrとBのボケ画像IMGbとが結像される。
That is, when the subject is located farther than the in-focus position, the in-focus surface is located between the
撮像素子が例えば図2に示すようなベイヤー配列の撮像素子であるとすると、通常の被写体OBJrgb、つまり、RGBの各帯域の光を反射する被写体の場合には、図5に示すように、各色の画素が光電変換を行って画素値を発生させる(図5および後述する図9のハッチングは画素値が発生したことを示している)。 If the image sensor is an image sensor having a Bayer array as shown in FIG. 2, for example, in the case of a normal subject OBJrgb, that is, a subject that reflects light in each of the RGB bands, as shown in FIG. These pixels perform photoelectric conversion to generate a pixel value (hatching in FIG. 5 and FIG. 9 described later indicates that a pixel value has occurred).
こうして得られたR画像とB画像とをSAD方式により相関演算したときには、図6に示すようなV字形状の谷をなす相関値が得られ、0に近い谷の底の像ずれ量が求める位相差量となる。また、ZNCC方式により相関演算したときには、図7に示すような逆V字形状の山をなす相関値が得られ、1に近い山の頂点の像ずれ量が求める位相差量となる。 When the correlation between the R image and the B image thus obtained is calculated by the SAD method, a correlation value forming a V-shaped valley as shown in FIG. 6 is obtained, and an image shift amount at the bottom of the valley close to 0 is obtained. The amount of phase difference. Further, when the correlation calculation is performed by the ZNCC method, a correlation value forming an inverted V-shaped peak as shown in FIG. 7 is obtained, and an image shift amount at the peak of the peak close to 1 is obtained as a phase difference amount.
これに対して、R色のみの(より正確には、R色光の強度が、B色光およびG色光の強度に比して圧倒的に高い)深紅のバラ等の狭帯域の被写体OBJrを上述した光学系により結像するときの様子は、図8に示すようになる。 On the other hand, the subject OBJr having a narrow band such as a crimson rose, which has only the R color (more precisely, the intensity of the R color light is overwhelmingly higher than the intensity of the B color light and the G color light) is described above. FIG. 8 shows a state when an image is formed by the optical system.
このときには、被写体OBJrから照射されたR光は、RGフィルタ12rは透過するが、GBフィルタ12bには遮断される。従って、図9に示すように、R画素は光電変換を行って画素値を発生させるが、B画素およびG画素では光電変換がほとんど行われず画素値がほとんど発生しない。
At this time, the R light emitted from the subject OBJr passes through the
このようにして得られたR画像とB画像とをSAD方式により相関演算しても、例えば図10に示すような明確なV字形状の谷が見られない相関値が得られてしまい、0に近い谷の底を求めるのが困難であり、仮に求めたとしても信頼性が著しく低いものとなる。同様に、ZNCC方式により相関演算したとしても、図11に示すような明確な逆V字形状の山が見られない相関値が得られてしまい、1に近い山の頂点を求めるのが困難であり、仮に求めたとしても信頼性が著しく低いものとなる。こうして、被写体が狭帯域である場合には、位相差検出を行うことが困難であり、仮に、位相差検出を行ったとしても検出した位相差量の信頼性が低くなってしまったりすることが分かる。 Even if the correlation calculation is performed between the R image and the B image obtained in this way by the SAD method, a correlation value in which no clear V-shaped valley as shown in FIG. It is difficult to obtain the bottom of the valley close to, and even if it is obtained, the reliability is extremely low. Similarly, even if the correlation calculation is performed by the ZNCC method, a correlation value in which a clear inverted V-shaped peak as shown in FIG. 11 is not obtained is obtained, and it is difficult to obtain the peak of the peak close to 1. Yes, even if it is obtained, the reliability is extremely low. Thus, when the subject is in a narrow band, it is difficult to detect the phase difference, and even if the phase difference is detected, the reliability of the detected phase difference amount may be lowered. I understand.
本発明は上記事情に鑑みてなされたものであり、波長帯域および瞳領域が異なる複数の画像に基づく位相差検出が困難な苦手被写体に対しても、位相差検出による距離測定を可能とする距離測定装置、撮像装置、距離測定方法を提供することを目的としている。 The present invention has been made in view of the above circumstances, and enables distance measurement by phase difference detection even for subjects who are difficult to detect phase difference based on a plurality of images having different wavelength bands and pupil regions. It aims at providing a measuring device, an imaging device, and a distance measuring method.
上記の目的を達成するために、本発明のある態様による距離測定装置は、光を受光して光電変換し、複数帯域の色画像を生成する撮像素子と、前記光を前記撮像素子に対して結像させる撮像光学系と、前記光が前記撮像光学系の瞳領域を通過する際に、前記帯域を少なくとも2つに分割する帯域制限フィルタと、前記撮像素子から得られた画像から、分割された前記帯域毎の重心位置を測定し、該重心位置の位相差量に基づき被写体までの距離を演算する距離演算部と、分割された前記帯域毎の重心位置が異なる帯域の画像同士間の何れかに相関があるか否かを判定する色相関判定部と、前記重心位置を変更する瞳位置変更部と、前記色相関判定部により相関があると判定された場合、前記撮像素子による1回の撮像画像から前記距離演算部に被写体までの距離を演算させ、相関がないと判定された場合、前記瞳位置変更部に前記重心位置を変更させ、前記撮像素子による前記重心位置の変更前と変更後との少なくとも2回の撮像画像から、前記距離演算部に被写体までの距離を演算させる制御部と、を備える。 In order to achieve the above object, a distance measuring device according to an aspect of the present invention includes an imaging device that receives light and performs photoelectric conversion to generate a color image of a plurality of bands, and the light to the imaging device. An imaging optical system that forms an image, a band limiting filter that divides the band into at least two when the light passes through a pupil region of the imaging optical system, and an image obtained from the imaging element. The distance calculation unit that measures the center of gravity position for each band and calculates the distance to the subject based on the phase difference amount of the center of gravity position, and between the divided images of the bands having different center of gravity positions for each band If it is determined that there is a correlation by a color correlation determination unit that determines whether there is a correlation, a pupil position change unit that changes the position of the center of gravity, and the color correlation determination unit, the image sensor once The distance calculation unit from the captured image of When the distance to the subject is calculated and it is determined that there is no correlation, the pupil position changing unit is caused to change the position of the center of gravity, and at least two times of imaging before and after the change of the position of the center of gravity by the image sensor A control unit that causes the distance calculation unit to calculate the distance to the subject from the image.
本発明の他の態様による撮像装置は、上記距離測定装置を備えている。 An imaging apparatus according to another aspect of the present invention includes the distance measuring device.
本発明のさらに他の態様による距離測定方法は、光を少なくとも2つの帯域に分割し、前記光を光電変換して、複数帯域の色画像を生成し、前記色画像から分割された前記帯域毎の重心位置を測定し、分割された前記帯域毎の重心位置が異なる帯域の画像同士の間の何れかに相関があるか否かを判定し、相関があると判定された場合、1回の撮像画像から得られた前記重心位置の位相差量に基づき被写体までの距離を演算し、相関がないと判定された場合、前記重心位置を変更し、前記重心位置の変更前と変更後との少なくとも2回の撮像画像から得られた前記重心位置の位相差量に基づき被写体までの距離を演算する。 The distance measurement method according to still another aspect of the present invention divides light into at least two bands, photoelectrically converts the light to generate a plurality of band color images, and each band divided from the color images. The center of gravity position of each of the divided bands is measured, and it is determined whether there is a correlation between the images of the bands having different center of gravity positions, and if it is determined that there is a correlation, The distance to the subject is calculated based on the phase difference amount of the centroid position obtained from the captured image, and when it is determined that there is no correlation, the centroid position is changed, and before and after the change of the centroid position The distance to the subject is calculated based on the phase difference amount of the barycentric position obtained from at least two captured images.
本発明の距離測定装置、撮像装置、距離測定方法によれば、波長帯域および瞳領域が異なる複数の画像に基づく位相差検出が困難な苦手被写体に対しても、位相差検出による距離測定が可能となる。 According to the distance measuring device, imaging device, and distance measuring method of the present invention, distance measurement by phase difference detection is possible even for subjects who are difficult to detect phase difference based on a plurality of images having different wavelength bands and pupil regions. It becomes.
以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]
図1から図27は本発明の実施形態1を示したものであり、図1は撮像装置の構成を示すブロック図である。
1 to 27
本実施形態の距離測定装置を備えた撮像装置は、例えばデジタルスチルカメラとして構成されている。ただし、ここではデジタルスチルカメラを例に挙げているが、撮像装置は、カラー撮像素子を備え撮像機能を有する装置であればどのようなものでも良く、幾つかの例を挙げれば、上述したデジタルスチルカメラ、ビデオカメラ、カメラ付携帯電話、カメラ付携帯情報端末(カメラ付PDA)、カメラ付パーソナルコンピュータ、監視カメラ、内視鏡、デジタル顕微鏡(デジタルマイクロスコープ)、測距機能付き双眼鏡などである。 An imaging device including the distance measuring device according to the present embodiment is configured as a digital still camera, for example. However, here, a digital still camera is taken as an example, but the imaging device may be any device as long as it has a color imaging element and has an imaging function. Still cameras, video cameras, mobile phones with cameras, personal digital assistants with cameras (PDAs with cameras), personal computers with cameras, surveillance cameras, endoscopes, digital microscopes (digital microscopes), binoculars with ranging functions, etc. .
撮像装置は、レンズユニット1と、このレンズユニット1がレンズマウントを介して着脱自在に取り付けられる本体部であるボディユニット2と、を備えている。なお、ここではレンズユニット1が着脱式である場合を例に挙げて説明するが、勿論、着脱式でなくても構わない。
The imaging apparatus includes a
レンズユニット1は、レンズ10と絞り11とを含む撮像光学系9と、帯域制限フィルタ12と、レンズ制御部14と、レンズ側通信コネクタ15と、レンズ駆動部16と、フィルタ駆動部17と、絞り駆動部18と、を備えている。
The
ボディユニット2は、シャッタ21と、撮像素子22と、撮像回路23と、撮像駆動部24と、画像処理部25と、画像メモリ26と、表示部27と、インターフェース(IF)28と、システムコントローラ30と、センサ部31と、操作部32と、ストロボ制御回路33と、ストロボ34と、ボディ側通信コネクタ35と、を備えている。なお、図1のボディユニット2内には記録媒体29も記載されているが、この記録媒体29は撮像装置に対して着脱自在な例えばメモリカード(スマートメディア、SDカード、xDピクチャーカード等)で構成されているために、撮像装置に固有の構成でなくても構わない。
The
まず、レンズユニット1における撮像光学系9は、被写体像を撮像素子22に結像するためのものである。この撮像光学系9のレンズ10は、焦点調節を行うためのフォーカスレンズを備えて構成されている。レンズ10は、一般的には複数枚のレンズで構成されることが多いが、図1においては簡単のために1枚のレンズのみを図示している。
First, the imaging
撮像光学系9の絞り11は、レンズ10を通過する被写体光束の通過範囲を規制することにより、撮像素子22上に結像される被写体像の明るさを調節するためのものである。この絞り11の絞り開口径を変更すると、撮像光学系9の瞳領域も変更される。
The
帯域制限フィルタ12は、撮像光学系9を経て撮像素子22に至る撮影光束の光路上(望ましくは、撮像光学系9の絞り11の位置またはその近傍)に配設されており、撮像光学系9の瞳領域の一部である第1の領域を通過しようとする撮影光束中の第1の帯域(ここに、帯域は波長帯域を示す。以下同様。)の光を遮断し第2の帯域および第3の帯域の光を通過させる第1の帯域制限と、撮像光学系9の瞳領域の他の一部である第2の領域を通過しようとする撮影光束中の第2の帯域の光を遮断し第1の帯域および第3の帯域の光を通過させる第2の帯域制限と、を行うフィルタである。
The
図3は帯域制限フィルタ12の一構成例を説明するための図である。この図3に示す構成例の帯域制限フィルタ12は、撮像光学系9の瞳領域が、第1の領域と第2の領域とに2分されたものとなっている。すなわち、帯域制限フィルタ12は、撮像装置を標準姿勢(いわゆる、カメラを通常の横位置に構えた姿勢)として撮像素子22から見たときに、左半分がG(緑)成分およびR(赤)成分を通過させB(青)成分を遮断する(すなわち、B(青)成分は第1の帯域と第2の帯域との内の一方の帯域である)RGフィルタ12rと、右半分がG成分およびB成分を通過させR成分を遮断する(すなわち、R成分は第1の帯域と第2の帯域との内の他方の帯域である)GBフィルタ12bとなっている。従って、帯域制限フィルタ12は、撮像光学系9の絞り11の開口を通過する光に含まれるG成分を全領域において通過させ(すなわち、G成分は第3の帯域である)、R成分を開口の半分の領域だけ通過させ、B成分を開口の残り半分の領域だけ通過させる。このように帯域制限フィルタ12は、通過させる光の帯域(色)によって、撮像光学系9の瞳領域における通過領域を制限するものであるために、帯域制限フィルタ12により分割された各帯域の光が撮像光学系9の瞳領域を通過する際の光量の重心位置(色瞳重心位置)は、帯域(色)毎に異なることになる。具体的には、Gが瞳領域を通過する際の光量の重心位置は撮像光学系9の光軸中心に一致し、Rが瞳領域を通過する際の光量の重心位置は撮像光学系9の光軸中心から偏心して図3の左側にずれ、Bが瞳領域を通過する際の光量の重心位置は撮像光学系9の光軸中心から偏心して図3の右側にずれることになる。
FIG. 3 is a diagram for explaining a configuration example of the
なお、帯域制限フィルタ12のRGB各分光透過特性が、撮像素子22にオンチップで構成されている素子フィルタ(図2参照)のRGB各分光透過特性と異なると、RGフィルタ12rとGBフィルタ12bの空間位置の相違に基づいて得られる画像から後述するように取得する位置情報の精度が低下したり、分光特性のミスマッチによる光量ロスが発生したりすることになる。従って、帯域制限フィルタ12の分光透過特性は、撮像素子22の素子フィルタの分光透過特性と、同一または可能な限り近似していることが望ましい。
If the RGB spectral transmission characteristics of the
レンズ制御部14は、レンズユニット1の制御を行うものである。すなわち、レンズ制御部14は、レンズ側通信コネクタ15およびボディ側通信コネクタ35を介してシステムコントローラ30から受信した指令に基づき、レンズ駆動部16、フィルタ駆動部17、絞り駆動部18を制御する。
The
レンズ側通信コネクタ15は、レンズユニット1とボディユニット2とがレンズマウントにより結合されてボディ側通信コネクタ35と接続されることにより、レンズ制御部14とシステムコントローラ30との間の通信を可能にするコネクタである。
The lens-
レンズ駆動部16は、レンズ制御部14の制御に基づき、レンズ10内のフォーカスレンズを駆動し合焦させるものである。また、レンズ10が電動ズームレンズである場合には、レンズ駆動部16は、レンズ制御部14の制御に基づき、レンズ10内のズームレンズの駆動も行う。
The
フィルタ駆動部17は、レンズ制御部14の制御に基づき、帯域制限フィルタ12を撮像光学系9の光路上へ挿入しあるいは光路上から退避させるものである。
The
絞り駆動部18は、レンズ制御部14の制御に基づき、絞り11を駆動し絞り開口径を変更するものである。
The
次に、ボディユニット2におけるシャッタ21は、レンズ10から撮像素子22に到達する被写体光束の通過時間を規制することにより、撮像素子22の露光時間を調節するための光学シャッタである。なお、ここでは光学シャッタを用いているが、光学シャッタに代えて、または光学シャッタに加えて、撮像素子22による素子シャッタ(電子シャッタ)を用いるようにしても構わない。
Next, the
撮像素子22は、撮像光学系9により結像される被写体像を、1回の撮像において複数の波長帯(例えば、RGBが挙げられるが、これに限るものではない)光毎にそれぞれ受光して光電変換し、電気信号として出力するカラー撮像素子であり、例えば、CCDやCMOS等として構成されている。ここに、カラー撮像素子の構成としては、オンチップの素子カラーフィルタを備えた単板の撮像素子でも良いし、RGB各色光への色分解を行うダイクロイックプリズムを用いた3板式であっても良いし、同一の画素位置で半導体の深さ方向位置に応じてRGBの撮像情報を取得可能な方式の撮像素子であっても良いし、複数の波長帯光の撮像情報を取得可能であればどのようなものでも構わない。
The
例えば、図2を参照して、一般的なデジタルスチルカメラに用いられることが多い単板のカラー撮像素子の構成例を説明する。ここに、図2は撮像素子22の画素配列を説明するための図である。本実施形態においては、オンチップで搭載される素子カラーフィルタが透過する複数の波長帯光はR、G、およびBとなっており、この図2に示すように、原色ベイヤー配列の単板カラー撮像素子が構成されている。従って、撮像素子22がこの図2に示したような構成である場合には、1画素に付き1色の色成分のみが得られることになるために、画像処理部25においてデモザイキング処理を行い1画素につきRGBの3色が揃ったカラー画像を生成するようになっている。
For example, with reference to FIG. 2, a configuration example of a single-plate color image sensor often used for a general digital still camera will be described. FIG. 2 is a diagram for explaining the pixel arrangement of the
撮像回路23は、撮像素子22から出力される画像信号を増幅(ゲイン調整)したり、また、撮像素子22がアナログ撮像素子であってアナログの画像信号を出力する場合には、A/D変換してデジタル画像信号(以下では「画像情報」ともいう)を生成するものである(撮像素子22がデジタル撮像素子である場合には、撮像回路23に入力される時点で既にデジタルとなっているためにA/D変換は行わない)。撮像回路23は、撮像駆動部24で切り換えられた撮像モードに対応するフォーマットで、画像信号を画像処理部25へ出力する。なお、詳細は後述する。
The
撮像駆動部24は、システムコントローラ30の指令に基づいて、撮像素子22および撮像回路23にタイミング信号および電力を供給して、撮像素子に露光、読出、素子シャッタ等を行わせるとともに、撮像素子22の動作に同期させて撮像回路23によるゲイン調整およびA/D変換を実行させるように制御するものである。また、この撮像駆動部24は、撮像素子22の撮像モードを切り換える制御も行う。
The
画像処理部25は、各種のデジタル画像処理を行うものである。画像処理部25は、例えば、黒レベルの補正、γ補正、欠陥画素の補正、デモザイキング、画像情報の色情報の変換処理、画像情報の画素数変換処理、等を行う。さらに、画像処理部25は、WB(ホワイトバランス)調整を行うホワイトバランス調整部36も含んで構成されている。また、帯域制限フィルタ12は通過させる光の帯域(色)によって、撮像光学系9の瞳領域における通過領域を制限しているために、通過する光は、帯域によって明るさが異なることになる。そこで、画像処理部25は、このような帯域間(色間)の明るさの違いも補正するようになっている。加えて、図3に示したような帯域制限フィルタ12を用いた場合には、非合焦部分においてR画像とB画像とに空間的な位置ズレが発生することになるために、画像処理部25は、この空間的な位置ズレを補正して、色ズレのない平面画像を生成するカラー化処理も行う。
The
画像メモリ26は、高速な書き込みや読み出しが可能なメモリであり、例えばSDRAM(Synchronous Dynamic Random Access Memory)により構成されていて、画像処理用のワークエリアとして使用されるとともに、システムコントローラ30のワークエリアとしても使用される。例えば、画像メモリ26は、画像処理部25により処理された最終的な画像を記憶するだけでなく、画像処理部25による複数の処理過程における各中間画像も適宜記憶する。
The
表示部27は、LCD等を有して構成されていて、画像処理部25により表示用に処理された画像(記録媒体29から読み出されて画像処理部25により表示用に処理された画像も含む)を表示するものである。具体的には、この表示部27は、ライブビュー画像の表示、静止画像記録時の確認表示、記録媒体29から読み出した静止画像または動画像の再生表示、等を行う。
The
インターフェース(IF)28は、記録媒体29を着脱可能に接続するものであり、記録媒体29へ記録する情報の伝達、および記録媒体29から読み出した情報の伝達を行う。
The interface (IF) 28 is detachably connected to the
記録媒体29は、画像処理部25により記録用に処理された画像や、該画像に関連する各種データを記録するものであり、上述したように例えばメモリカード等として構成されている。
The
センサ部31は、例えば、撮像装置のブレを検出するための加速度センサ等で構成される手振れセンサ、撮像素子22の温度を測定するための温度センサ、撮像装置周辺の明るさを測定するための明るさセンサ、等を含んでいる。このセンサ部31による検出結果はシステムコントローラ30に入力される。ここに、手振れセンサによる検出結果は撮像素子22やレンズ10を駆動して手振れ補正を行ったり、画像処理による手振れ補正を行ったりするために用いられる。また、温度センサによる検出結果は撮像駆動部24による駆動クロックの制御や撮像素子22から得られる画像中のノイズ量を推定するのに用いられる。さらに、明るさセンサによる検出結果は、例えば、周囲の明るさに応じて表示部27の輝度を適正に制御するために用いられる。
The
操作部32は、撮像装置の電源をオン/オフするための電源スイッチ、静止画像や動画像等の撮像動作を指示入力するための2段式の押圧ボタンでなるレリーズボタン、撮像モード等を変更するためのモードボタン、選択項目や数値などを変更するのに用いられる十字キー、等を含んでいる。この操作部32の操作により発生した信号は、システムコントローラ30に入力される。
The
ストロボ制御回路33は、システムコントローラ30の指令に基づいて、ストロボ34の発光量や発光タイミングを制御するものである。
The
ストロボ34は、ストロボ制御回路33の制御により、被写体へ照明光を照射する発光源である。
The
ボディ側通信コネクタ35は、上述したように、レンズユニット1とボディユニット2とがレンズマウントにより結合されてレンズ側通信コネクタ15と接続されることにより、レンズ制御部14とシステムコントローラ30との間の通信を可能にするコネクタである。
As described above, the body
システムコントローラ30は、このボディユニット2の制御を行うとともに、レンズ制御部14を介してレンズユニット1の制御も行うものであり、この撮像装置を統合的に制御する制御部である。このシステムコントローラ30は、図示しないフラッシュメモリ等の不揮発性メモリから撮像装置の基本制御プログラムを読み出して、操作部32からの入力に応じて、撮像装置全体を制御するようになっている。
The
例えば、システムコントローラ30は、レンズ制御部14を介してレンズユニット1内の各部を制御したり、シャッタ21を制御して駆動したり、センサ部31の加速度センサによる検出結果に基づいて図示しない手振れ補正機構を制御駆動して手振れ補正を行ったり、等を行う。さらに、システムコントローラ30は、操作部32のモードボタンからの入力に応じて、撮像装置のモード設定(静止画像を撮像するための静止画モード、動画像を撮像するための動画モード等の設定)を行うものとなっている。
For example, the
さらに、システムコントローラ30は、距離演算部37と、色相関判定部38と、コントラストAF制御部39とを備えている。
Further, the
色相関判定部38は、上述した色瞳重心位置が異なる帯域の画像同士間の何れかに、相関があるか否かを判定するものである。
The color
距離演算部37は、撮像素子22から得られた画像における、色瞳重心位置が異なる複数の帯域の画像の位相差量に基づき、被写体までの距離を演算するものである。例えば、距離演算部37は、撮像素子22から得られた、第1の帯域の第1の画像と第2の帯域の第2の画像との位相差量を演算し、演算した位相差量に基づき、被写体までの距離を演算する。具体的には、距離演算部37は、R画像とB画像との位相差量、R画像とG画像との位相差量、またはB画像とG画像との位相差量に基づき被写体距離を演算するようになっている。
The
距離演算部37により得られた距離情報は、例えばオートフォーカス(AF)に利用され、システムコントローラ30が距離情報に基づきレンズユニット1を制御して位相差AFを行う(勿論、距離情報の利用対象はAFに限るものではなく、ボケ量コントロールや、立体視画像の生成等に用いても構わない)。
The distance information obtained by the
コントラストAF制御部39は、撮像素子22から得られた画像に基づきフォーカスレンズを駆動してコントラストAFを行うものである。より詳しくは、コントラストAF制御部39は、画像処理部25から出力される画像信号(この画像信号は、輝度成分を含む割合が高いG画像であっても良いし、上述したカラー化処理により色ズレが補正された画像に係る輝度信号画像であっても構わない)からコントラスト値(AF評価値ともいう)を生成し、レンズ制御部14を介してレンズ10内のフォーカスレンズを制御するものである。すなわち、コントラストAF制御部39は、画像信号にフィルタ、例えばハイパスフィルタを作用させて高周波成分を抽出し、コントラスト値とする。そして、コントラストAF制御部39は、フォーカスレンズ位置を異ならせてコントラスト値を取得し、コントラスト値が大きくなる方向へフォーカスレンズを移動させて、さらにコントラスト値を取得する。このような処理を繰り返して行うことにより、最大のコントラスト値が得られるフォーカスレンズ位置(合焦位置)へフォーカスレンズを駆動するように制御するものである。
The contrast
システムコントローラ30は、瞳位置変更部(後述するように、フィルタ駆動部17、絞り駆動部18、またはバリア駆動部19(図37参照)等)を制御することにより、帯域制限フィルタ12により分割される帯域の内の少なくとも1つの帯域の色瞳重心位置を変更するようになっている(従って、瞳位置変更部は、色瞳重心位置変更部といっても良い)。
The
そして、システムコントローラ30は、後述するように、色相関判定部38により相関があると判定された場合、撮像素子22による1回の撮像画像から距離演算部37に被写体までの距離を演算させ、相関がないと判定された場合、瞳位置変更部に色瞳重心位置を変更させ、撮像素子22による色瞳重心位置の変更前と変更後との少なくとも2回の撮像画像から、距離演算部37に被写体までの距離を演算させる制御を行う。
Then, as will be described later, when the color
さらに、システムコントローラ30は、距離演算部37による位相差量に基づく被写体距離の演算を行うのに適切であるか否かを判定し、不適切であると判定したときには、距離演算部37による被写体距離の演算を行うことなく、コントラストAF制御部によるコントラストAFを行わせるように制御するものとなっている。なお、詳細は後述する。
Further, the
次に、上述したような構成の撮像装置により、通常の被写体OBJrgbと狭帯域の被写体OBJrとを撮像する場合について、図4〜図11を参照して説明する。 Next, a case where a normal subject OBJrgb and a narrow-band subject OBJr are imaged by the imaging apparatus having the above-described configuration will be described with reference to FIGS.
図4は、合焦位置よりも遠距離側にある通常の被写体OBJrgbを撮像するときの被写体光束集光の様子を示す平面図である。 FIG. 4 is a plan view showing a state of subject light beam condensing when an image of a normal subject OBJrgb on the far side from the in-focus position is imaged.
RGBの各帯域に光強度を有する通常の被写体OBJrgbの場合には、被写体OBJrgbからの光は、R成分がRGフィルタ12rを通過する一方でGBフィルタ12bに遮断され、B成分はGBフィルタ12bを通過する一方でRGフィルタ12rに遮断される。また、G成分についてはRGフィルタ12rおよびGBフィルタ12bの両方を通過する。
In the case of a normal subject OBJrgb having light intensity in each of the RGB bands, the light from the subject OBJrgb is blocked by the
そして、図3に示した形状の帯域制限フィルタ12を用いる場合の非合焦時には、被写体OBJrgb上の1点から放射された光は、G成分については円形ボケをなす被写体像IMGgを形成し、R成分については半円形ボケをなす被写体像IMGr、B成分についても半円形ボケをなす被写体像IMGbをそれぞれ形成する。ただし、R成分のボケ被写体像IMGrとB成分のボケ被写体像IMGbは、合焦位置よりも近距離側の非合焦であるときには帯域制限フィルタ12と左右が一致し、合焦位置よりも遠距離側の非合焦であるときには帯域制限フィルタ12と左右が反転する。
When the
撮像光学系9からの光を受けた撮像素子22上のRGB各色の画素は、図5のハッチングに示すように、光電変換をそれぞれ行って画素値を発生させる。ここに、図5は、通常の被写体OBJrgbを撮像するときのRGB画素の光電変換の様子を示す図である。
The RGB pixels on the
上述したように、こうして得られたR画像とB画像とをSAD方式により相関演算したときには、図6に示すようなV字形状の谷をなす相関値が得られ、0に近い谷の底の像ずれ量が求める位相差量となる。また、ZNCC方式により相関演算したときには、図7に示すような逆V字形状の山をなす相関値が得られ、1に近い山の頂点の像ずれ量が求める位相差量となる。なお、図6は通常の被写体OBJrgbを撮像して得られたR画像とB画像の相対位置をずらしながらSAD方式により演算を行った相関値の例を示す線図であり、図7は通常の被写体OBJrgbを撮像して得られたR画像とB画像の相対位置をずらしながらZNCC方式により演算を行った相関値の例を示す線図である。また、図6、図7(および後述する図10、図11)のグラフの横軸は、相関演算対象の画像(例えば、上述したR画像とB画像)の像ズレ量(単位は画素)を示し、縦軸は相関演算の結果得られる相関値を示している。 As described above, when the R image and the B image thus obtained are subjected to correlation calculation by the SAD method, a correlation value forming a V-shaped valley as shown in FIG. 6 is obtained, and the bottom of the valley close to 0 is obtained. The amount of image shift is the amount of phase difference to be obtained. Further, when the correlation calculation is performed by the ZNCC method, a correlation value forming an inverted V-shaped peak as shown in FIG. 7 is obtained, and an image shift amount at the peak of the peak close to 1 is obtained as a phase difference amount. 6 is a diagram showing an example of correlation values calculated by the SAD method while shifting the relative positions of the R image and the B image obtained by imaging a normal subject OBJrgb, and FIG. It is a diagram which shows the example of the correlation value calculated by the ZNCC system, shifting the relative position of R image and B image which were obtained by imaging to-be-photographed object OBJrgb. In addition, the horizontal axis of the graphs of FIGS. 6 and 7 (and FIGS. 10 and 11 to be described later) represents the image shift amount (unit: pixel) of the correlation calculation target image (for example, the R image and B image described above). The vertical axis indicates the correlation value obtained as a result of the correlation calculation.
続いて、図8は、合焦位置よりも遠距離側にあるR色の被写体OBJrを撮像するときの被写体光束集光の様子を示す平面図である。 Next, FIG. 8 is a plan view showing a state of subject light flux condensing when the R subject OBJr on the far side from the in-focus position is imaged.
まず、被写体OBJrは、狭帯域の被写体であって、例えば深紅のバラ等の、R色光の強度がB色光およびG色光の強度に比して圧倒的に高い被写体であるものとする。 First, it is assumed that the subject OBJr is a narrow-band subject, such as a crimson rose, whose R color light intensity is overwhelmingly higher than that of B color light and G color light.
このときには、被写体OBJrから照射されたR光は、RGフィルタ12rは透過するが、GBフィルタ12bには遮断される。これにより、非合焦の被写体OBJrgb上の1点から放射された光は、R成分については半円形ボケをなす被写体像IMGrを形成するが、G成分およびB成分については被写体像がほとんど形成されない。従って、図9に示すように、R画素は光電変換を行って画素値を発生させるが、B画素およびG画素では光電変換があまり行われず画素値がほとんど発生しない。ここに、図9は、R色の被写体OBJrを撮像するときのRGB画素の光電変換の様子を示す図である。撮像素子22は、R画像だけでなくB画像およびG画像についても画像信号を出力するために、データとしてはRGB画像が揃うことになる。
At this time, the R light emitted from the subject OBJr passes through the
しかし、このようにして得られたR画像とB画像とをSAD方式により相関演算しても、例えば図10に示すような明確なV字形状の谷が見られない相関値が得られてしまい、0に近い谷の底を求めるのが困難であり、仮に求めたとしても信頼性が著しく低いものとなる。同様に、ZNCC方式により相関演算したとしても、図11に示すような明確な逆V字形状の山が見られない相関値が得られてしまい、1に近い山の頂点を求めるのが困難であり、仮に求めたとしても信頼性が著しく低いものとなる。こうして、被写体が狭帯域である場合には、位相差検出を行うことが困難であり、仮に位相差検出を行ったとしても検出した位相差量の信頼性が低くなってしまったりすることが分かる。図10は狭帯域の被写体OBJrを撮像して得られたR画像とB画像の相対位置をずらしながらSAD方式により演算を行った相関値の例を示す線図であり、図11は狭帯域の被写体OBJrを撮像して得られたR画像とB画像の相対位置をずらしながらZNCC方式により演算を行った相関値の例を示す線図である。 However, even if the correlation calculation is performed between the R image and the B image obtained in this way by the SAD method, a correlation value that does not show a clear V-shaped valley as shown in FIG. 10 is obtained. , It is difficult to obtain the bottom of the valley close to 0, and even if it is obtained, the reliability is extremely low. Similarly, even if the correlation calculation is performed by the ZNCC method, a correlation value in which a clear inverted V-shaped peak as shown in FIG. 11 is not obtained is obtained, and it is difficult to obtain the peak of the peak close to 1. Yes, even if it is obtained, the reliability is extremely low. Thus, when the subject is in a narrow band, it is difficult to detect the phase difference, and even if phase difference detection is performed, the reliability of the detected phase difference amount may be reduced. . FIG. 10 is a diagram showing an example of correlation values calculated by the SAD method while shifting the relative positions of the R image and the B image obtained by imaging the narrow band subject OBJr, and FIG. It is a diagram which shows the example of the correlation value computed by the ZNCC system, shifting the relative position of R image and B image which were obtained by image | photographing the object OBJr.
このような場合に本実施形態においては、R画像とG画像(またはB画像とG画像)の相関演算に基づき被写体距離の演算を行ったり、あるいはR画像の色瞳重心位置を変更して、色瞳重心位置変更の前後において撮像した2枚以上のR画像の相関演算に基づき被写体距離の演算を行ったり、あるいは相関演算に基づく被写体距離の演算の信頼度が低い場合には、コントラストAFにより被写体距離を求めたりするようにしている。なお、詳細は後述する。 In such a case, in the present embodiment, the subject distance is calculated based on the correlation calculation between the R image and the G image (or the B image and the G image), or the color pupil centroid position of the R image is changed, When the subject distance is calculated based on the correlation calculation of two or more R images captured before and after the color pupil centroid position change, or when the reliability of the object distance calculation based on the correlation calculation is low, contrast AF is used. The subject distance is calculated. Details will be described later.
図12から図15を参照して、色瞳重心位置を変更する例について説明する。ここに、図12は、図3の帯域制限フィルタ12を光軸周りに180°回転させて、合焦位置よりも遠距離側にあるR色の被写体OBJrを撮像するときの被写体光束集光の様子を示す平面図であり、図13は帯域制限フィルタ12が図3に示す位置にあるときの、R色の色瞳重心位置g1を示す図であり、図14は帯域制限フィルタ12を光軸周りに180°回転させたときの、R色の色瞳重心位置g2を示す図であり、図15はR色の色瞳重心位置の変更前後の様子を示す図である。
An example of changing the position of the center of gravity of the color pupil will be described with reference to FIGS. FIG. 12 shows the subject light flux collection when the
図3に示した帯域制限フィルタ12を光軸周りに180°回転させると、図14のように、右半円がRGフィルタ12rとなり、左半円がGBフィルタ12bとなる。
When the
この場合には、非合焦の被写体OBJrgb上の1点から放射されたR色光が形成する被写体像IMGrは、図8に示した半円形ボケと反対側の半円形ボケとなる。 In this case, the subject image IMGr formed by the R color light emitted from one point on the out-of-focus subject OBJrgb is a semicircular blur opposite to the semicircular blur shown in FIG.
撮像光学系9の瞳を通過する際の光量の重心位置について考えれば、帯域制限フィルタ12が図3に示したような状態であるときには、R色の色瞳重心位置は図13に示すg1となるが、帯域制限フィルタ12が図14に示したような状態となったときにはR色の色瞳重心位置は同図に示すg2となる。
Considering the barycentric position of the amount of light when passing through the pupil of the imaging
従って、図15に示すように、被写体が単一の色(この例ではR色)であっても異なる2つの色瞳重心位置を実現することができるために、色瞳重心位置を変更する前後に撮像した2枚の画像に基づいて相関演算を行うことにより、被写体までの距離を求めることが可能となる。 Therefore, as shown in FIG. 15, since two different color pupil centroid positions can be realized even if the subject is a single color (R color in this example), before and after the color pupil centroid position is changed. By performing the correlation calculation based on the two images taken at the same time, the distance to the subject can be obtained.
続いて、図16から図21を参照して、色瞳重心位置を異ならせる幾つかの例を説明する。ここに、図16は図3の帯域制限フィルタ12を光軸周りに120°回転させたときのR色の色瞳重心位置g2を示す図であり、図17は図3の帯域制限フィルタ12を光軸周りに240°回転させたときのR色の色瞳重心位置g3を示す図であり、図18は光軸周りの3等分位置となる色瞳重心位置g1〜g3を示す図であり、図19は図3の帯域制限フィルタ12を光軸周りに90°回転させたときのR色の色瞳重心位置g3を示す図であり、図20は図3の帯域制限フィルタ12を光軸周りに270°回転させたときのR色の色瞳重心位置g4を示す図であり、図21は光軸周りの4等分位置となる色瞳重心位置g1〜g4を示す図である。
Subsequently, with reference to FIGS. 16 to 21, some examples in which the position of the center of gravity of the color pupil is changed will be described. FIG. 16 is a diagram illustrating the color pupil center of gravity position g2 of the R color when the
図13に示すフィルタ位置において第1の色瞳重心位置g1のR画像を取得し、図16に示すフィルタ位置において第2の色瞳重心位置g2のR画像を取得し、図17に示すフィルタ位置において第3の色瞳重心位置g3のR画像を取得すれば、図18に示すように、光軸周りの3等分位置に色瞳重心位置をもつ視差画像を得ることができる。 The R image of the first color pupil centroid position g1 is acquired at the filter position shown in FIG. 13, the R image of the second color pupil centroid position g2 is acquired at the filter position shown in FIG. 16, and the filter position shown in FIG. As shown in FIG. 18, a parallax image having a color pupil barycentric position at three equal positions around the optical axis can be obtained.
このときの各色瞳重心位置におけるR画像取得の順序と、取得したR画像のうち、どのR画像を組み合わせて距離情報を取得するかは種々のバリエーションが考えられるが、1つの例は次のようになる。 Various variations are conceivable for the order of R image acquisition at each color pupil center of gravity position and which R image is combined to acquire distance information among the acquired R images, but one example is as follows. become.
まず、図18に示す第1の色瞳重心位置g1において第1のR画像を取得し、次に、図18に示す第2の色瞳重心位置g2において第2のR画像を取得する。そして、第1のR画像と第2のR画像とに基づき相関演算を行い、第1の距離情報を取得する。 First, the first R image is acquired at the first color pupil centroid position g1 shown in FIG. 18, and then the second R image is acquired at the second color pupil centroid position g2 shown in FIG. Then, correlation calculation is performed based on the first R image and the second R image, and first distance information is acquired.
続いて、図18に示す第3の色瞳重心位置g3において第3のR画像を取得し、第2のR画像と第3のR画像とに基づき相関演算を行い、第2の距離情報を取得する。 Subsequently, a third R image is acquired at the third color pupil centroid position g3 shown in FIG. 18, a correlation operation is performed based on the second R image and the third R image, and the second distance information is obtained. get.
その後、再度、図18に示す第1の色瞳重心位置g1の第4のR画像を取得し、第3のR画像と第4のR画像とに基づき相関演算を行い、第3の距離情報を取得する。ここで、再度図18に示す第1の色瞳重心位置g1のR画像を取得しているのは、第1のR画像と第3のR画像とでは取得された時間差が第1のR画像と第2のR画像の時間差の例えば2倍となり、その間に被写体が移動する等により相関演算の信頼性が低下するのを防止するためである。 Thereafter, again, a fourth R image of the first color pupil center of gravity position g1 shown in FIG. 18 is acquired, and correlation calculation is performed based on the third R image and the fourth R image to obtain third distance information. To get. Here, the R image of the first color pupil centroid position g1 shown in FIG. 18 is acquired again because the time difference acquired between the first R image and the third R image is the first R image. This is to prevent the reliability of the correlation calculation from being lowered due to, for example, twice the time difference between the second R image and the second R image.
なお、ライブビューなどの連続的に画像を取得している場合には、その後も同様にして、順次色瞳重心位置を異ならせながら距離情報を取得していけば良い。 In addition, when images are continuously acquired such as live view, distance information may be acquired in the same manner while sequentially changing the color pupil center of gravity position.
また、距離情報の取得の他の例は、次のようになる。 Another example of obtaining distance information is as follows.
まず、図18における第1の色瞳重心位置g1において第1のR画像を取得し、次に、図18における第2の色瞳重心位置g2において第2のR画像を取得する。そして、第1のR画像と第2のR画像とに基づき相関演算を行い、第1の距離情報を取得する。 First, the first R image is acquired at the first color pupil centroid position g1 in FIG. 18, and then the second R image is acquired at the second color pupil centroid position g2 in FIG. Then, correlation calculation is performed based on the first R image and the second R image, and first distance information is acquired.
続いて、図18における第3の色瞳重心位置g3において第3のR画像を取得し、第2のR画像と第3のR画像とに基づき相関演算を行い、第2の距離情報を取得する。さらに、第1のR画像と第3のR画像とに基づき相関演算を行い、第3の距離情報を取得する。 Subsequently, a third R image is acquired at the third color pupil center of gravity position g3 in FIG. 18, and a correlation calculation is performed based on the second R image and the third R image to acquire second distance information. To do. Further, correlation calculation is performed based on the first R image and the third R image, and third distance information is acquired.
そして、得られた第1の距離情報と第2の距離情報と第3の距離情報とに基づき、最も信頼性が高いと推定できる距離情報を算出する。ここに、信頼性が高い距離情報の推定は、3つの距離情報の相関度に基づき判定しても良いし、統計的に処理して求めても構わないし、その他の手段を用いても良い。 Then, based on the obtained first distance information, second distance information, and third distance information, distance information that can be estimated to have the highest reliability is calculated. Here, the estimation of distance information with high reliability may be determined based on the degree of correlation of the three distance information, may be obtained by statistical processing, or other means may be used.
これら以外にも、距離情報の求め方には様々なパターンが考えられるために、用途に応じて適切なものを選択すれば良い。 In addition to these, since there are various patterns for obtaining the distance information, an appropriate one may be selected according to the application.
図18に示したような色瞳重心位置において得られた複数枚の画像を組み合わせれば、水平方向の位相差量、および垂直方向の位相差量を共に検出することができる。従って、水平方向のパターンの被写体、および垂直方向のパターンの被写体の何れであっても、高い信頼性で距離情報を算出することができる利点がある。 By combining a plurality of images obtained at the center of gravity of the color pupil as shown in FIG. 18, both the horizontal phase difference amount and the vertical phase difference amount can be detected. Therefore, there is an advantage that the distance information can be calculated with high reliability regardless of whether the subject has a horizontal pattern or a vertical pattern.
また、図13に示すフィルタ位置において第1の色瞳重心位置g1のR画像を取得し、図14に示すフィルタ位置において第2の色瞳重心位置g2のR画像を取得し、図19に示すフィルタ位置において第3の色瞳重心位置g3のR画像を取得し、図20に示すフィルタ位置において第4の色瞳重心位置g4のR画像を取得すれば、図21に示すように、光軸周りの4等分位置に色瞳重心位置をもつ視差画像を得ることができる。 Further, an R image of the first color pupil centroid position g1 is acquired at the filter position shown in FIG. 13, and an R image of the second color pupil centroid position g2 is acquired at the filter position shown in FIG. If the R image of the third color pupil centroid position g3 is acquired at the filter position and the R image of the fourth color pupil centroid position g4 is acquired at the filter position shown in FIG. 20, the optical axis as shown in FIG. It is possible to obtain a parallax image having the color pupil barycentric position at the surrounding four equal positions.
このときの画像取得の順序と、どの画像を組み合わせて距離情報を取得するかは種々のバリエーションが考えられるが、1つの例は次のようになる。 Various variations are conceivable for the order of image acquisition at this time and which image is used to acquire distance information, but one example is as follows.
まず、図20に示す第1の色瞳重心位置g1において第1のR画像を取得し、次に、図20に示す第2の色瞳重心位置g2において第2のR画像を取得する。そして、第1のR画像と第2のR画像とに基づき相関演算を行い、第1の距離情報を取得する。 First, the first R image is acquired at the first color pupil centroid position g1 shown in FIG. 20, and then the second R image is acquired at the second color pupil centroid position g2 shown in FIG. Then, correlation calculation is performed based on the first R image and the second R image, and first distance information is acquired.
続いて、図20に示す第3の色瞳重心位置g3において第3のR画像を取得し、次に、図20に示す第4の色瞳重心位置g4において第4のR画像を取得する。そして、第3のR画像と第4のR画像とに基づき相関演算を行い、第2の距離情報を取得する。 Subsequently, the third R image is acquired at the third color pupil centroid position g3 shown in FIG. 20, and then the fourth R image is acquired at the fourth color pupil centroid position g4 shown in FIG. Then, correlation calculation is performed based on the third R image and the fourth R image, and second distance information is acquired.
こうして得られた第1の距離情報は水平方向の視差に基づく距離情報であり、第2の距離情報は垂直方向の視差に基づく距離情報である。これら第1の距離情報と第2の距離情報とが一致する場合には何れの結果を用いても構わないが、一致しない場合には、例えば被写体のパターンに応じて適切な方を選択すれば良い。 The first distance information thus obtained is distance information based on horizontal parallax, and the second distance information is distance information based on vertical parallax. If the first distance information and the second distance information match, any result may be used. If they do not match, for example, an appropriate one may be selected according to the pattern of the subject. good.
この4点の色瞳重心位置の場合にも、上述した3点の色瞳重心位置の場合と同様に、距離情報の求め方には様々なパターンが考えられる。例えば、90°毎の右回り、すなわち、図21の色瞳重心位置g1,g3,g2,g4の順序で画像を順次取得するなどである。従って、用途に応じて適切な順序で画像を取得し、距離情報を算出するようにすれば良い。 Also in the case of the four color pupil centroid positions, as in the case of the three color pupil centroid positions described above, various patterns can be considered for obtaining the distance information. For example, the images are acquired sequentially in the clockwise direction every 90 °, that is, in the order of the color pupil centroid positions g1, g3, g2, and g4 in FIG. Therefore, it is only necessary to acquire images in an appropriate order according to the application and calculate distance information.
次に、上述したような複数の色瞳重心位置の切換を実現する構成について、以下に説明する。 Next, a configuration for realizing the switching of the plurality of color pupil centroid positions as described above will be described below.
まず、図示はしないが、一例としてはターレットを用いることである。すなわち、回転可能なターレット板の複数の回転角度位置に、複数の色瞳重心位置を実現する帯域制限フィルタ12をそれぞれ設けておき、ターレット板を回転させて所望の色瞳重心位置の帯域制限フィルタ12が撮像光学系9の光路上に位置するようにすれば良い。このとき、ターレット板上に帯域制限フィルタ12と同様の大きさの開口を設けておけば、帯域制限フィルタ12が光路上から全退避した状態を実現することができる。このターレット板の回転位置の制御は、システムコントローラ30の指令に基づき、レンズ制御部14を介してフィルタ駆動部17により行われる。
First, although not shown, as an example, a turret is used. That is,
次に、図22は、帯域制限フィルタ12の周囲にギヤーを設けて光軸周りに回転可能とした例を示す図である。
Next, FIG. 22 is a diagram illustrating an example in which a gear is provided around the
すなわち、円形をなす帯域制限フィルタ12の周囲にギヤー12aが設けられている。このギヤー12aには例えばウォームギヤー17cが噛合している。このウォームギヤー17cは、モータ17aの回転軸17bに取り付けられている。ここに、モータ17a、回転軸17b、およびウォームギヤー17cは、瞳位置変更部として機能するフィルタ駆動部17の構成の一部である。
That is, the
このような構成において、回転角の検出(モータ17aをステッピングモータにより構成してそのパルス数をカウントする、あるいは回転角検出用のフォトインタラプタ等のセンサを設ける、など)を行いながら、帯域制限フィルタ12を光軸周りの所望の角度に回転させれば良い。
In such a configuration, the band-limiting filter is used while detecting the rotation angle (the
次に、撮像装置の作用について説明する。図23は、撮像装置における撮像処理を示すフローチャートである。 Next, the operation of the imaging device will be described. FIG. 23 is a flowchart illustrating an imaging process in the imaging apparatus.
撮像モードに設定された状態の撮像装置の電源スイッチがオンされるか、または電源スイッチがオンされた後に撮像モードに設定されることにより、この処理が開始される。 This processing is started by turning on the power switch of the imaging apparatus in the imaging mode or by setting the imaging switch after the power switch is turned on.
まず、撮像素子22から画像を取り込んでライブビュー表示を実行する(ステップS1)。このライブビュー表示のときには、AE(自動露出制御)動作、AWB(オートホワイトバランス)動作、AF(オートフォーカス)動作がフレーム毎に(あるいは所定数のフレーム毎に)、繰り返して行われる。
First, an image is captured from the
そして、システムコントローラ30は、操作部32のレリーズボタンが半押しされたか否かを判定する(ステップS2)。
Then, the
ここで、レリーズボタンが半押しされるまでは、ステップS1へ戻ってライブビュー表示を引き続き行う。 Here, until the release button is pressed halfway, the process returns to step S1 to continue the live view display.
一方、レリーズボタンが半押しされたと判定された場合には、レリーズボタンが半押しされた時点の露出値、ホワイトバランス値、合焦距離を維持するために、AE動作、AWB動作、およびAF動作を停止(フリーズ)する(ステップS3)。このときには帯域制限フィルタ12は、撮像光学系9の光路上から退避した状態となるようにフィルタ駆動部17により駆動される。ただし、撮像に係るモード設定によっては(例えば、コンティニュアスAFが設定されている場合などには)、この限りではなく、レリーズボタン半押し後もこれらの動作が適宜行われることになる。
On the other hand, if it is determined that the release button is half-pressed, the AE operation, AWB operation, and AF operation are performed in order to maintain the exposure value, white balance value, and focus distance at the time when the release button is half-pressed. Is stopped (frozen) (step S3). At this time, the
その後、システムコントローラ30は、レリーズボタンが全押しされたか否かを判定する(ステップS4)。
Thereafter, the
レリーズボタンが全押しされていない場合にはステップS2の半押しの判定に戻り、全押しされている場合には、撮像素子22の全画素の画素信号を読み出す本撮像の動作が行われる(ステップS5)。
If the release button is not fully pressed, the process returns to the half-pressed determination in step S2, and if it is fully pressed, the main imaging operation for reading out the pixel signals of all the pixels of the
その後、撮像素子22から読み出された画像信号は、撮像回路23を経て画像処理部25により画像処理され(ステップS6)、表示部27に表示されると共に、記録媒体29に記録されて(ステップS7)、この処理が終了する。
Thereafter, the image signal read from the
次に、図24は図23の撮像処理において行われるAF動作の詳細を示すフローチャートである。 Next, FIG. 24 is a flowchart showing details of the AF operation performed in the imaging process of FIG.
AF動作を開始すると、システムコントローラ30が、距離演算の処理を行う(ステップS11)。なお、距離演算の処理については後で図26を参照して説明する。
When the AF operation is started, the
この距離演算により算出された被写体との距離情報に合焦するように、システムコントローラ30がレンズ駆動量を演算する(ステップS12)。
The
そして、システムコントローラ30は、レンズ制御部14およびレンズ駆動部16を介してレンズ10のフォーカスレンズを駆動し(ステップS13)、AF動作からリターンする。
Then, the
また、図25は図23の撮像処理において行われるAF動作の他の例を示すフローチャートである。 FIG. 25 is a flowchart showing another example of the AF operation performed in the imaging process of FIG.
この図25に示すAF動作の例は、上述した図24に示したAF動作の例の変形例であり、近年の撮像装置に一般的に備えられているAWBの機能を利用して、苦手被写体(狭帯域の被写体)を効率良く判定するようにしたものとなっている。 The example of the AF operation shown in FIG. 25 is a modification of the above-described example of the AF operation shown in FIG. 24, and uses the AWB function generally provided in recent imaging apparatuses to (Narrow band subject) is determined efficiently.
すなわち、ホワイトバランス調整部36は、撮像された画像に対して、RGB各色の強度を把握するための評価値を取得する。この評価値は、例えば、画像のAWB対象領域におけるRGB各色の平均値などであり、値が大きい方から順に、AWB1,AWB2,AWB3が得られたものとする。
That is, the white
この図25に示すAF動作においては、ホワイトバランス調整部36により得られたこれらの評価値に基づいて、AF方式を選択するようになっている。
In the AF operation shown in FIG. 25, the AF method is selected based on these evaluation values obtained by the white
すなわち、被写体が狭帯域(例えば、R色などの単色)となっている場合には、最も値が大きい評価値AWB1(被写体がR色の単色である場合には、R色の平均値として得られたAWB評価値)の値が、2番目の評価値AWB2および3番目の評価値AWB3に比して、特段に大きな値を示すはずである。 That is, when the subject has a narrow band (for example, a single color such as R color), the largest evaluation value AWB1 (or the average value of R color when the subject is a single color of R color) is obtained. The value of the obtained (AWB evaluation value) should be a particularly large value compared to the second evaluation value AWB2 and the third evaluation value AWB3.
そこで、この処理を開始すると、システムコントローラ30は、ホワイトバランス調整部36から評価値AWB1,AWB2を取得して、AWB1をAWB2で割った値が、所定の閾値Th1(例えば、5、あるいは10等の値)以上であるか否かを判定する(ステップS10)。この判定は、位相差量に基づく被写体距離の演算を行うのが適切であるか否かの判定となる。
Therefore, when this process is started, the
ここで、AWB1をAWB2で割った値が所定の閾値Th1未満であると判定された場合には、図24に示した処理と同様のステップS11〜S13の処理を行う。 Here, when it is determined that the value obtained by dividing AWB1 by AWB2 is less than the predetermined threshold Th1, the processes in steps S11 to S13 similar to the process shown in FIG. 24 are performed.
一方、AWB1をAWB2で割った値が所定の閾値Th1以上であると判定された場合(位相差量に基づく被写体距離の演算を行うのが不適切であると判定された場合)には、狭帯域の被写体である可能性が高いために、システムコントローラ30は、コントラストAF制御部39にコントラストAFを行わせる(ステップS14)。このときには、距離演算部37による被写体距離の演算は行われない。
On the other hand, when it is determined that the value obtained by dividing AWB1 by AWB2 is equal to or greater than a predetermined threshold Th1 (when it is determined that it is inappropriate to calculate the subject distance based on the phase difference amount), it is narrow. Since there is a high possibility that the subject is in the band, the
そして、ステップS13またはステップS14の処理が行われたところで、AF動作からリターンする。 Then, when the process of step S13 or step S14 is performed, the process returns from the AF operation.
なお、上述ではAWB評価値に基づいてRGBの内の何れか1色の強度のみが高いか否かを判定したが、AEが色情報を用いるAEである場合には、AE情報に基づいても構わないし、撮像装置が備えるその他の機能の中にRGBの色相関を求める機能がある場合には、その機能を利用しても良い。 In the above description, it is determined whether only one of the RGB colors is high based on the AWB evaluation value. However, if the AE is an AE that uses color information, it may be based on the AE information. Of course, if there is a function for obtaining RGB color correlation among other functions provided in the imaging apparatus, this function may be used.
また、ステップS10において所定の閾値Th1以上であると判定された場合に、図25に示す処理ではコントラストAFを行うようにしているが、評価値AWB1を与える色の色瞳重心位置を変更することができる場合(例えば、評価値AWB1を与える色がGである場合、本実施形態の構成では色瞳重心位置を変更することができないが、後述する変形例や幾つかの実施形態の構成には色瞳重心位置を変更可能なものもある)には、該色の画像を異なる色瞳重心位置において取得して位相差AFを行うようにしても構わない。 If it is determined in step S10 that the threshold value is equal to or greater than the predetermined threshold Th1, contrast AF is performed in the process shown in FIG. 25, but the color pupil centroid position of the color that gives the evaluation value AWB1 is changed. (For example, when the color giving the evaluation value AWB1 is G, the center of gravity of the color pupil cannot be changed with the configuration of the present embodiment, but there are modifications and configurations of some embodiments described later) In some cases, the color pupil centroid position can be changed), and the phase difference AF may be performed by acquiring the image of the color at a different color pupil centroid position.
続いて、図26は図24または図25のAF動作において行われる距離演算の処理を示すフローチャートである。 Next, FIG. 26 is a flowchart showing distance calculation processing performed in the AF operation of FIG. 24 or FIG.
距離演算の処理を開始すると、システムコントローラ30は、レンズ制御部14を介してフィルタ駆動部17を制御し、退避状態にあった帯域制限フィルタ12を撮像光学系9の光路上に挿入し、挿入状態(第1の状態)にする(ステップS21)。
When the distance calculation process is started, the
さらに、距離演算部37が、距離情報取得範囲、いわゆるAFエリアを設定する(ステップS22)。この距離情報取得範囲は、撮像装置に設定されている撮影モードに応じて設定されるようになっており、例えば、全画素領域となったり、画像処理部25により検出された注目被写体領域(例えば、顔検出により検出された顔、あるいは画面中央部など)となったり、ユーザにより所望に手動設定された領域となったりする。
Further, the
そして、撮像を行い、画像を取得する(ステップS23)。 And imaging is performed and an image is acquired (step S23).
そうすると距離演算部37が、設定された距離情報取得範囲における所定の2色(帯域制限フィルタ12が図3に示したような構成である場合には、所定の2色として予め設定されているのはRとB)の画像間で相関演算を行う(ステップS24)。この相関演算は、SAD方式やZNCC方式等の種々の方式により行うことが可能であるが、以下では例えばZNCC方式により行うものとして説明する。
Then, the
そして、色相関判定部38は、上記相関演算の結果に基づいて、所定の2色間に相関性があるか否かを判定する(ステップS25)。この相関性有無の判定は、例えば、図7や図11に示したようなZNCC方式の相関演算結果において、所定の閾値(例えば、0.7)以上の相関値が発見されたか否かにより判定することができる。
Then, the color
所定の2色間に相関性があると判定されたときには距離演算部37は、所定の2色に対する補正テーブルを選択する(ステップS26)。ここに、各色の色瞳重心位置は、絞り11の絞り値や、レンズ10の駆動状態、あるいは帯域制限フィルタ12の挿入状態に応じて変化する。そこで、距離演算部37は、このようなパラメータの組み合わせに対して変化する各色の色瞳重心位置に応じて補正を行うための補正値を記録したテーブルを予め備えている。従って、ここでは、各パラメータを取得してテーブル参照を行い、補正値を取得する。
When it is determined that there is a correlation between the two predetermined colors, the
そして、距離演算部37は、取得した補正値に基づき、取得した位相差量から被写体の距離情報(位相差AFを行う場合には、さらに、レンズ10のデフォーカス量)を取得する(ステップS27)。
Then, based on the acquired correction value, the
一方、ステップS25において、所定の2色間に相関性がないと判定された場合には、相関性がある色の組み合せを発見するために、色相関判定部38は、ステップS22において設定された距離情報取得範囲におけるRGB各色の平均値(平均値は画素加算値を画素数で割ったものであるために、画素加算値の算出が含まれる)を演算して、平均画素値が大きい上位2色を選択する(ステップS28)。ここに、上位2色の平均画素値を、値が大きい方から順にPV1,PV2とする。なお、値のオーバーフロー等がなければ、平均値に代えて画素加算値に基づき選択を行っても構わない。
On the other hand, if it is determined in step S25 that there is no correlation between the two predetermined colors, the color
そして、色相関判定部38は、選択した上位2色が、ステップS24において相関演算を行った所定の2色(上述した例ではRとB)以外であるか否かを判定する(ステップS29)。
Then, the color
ここで、所定の2色以外である(上述した例では、RとG、またはBとGである)と判定された場合には、色相関判定部38は、ステップS28において算出したPV1をPV2で割った値が、所定の閾値Th2(例えば、5等の値)以上であるか否かを判定する(ステップS30)。
Here, when it is determined that the colors are other than the predetermined two colors (in the above-described example, R and G, or B and G), the color
所定の閾値Th2未満であると判定された場合には、上位2色の画像間に相関性がある可能性があるために、これら上位2色の画像間で、上述したステップS24の処理と同様に相関演算を行う(ステップS31)。 If it is determined that it is less than the predetermined threshold Th2, there is a possibility that there is a correlation between the upper two color images, and therefore, the same processing as in step S24 described above is performed between these upper two color images. The correlation calculation is performed (step S31).
そして、色相関判定部38は、上位2色の画像間の相関演算の結果に基づいて、上位2色間に相関性があるか否かを上述したステップS25と同様に判定する(ステップS32)。
Then, the color
ここで、上位2色の画像間に相関性があると判定された場合には、上位2色の相関性に基づく位相差量ひいては距離情報の取得が可能であると考えられるために、距離演算部37は、上位2色に対する補正テーブルを選択する(ステップS33)。
Here, when it is determined that there is a correlation between the images of the upper two colors, it is considered that the phase difference amount based on the correlation of the upper two colors and thus the distance information can be acquired. The
そして、距離演算部37は、取得した補正値に基づき、取得した位相差量から被写体の距離情報(位相差AFを行う場合には、さらに、レンズ10のデフォーカス量)を取得する(ステップS34)。
Then, based on the acquired correction value, the
一方、ステップS30において所定の閾値Th2以上であると判定された場合(この場合には、上位2色の画像間に相関性がないと判定されたことになる)、またはステップS32において相関性がないと判定された場合には、最上位の平均画素値PV1を与える色がGであるか否かを判定する(ステップS35)。 On the other hand, if it is determined in step S30 that it is equal to or greater than the predetermined threshold Th2 (in this case, it is determined that there is no correlation between the upper two color images), or the correlation is determined in step S32. If it is determined that there is not, it is determined whether or not the color that gives the highest average pixel value PV1 is G (step S35).
ここで、最上位の平均画素値PV1を与える色がGであると判定された場合には、システムコントローラ30は、例えばフィルタ駆動部17により帯域制限フィルタ12を撮像光学系9の光路上から退避させてから、コントラストAF制御部39にコントラストAFを行わせる(ステップS36)。なおここでは、G色では色瞳重心位置を変更することができない場合(例えば上述したような、帯域制限フィルタ12を光軸周りに回転させる構成の場合)を想定して、PV1を与える色がGである場合にコントラストAFを行うようにしたが、G色であっても色瞳重心位置を変更することができる場合(後述する幾つかの変形例や実施形態で説明するような構成の場合)には、ステップS35およびステップS36の処理を行うことなくステップS37の処理へ進むようにしても構わない。
If it is determined that the color that gives the highest average pixel value PV1 is G, the
ステップS29において上位2色が所定の2色と同一であると判定された場合、またはステップS35において最上位の平均画素値PV1を与える色がGでないと判定された場合には、後で図27を参照して説明する瞳色時分割取得の処理を行う(ステップS37)。上述した例では、このステップS37の処理を行うのは、最上位の色がRまたはBの場合となる。 If it is determined in step S29 that the upper two colors are the same as the two predetermined colors, or if it is determined in step S35 that the color that gives the highest average pixel value PV1 is not G, FIG. The pupil color time-division acquisition process described with reference to FIG. 6 is performed (step S37). In the example described above, the process of step S37 is performed when the highest color is R or B.
こうして、ステップS27、ステップS34、ステップS36、またはステップS37の処理が行われて距離情報が取得されたところで、この処理からリターンする。 Thus, when the process of step S27, step S34, step S36, or step S37 is performed and the distance information is acquired, the process returns from this process.
図27は、図26の距離演算において行われる瞳色時分割取得の処理を示すフローチャートである。 FIG. 27 is a flowchart showing pupil color time division acquisition processing performed in the distance calculation of FIG.
この処理を開始すると、まず、上述したステップS28において算出された各色の平均画素値の内の、最上位の値を与える1色を選択する(ステップS41)。上述した例では、最上位の色としてRまたはBが選択される。ただし、別の例においてGの色瞳重心位置を変更可能である場合には、Gも最上位の色として選択され得る。 When this process is started, first, one color that gives the highest value among the average pixel values of the respective colors calculated in step S28 is selected (step S41). In the example described above, R or B is selected as the highest color. However, if the color pupil center of gravity position of G can be changed in another example, G can also be selected as the highest color.
次に、距離演算部37は、色瞳重心位置の切換条件(具体的には、帯域制限フィルタ12の回転角度など)を選択する(ステップS42)。ここでは、帯域制限フィルタ12を、上述したステップS21で設定された第1の状態とは異なる1以上の状態へ変更するための条件選択(あるいはさらに、第1の状態とは異なる状態から第1の状態へ再び戻すための条件選択)を行う。
Next, the
そして、選択された色瞳重心位置の切替条件に従って、瞳位置変更部が、色瞳重心位置を第nの状態(最初にこの処理に入るときには第2の状態)へ切り換える(ステップS43)。 Then, the pupil position changing unit switches the color pupil centroid position to the nth state (the second state when first entering this process) according to the selected color pupil centroid position switching condition (step S43).
その後、撮像を行い、画像を取得する(ステップS44)。なお、上述したステップS23の撮像を行うときから、このステップS44において撮像を行うまでは、上述した手振れ補正機構による手振れ補正が実行されていることが望ましい。 Thereafter, imaging is performed to acquire an image (step S44). In addition, it is desirable that the camera shake correction by the camera shake correction mechanism described above is performed from the time when the above-described imaging in step S23 is performed until the imaging is performed in step S44.
すると距離演算部37は、色瞳重心位置を変更する前に取得した最上位色の画像と、色瞳重心位置を変更した後に取得した最上位色の画像と、の間で相関演算を行う(ステップS45)。具体例として、被写体が上述した深紅のバラ等の狭帯域の被写体OBJrである場合には、ここでは、瞳重心位置変更前後に取得された2枚(あるいは2枚以上であっても構わない)のR色画像に基づき相関演算を行うことになる。
Then, the
なお、この相関演算を行うに際しては、例えば上記特開平11−258489号公報に記載されたような動き補正を行って、2枚の画像の撮像タイミングの相違に基づく被写体ズレを補正する処理を行うようにしても良い。 When performing this correlation calculation, for example, motion correction as described in the above-mentioned Japanese Patent Application Laid-Open No. 11-258889 is performed, and processing for correcting a subject shift based on a difference in imaging timing of two images is performed. You may do it.
距離演算部37は、瞳重心位置変更前後の帯域制限フィルタ12の状態や、絞り11、レンズ10の状態などに基づいて、上述したステップS26と同様に補正テーブルを選択する(ステップS46)。
The
そして、距離演算部37は、取得した補正値に基づき、取得した位相差量から被写体の距離情報(位相差AFを行う場合には、さらに、レンズ10のデフォーカス量)を取得する(ステップS47)。
Then, based on the acquired correction value, the
その後、色瞳重心位置をさらに切り換えるか否か(例えば、図16〜図21を参照して説明したように、第3の色瞳重心位置g3や第4の色瞳重心位置g4へさらに切り換えるか否か、あるいは、第2〜第4の色瞳重心位置g2〜g4から第1の色瞳重心位置g1へ再び切り換えるか否か)を判定して(ステップS48)、さらに切り換える場合にはステップS43へ行って上述したような処理を繰り返して行う。 Thereafter, whether or not to further switch the color pupil centroid position (for example, as described with reference to FIGS. 16 to 21, whether to further switch to the third color pupil centroid position g3 or the fourth color pupil centroid position g4) Whether or not to switch from the second to fourth color pupil barycentric positions g2 to g4 to the first color pupil barycentric position g1 again (step S48). And repeat the process as described above.
一方、色瞳重心位置の切換を終了すると判定された場合には、瞳色時分割取得からリターンする。 On the other hand, when it is determined that the switching of the color pupil center of gravity position is to be finished, the process returns from the pupil color time division acquisition.
なお、上述では撮像素子22が原色(RGB)のオンチップ素子フィルタを備えている例を説明したが、帯域制限を行うことができれば原色フィルタに限るものでなく、例えば補色系フィルタ(C(シアン)(GB)、M(マゼンタ)(RB)、Y(イエロー)(RG)、G(グリーン))を備えたものであっても構わない。この場合には、例えば帯域制限フィルタ12を、半円部分をG(グリーン)、他の半円部分をM(マゼンタ)(RB)となるように構成しておけば、被写体がほぼR光のみを発する狭帯域の被写体である場合に、Rを受光することができるM(マゼンタ)(RB)およびY(イエロー)(RG)の画素から得られた色瞳重心位置移動前後の複数の画像に基づき距離情報を演算することが可能である。
In the above description, the example in which the
このような実施形態1によれば、複数の帯域の画像同士に相関があるかないかを判定し、相関があると判定された場合には、1回の撮像画像から被写体までの距離を演算するようにしているために、位相差に基づく距離検出を高速に行うことができる。 According to the first embodiment, it is determined whether or not there is a correlation between images in a plurality of bands, and when it is determined that there is a correlation, the distance from one captured image to the subject is calculated. Therefore, distance detection based on the phase difference can be performed at high speed.
そして、相関がないと判定された場合には、色瞳重心位置を変更し、変更前後の少なくとも2枚の撮像画像から被写体までの距離を演算するようにしたために、例えば被写体が狭帯域である場合にも、位相差に基づく距離検出を行うことが可能となる。 When it is determined that there is no correlation, the center of gravity of the color pupil is changed, and the distance from the at least two captured images before and after the change to the subject is calculated. For example, the subject has a narrow band. Even in this case, distance detection based on the phase difference can be performed.
また、複数の帯域の画像同士に相関があるかないかを、測距エリアにおける帯域毎の画素加算値の内の、最も値が大きい第1の画素加算値を、2番目に値が大きい第2の画素加算値で割ったときの値が、所定の閾値以上であるか否かに基づき判定するようにしたために、所定の帯域の色成分だけが他の帯域の色成分よりも突出して大きいか否かを、簡便かつ精度良く判定することができる。 Further, whether or not there is a correlation between the images in a plurality of bands is determined by changing the first pixel addition value having the largest value among the pixel addition values for each band in the ranging area to the second value having the second largest value. Since the determination is based on whether or not the value obtained by dividing by the pixel addition value is greater than or equal to a predetermined threshold value, is only the color component of the predetermined band protrudingly larger than the color component of the other band? Whether or not can be determined easily and accurately.
撮像光学系9の光軸周りに帯域制限フィルタ12を回転して色瞳重心位置を変更するようにしたために、帯域制限フィルタ12を退避する場所を確保する必要がなく、レンズユニット1の小型化を図ることが可能となる。
Since the
さらに、位相差量に基づく被写体距離の演算を行うのが適切であるか否かを判定して、不適切であると判定したときには、コントラストAFを行うようにしたために、いわゆる苦手被写体があってもAFを行うことが可能となる。そして、位相差AFとコントラストAFとの内の、適切な方式を選択することができ、よりAFの信頼性を高めることができる。 Further, it is determined whether or not it is appropriate to calculate the subject distance based on the phase difference amount, and when it is determined that the calculation is inappropriate, there is a so-called poor subject because contrast AF is performed. Can also perform AF. An appropriate method of phase difference AF and contrast AF can be selected, and AF reliability can be further improved.
加えて、帯域毎のホワイトバランス評価値の内の、最も高いホワイトバランス評価値を、2番目に高いホワイトバランス評価値で割ったときの値が所定の閾値以上であるときに、位相差量に基づく被写体距離の演算が不適切であると判定するようにした場合には、一般的な撮像装置に既に設けられているホワイトバランス機能を有効に利用して、位相差量に基づく被写体距離の演算を無駄に行うのを未然に防止することができる。 In addition, when the value obtained by dividing the highest white balance evaluation value among the white balance evaluation values for each band by the second highest white balance evaluation value is equal to or greater than a predetermined threshold value, When it is determined that the subject distance calculation based on the calculation is inappropriate, the white balance function already provided in a general imaging device is used effectively to calculate the subject distance based on the phase difference amount. Can be prevented in advance.
上述した実施形態1では、帯域制限フィルタ12を駆動して色瞳重心位置の変更を行っていたが、帯域制限フィルタ12以外の部材によって帯域制限フィルタ12を部分的に遮光すれば、帯域制限フィルタ12が固定であっても色瞳重心位置を変更することが可能である。以下ではこのような実施形態や変形例を幾つか説明する。
[実施形態1の変形例]
In the first embodiment described above, the
[Modification of Embodiment 1]
図28から図30は本発明の実施形態1の変形例を示したものであり、図28は帯域制限フィルタ12が光路から退避しているときの様子を示す図であり、図29は帯域制限フィルタ12が光路内に挿入されているときの様子を示す図であり、図30は帯域制限フィルタ12が光路内に途中まで挿入されているときの様子を示す図である。
28 to 30 show modifications of the first embodiment of the present invention, FIG. 28 is a diagram showing a state when the
この実施形態1の変形例において、上述の実施形態1と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。 In the modified example of the first embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals, description thereof is omitted, and only different points will be mainly described.
本変形例は、帯域制限フィルタ12を光路中に挿入/退避させる構成を利用し、複数の色瞳重心位置の切換を実現する例となっている。
This modification is an example of realizing switching of a plurality of color pupil barycentric positions using a configuration in which the
まず、本変形例の撮像装置の構成は、上述した実施形態1の図1に示したものと基本的に同様である。 First, the configuration of the imaging apparatus of the present modification is basically the same as that shown in FIG. 1 of the first embodiment described above.
ただし、本変形例のフィルタ駆動部17は、上述したように、帯域制限フィルタ12の位置を変更することにより、帯域制限フィルタ12を撮像光学系9の光路上へ挿入しあるいは光路上から退避させる機構を備えているが、上述した実施形態1のような帯域制限フィルタ12を光軸周りに回転させる機構は備えていない。
However, as described above, the
そして、帯域制限フィルタ12は、基本的には、位相差に基づく測距を行うときに撮像光学系9の光路上へ挿入され、位相差に基づく測距を行わないときには光路上から退避される。
The
また、この変形例に示す帯域制限フィルタ12は、例えばドーナツ円板状をなす遮光フレーム12fに支持されていて、上述した実施形態1のようなギヤー12aは備えていない。
Further, the
そして、図28に示すように、帯域制限フィルタ12が撮像光学系9の絞り11の開口内に進入していない状態が退避状態となる。この状態においては、撮像素子22により撮像された画像に基づく位相差による距離情報の取得はできないが、ボケ部分の色ズレがない通常の静止画像や動画像を撮像することが可能である。
As shown in FIG. 28, the state where the
この図28に示す状態から、撮像光学系9の光軸に垂直な方向に帯域制限フィルタ12の位置を変更することにより、帯域制限フィルタ12が撮像光学系9の絞り11の開口内を通過する光の光路上へ進入する。
28, by changing the position of the
そして、図29に示すように、帯域制限フィルタ12の中心が光軸上に位置して、帯域制限フィルタ12が撮像光学系9の絞り11の開口内を完全に覆う状態が挿入状態となる。この状態においては、非合焦部分のR画像とB画像とに色ズレが生じ、位相差に基づく距離情報の取得が可能となる。ただし、上述したように狭帯域の被写体の場合には、1枚の画像のみからでは距離情報を取得することができないことがある。
Then, as shown in FIG. 29, the center of the
そこで、フィルタ駆動部17が瞳位置変更部として機能して帯域制限フィルタ12を所定の退避量だけ退避させ、図29とは色瞳重心位置を異ならせた状態を図30に示すように実現するようになっている。この図30に示す状態においては、帯域制限フィルタ12が撮像光学系9の絞り11の開口内を所定量だけ部分的に覆っている。そして、帯域制限フィルタ12と絞り11の開口とが重なっている部分以外は、遮光フレーム12fにより遮光されている。
Therefore, the
このとき、本変形例においては、距離演算部37がステップS42において選択する色瞳重心位置の切換条件は、帯域制限フィルタ12の挿入方向への駆動量(挿入量)などとなる。
At this time, in the present modification, the color pupil barycenter position switching condition selected by the
なお、帯域制限フィルタ12の挿入量を制御するためには、帯域制限フィルタ12を挿入するためのアクチュエータとして例えばステッピングモータを用いてそのパルス数をカウントしたり、あるいは挿入量を検出するためのセンサ等を別途に設けてセンサ出力に応じて制御したりする等の、一般的な技術を適宜利用すれば良い。
In order to control the insertion amount of the
また、図30には図28に示す退避状態と図29に示す挿入状態との中間状態を示しているが、さらに、図29に示す挿入状態よりもさらに挿入方向に移動させた過挿入状態を実現して、中間状態で撮像した画像と過挿入状態で撮像した画像とで相関演算を行うようにすれば、色瞳重心位置の変化量をより大きくすることができ、より精度の高い距離測定を行うことも可能となる。 30 shows an intermediate state between the retracted state shown in FIG. 28 and the inserted state shown in FIG. 29. Further, the over-inserted state moved further in the inserting direction than the inserted state shown in FIG. If realized and correlation calculation is performed between an image captured in an intermediate state and an image captured in an over-inserted state, the amount of change in the center of gravity of the color pupil can be increased, and distance measurement can be performed with higher accuracy. Can also be performed.
なお、この場合にも、受光する光量の違いに応じた信号補正を行うようにすることは、上述と同様である。また、G色についても透過領域の分布の変更や色瞳重心位置の移動を実現することが可能となる。 In this case, the signal correction corresponding to the difference in the amount of received light is the same as described above. Also for the G color, it is possible to change the distribution of the transmission region and move the color pupil center of gravity position.
このような実施形態1の変形例によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、撮像光学系9の光軸に垂直な方向に帯域制限フィルタ12の挿脱を行うフィルタ駆動部17を用いて、帯域制限フィルタ12の挿入位置を変更し色瞳重心位置を変更するようにしたために、帯域制限フィルタ12を配設する場合に設けることが望ましい(あるいは既に設けられている)挿入/退避機構を利用することになり、色瞳重心位置を切り換えるための専用の機構を不要としながら、狭帯域の被写体に対する位相差に基づく距離検出が可能となる。従って、専用の機構を設ける場合に比して、低コスト化、省スペース化を図ることが可能となる。
According to such a modification of the first embodiment, the filter drive that achieves substantially the same effect as the first embodiment described above and inserts / removes the
また、上述した実施形態1の構成では、帯域制限フィルタ12の全領域を透過するG色については色瞳重心位置を変更することが不可能であったが、本変形例の構成によれば、G色(より一般には、帯域制限フィルタ12内における色瞳重心位置に偏りがない色)についても色瞳重心位置を変更することが可能となる。このG色は輝度成分に近く、しかもベイヤー配列の場合には撮像素子22上にR色やB色の2倍の密度で画素が配列されているために、より精度の高い位相差情報を取得することができる利点がある。
Further, in the configuration of the first embodiment described above, it is impossible to change the color pupil barycentric position for the G color that passes through the entire region of the
さらに、帯域制限フィルタ12の位置を変更して色瞳重心位置を変更する場合には、後述する実施形態2のように絞り11を駆動して色瞳重心位置を変更する場合や、後述する実施形態3のようにレンズバリア20を駆動して色瞳重心位置を変更する場合に比して、絞り11やレンズバリア20の駆動状態とは無関係に独立して制御することができ、制御の自由度が高い利点がある。
[実施形態2]
Furthermore, when the position of the
[Embodiment 2]
図31から図34は本発明の実施形態2を示したものであり、図31は撮像装置の構成を示すブロック図であり、図32は絞り11の一構成例を示す図であり、図33は絞り11を駆動して第1の色瞳重心位置g1を実現している様子を示す図であり、図34は絞り11を駆動して第2の色瞳重心位置g2を実現している様子を示す図である。
FIGS. 31 to 34 show the second embodiment of the present invention, FIG. 31 is a block diagram showing the configuration of the imaging apparatus, FIG. 32 is a diagram showing a configuration example of the
この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。 In the second embodiment, parts that are the same as those in the first embodiment are given the same reference numerals and description thereof is omitted, and only differences are mainly described.
図31に示すように、本実施形態2の撮像装置は、上述した実施形態1の図1に示した構成から、フィルタ駆動部17を取り除いたものとなっている。そして、本実施形態では、複数枚で構成される絞り11を利用して、複数の色瞳重心位置の切換を実現する。
As illustrated in FIG. 31, the imaging apparatus according to the second embodiment is obtained by removing the
図32に示すように、絞り11は、2枚の絞り羽根11u,11dにより構成されている。絞り羽根11u,11dにはV字状の切欠がそれぞれ形成されていて、各切欠が例えば上下方向から対向するように配置されている。そして、対向するV字状の切欠の組み合わせにより形成される菱形状の開口を、絞り羽根11u,11dの移動量に応じて拡大、縮小することで、開口径の変更を行うようになっている。
As shown in FIG. 32, the
このような構成において、絞り駆動部18が瞳位置変更部として機能して、絞り11の一方の絞り羽根11dのみを撮影光束の光路内に進入させることにより、帯域制限フィルタ12における例えばR透過領域の分布が変更され、図33に示すように、第1の色瞳重心位置g1が実現される。
In such a configuration, the
また、絞り駆動部18が、絞り11の他方の絞り羽根11uのみを撮影光束の光路内に進入させることにより、帯域制限フィルタ12における例えばR透過領域の分布が変更され、図34に示すように、第2の色瞳重心位置g2が実現される。
Further, when the
なお、本実施形態においては、距離演算部37がステップS42において選択する色瞳重心位置の切換条件は、絞り羽根11u,11dのそれぞれの駆動量などとなる。
In the present embodiment, the color pupil center-of-gravity position switching condition selected by the
また、絞り11を開放しても異なる色瞳重心位置を実現することができるが、変更の前後における色瞳重心位置の移動量が大きい方が位相差検出の精度を高くすることができるため、ここでは2枚で構成される絞り11を一つずつ駆動して、第1の色瞳重心位置g1と第2の色瞳重心位置g2とを実現している。
Further, even if the
このような構成によれば、狭帯域でない通常の被写体の場合には、R成分とB成分との間で水平方向の位相差に基づく距離情報を取得することができると共に、狭帯域の被写体の場合には、絞り11を駆動することにより第1の色瞳重心位置g1と第2の色瞳重心位置g2に示すような垂直方向の位相差に基づく距離情報を取得することができる。
According to such a configuration, in the case of a normal subject that is not a narrow band, distance information based on the phase difference in the horizontal direction can be acquired between the R component and the B component, and the subject of the narrow band subject can be acquired. In this case, by driving the
さらに、狭帯域でない通常の被写体の場合であっても、被写体のパターンによっては、水平方向の位相差に基づく距離情報を取得できない場合がある。このような場合でも、色瞳重心位置を垂直方向に変更すれば、垂直方向の位相差に基づく距離情報を取得することができるために、いわゆるクロスセンサと同様の効果を奏することができ、距離情報の取得が可能になる利点がある。従って、色瞳重心位置の変更は、被写体が狭帯域である場合に行うに限るものではない。 Furthermore, even in the case of a normal subject that is not a narrow band, depending on the subject pattern, distance information based on the phase difference in the horizontal direction may not be acquired. Even in such a case, if the center of gravity position of the color pupil is changed to the vertical direction, distance information based on the phase difference in the vertical direction can be acquired, so that the same effect as a so-called cross sensor can be obtained. There is an advantage that information can be obtained. Therefore, the change of the color pupil centroid position is not limited to the case where the subject is in a narrow band.
また、図33および図34に示す例においては、絞り羽根11u,11dの移動方向は上下方向となっているために、第1の色瞳重心位置g1と第2の色瞳重心位置g2の変化方向は上下方向となっているが、異なる方向に移動する絞り羽根を用いれば、異なる方向への色瞳重心位置の変化も実現することができる。
In the examples shown in FIGS. 33 and 34, the movement directions of the
このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、絞りを駆動制御して色瞳重心位置を変更しているために、一般的な撮像装置に既に設けられている機構を利用することができ、専用の機構を追加する必要がなくなって、撮像装置の小型化や低価格化を図ることができる。 According to the second embodiment, the same effect as that of the first embodiment described above can be obtained, and the position of the center of gravity of the color pupil is changed by driving and controlling the diaphragm. Therefore, it is not necessary to add a dedicated mechanism, and the imaging apparatus can be reduced in size and price.
そして、本実施形態2の構成によっても、G色の色瞳重心位置を変更することが可能となる利点がある。 The configuration of the second embodiment also has an advantage that the G color pupil center of gravity position can be changed.
さらに、クロスセンサと同様の機能を果たすことが可能となり、距離情報の取得精度を向上することができる。
[実施形態2の変形例]
Furthermore, the same function as that of the cross sensor can be achieved, and the distance information acquisition accuracy can be improved.
[Modification of Embodiment 2]
図35および図36は本発明の実施形態2の変形例を示したものであり、図35は絞り11を開放して第1の色瞳重心位置g1を実現している様子を示す図であり、図36は絞り11を絞って第2の色瞳重心位置g2を実現している様子を示す図である。
FIGS. 35 and 36 show a modification of the second embodiment of the present invention, and FIG. 35 is a diagram showing a state in which the
この実施形態2の変形例において、上述の実施形態2と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。 In the modified example of the second embodiment, the same parts as those of the above-described second embodiment are denoted by the same reference numerals, description thereof is omitted, and only different points will be mainly described.
本変形例は、絞り11の開口径の変化を利用して複数の色瞳重心位置の切換を実現する例となっている。そして、本変形例の撮像装置の構成は、上述した実施形態2の図31に示したものと基本的に同様である。なお、図35および図36には、絞り11が理想的な円形絞りである場合を図示しているが、円形絞りでなくても勿論構わない。
This modification is an example in which switching of a plurality of color pupil barycentric positions is realized by using a change in the aperture diameter of the
図35に示すように絞り11を開放したとき(例えば、絞り値F2としたとき)の第1の色瞳重心位置g1と、図36に示すように絞り11を絞ったとき(例えば、絞り値F8としたとき)の第2の色瞳重心位置g2とは、変化量は比較的小さいものの、一般に異なる位置となる。つまり、絞り駆動部18は、瞳位置変更部として機能する。
As shown in FIG. 35, the first color pupil center of gravity position g1 when the
このとき、本変形例においては、距離演算部37がステップS42において選択する色瞳重心位置の切換条件は、絞り11の絞り値などとなる。
At this time, in the present modification, the color pupil barycentric position switching condition selected by the
従って、単に絞り11の絞り値を変更するだけでも、色瞳重心位置の変更を行うことが可能である。ただし、この場合に、撮像素子22が受ける光量が異なるために、色瞳重心位置変更の前後で取得された画像の信号増幅量を異ならせて、同一光量を受けたときの画像に相当するように補正するのは勿論である。
Therefore, it is possible to change the color pupil center of gravity position simply by changing the aperture value of the
このような実施形態2の変形例によれば、上述した実施形態2とほぼ同様の効果を奏するとともに、色瞳重心位置を変更するための特別な構成が不要になるだけでなく、特定の絞り羽根のみを駆動するといったような特別な駆動法を用いることも不要となる利点がある。
[実施形態3]
According to such a modification of the second embodiment, the same effect as that of the second embodiment described above can be obtained, and a special configuration for changing the position of the center of gravity of the color pupil is not necessary. There is an advantage that it is not necessary to use a special driving method such as driving only the blades.
[Embodiment 3]
図37から図39は本発明の実施形態3を示したものであり、図37は撮像装置の構成を示すブロック図であり、図38はレンズバリア20を駆動して第1の色瞳重心位置g1を実現している様子を示す図であり、図39はレンズバリア20を駆動して第2の色瞳重心位置g2を実現している様子を示す図である。
FIGS. 37 to 39 show the third embodiment of the present invention, FIG. 37 is a block diagram showing the configuration of the imaging apparatus, and FIG. 38 shows the first color pupil center of gravity position by driving the
この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。 In the third embodiment, parts that are the same as those in the first and second embodiments are given the same reference numerals, description thereof is omitted, and only differences are mainly described.
本実施形態3の撮像装置は、図37に示すように、上述した実施形態1の図1に示した構成からフィルタ駆動部17を取り除き、レンズバリア20と、バリア駆動部19と、を新たな構成として追加したものとなっている。
As shown in FIG. 37, the imaging apparatus of the third embodiment removes the
レンズ制御部14は、実施形態1で上述した制御に追加して、さらに、バリア駆動部19を制御するようになっている。
In addition to the control described above in the first embodiment, the
バリア駆動部19は、レンズ制御部14の制御に基づき、電動によりレンズバリア20の開閉を行うものである。
The barrier driving unit 19 is configured to open and close the
レンズバリア20は、撮像光学系9の光路上前方に配設されていて、バリア駆動部19によって駆動されることにより、撮像光学系9を遮光する保護状態と、撮像光学系9を開放する撮影状態と、撮像光学系9の一部を遮光し他の一部を開放する測距用状態と、を取り得る保護部材である。
The
すなわち、本実施形態は、レンズバリア20を利用して複数の色瞳重心位置の切換を実現するものとなっている。
That is, in the present embodiment, switching of a plurality of color pupil barycentric positions is realized using the
具体例としては、レンズバリア20は、2枚の遮光板20u,20dにより構成されている。ここに、遮光板20uは撮像光学系9の前方を一方側(例えば上側)から覆い、遮光板20dは撮像光学系9の前方を他方側(例えば下側)から覆うものとなっている。
As a specific example, the
そして、遮光板20u,20dの両方が撮像光学系9を遮光に覆うことにより、保護状態が実現される。
The
また、遮光板20u,20dの両方が撮像光学系9へ入射する光の光路上から退避することにより、撮影状態が実現される。
Further, the imaging state is realized by retreating both the
さらに、バリア駆動部19は、瞳位置変更部として機能して、保護部材であるレンズバリア20に、上述した保護状態および撮影状態だけでなく、さらに、撮像光学系9の一部を遮光し他の一部を開放する測距用状態を取らせることにより、色瞳重心位置を変更するものとなっている。この測距用状態は、典型例としては、2枚の遮光板20u,20dの何れか一方のみが撮像光学系9を遮光に覆うことにより実現される(ただし、この典型例に限るものでないことは勿論である)。図38に示すように、遮光板20dのみが撮像光学系9を遮光に覆うことにより、第1の色瞳重心位置g1が実現される。また、図39に示すように、遮光板20uのみが撮像光学系9を遮光に覆うことにより、第2の色瞳重心位置g2が実現される。
Furthermore, the barrier drive unit 19 functions as a pupil position changing unit, and not only protects and captures the above-described protection state and imaging state, but also shields a part of the imaging
このとき、本実施形態においては、距離演算部37がステップS42において選択する色瞳重心位置の切換条件は、遮光板20u,20dのそれぞれの駆動量などとなる。
At this time, in the present embodiment, the color pupil barycenter position switching condition selected by the
なお、撮影状態における色瞳重心位置も、図38に示す第1の色瞳重心位置g1や図39に示す第2の色瞳重心位置g2とは異なるが、変更の前後における色瞳重心位置の移動量が大きい方が位相差検出の精度を高くすることができるために、何れか一方の遮光板20u,20dにより撮像光学系9を覆うことで、2つの色瞳重心位置を実現している。
The color pupil barycentric position in the shooting state is also different from the first color pupil barycentric position g1 shown in FIG. 38 and the second color pupil barycentric position g2 shown in FIG. Since the greater the amount of movement, the higher the accuracy of phase difference detection, the two optical pupil centroid positions are realized by covering the imaging
さらに、図38および図39に示す例においては、遮光板20u,20dの移動方向は上下方向となっているために、第1の色瞳重心位置g1と第2の色瞳重心位置g2の変化方向は上下方向となっているが、異なる方向に移動する遮光板を用いれば、異なる方向への色瞳重心位置の変化も実現することができる。
Further, in the example shown in FIGS. 38 and 39, the movement direction of the
このような実施形態3によれば、上述した実施形態1,2とほぼ同様の効果を奏するとともに、レンズバリア20に撮像光学系9の一部を遮光し他の一部を開放する測距用状態をとらせることにより色瞳重心位置を変更するようにしたために、一般的な撮像装置に既に設けられている機構を利用することができ、専用の機構を追加する必要がなく、撮像装置の小型化や低価格化を図ることができる。
According to the third embodiment, the same effects as those of the first and second embodiments described above are obtained, and a part of the imaging
また、本実施形態3の構成によっても、G色の色瞳重心位置を変更することが可能となる利点がある。 Also, the configuration of the third embodiment has an advantage that the G color pupil center of gravity position can be changed.
なお、上述においては、特定の帯域の光が撮像光学系9の瞳領域を通過する際の重心を変更する構成について、幾つかの実施形態や変形例を説明したが、これらに限るものではない。
In the above description, some embodiments and modifications have been described for the configuration of changing the center of gravity when light in a specific band passes through the pupil region of the imaging
例えば、上述では、絞り11とレンズバリア20との何れか一方を利用する例を示したが、これらの両方を利用するようにしても良い。
For example, in the above description, an example in which one of the
あるいは、帯域制限フィルタ12として、複数のセグメントに分割された色選択透過素子を用いる構成が考えられる。ここに、色選択透過素子は、色(波長)に対応して偏光透過軸を回転可能な部材と、例えばLCDのような偏光透過軸の回転する/しないを選択制御可能な部材と、を複数組み合わせることにより実現された、色分布を変更可能な素子である。この色選択透過素子は、具体例としては、西暦2000年4月にSID2000において「SID ’00 Digest, Vol. 31, p. 92」として開示されたようなカラーリンク社のカラースイッチが挙げられる。
Or the structure using the color selective transmission element divided | segmented into the several segment as the band-limiting
そして、色選択透過素子を左右のセグメントに分割し、左のセグメントにG成分およびR成分を通過させB成分を遮断するRG状態をとらせ、右のセグメントにG成分およびB成分を通過させR成分を遮断するGB状態をとらせることにより、図3の光学フィルタと同様の構成を実現することができる。そして、これとは逆に、左のセグメントにGB状態をとらせ、右のセグメントにRG状態をとらせることにより、異なる色瞳重心位置を実現することができる。 Then, the color selective transmission element is divided into left and right segments, the left segment passes through the G and R components and the B component is blocked, and the right segment passes through the G and B components. By adopting a GB state in which components are blocked, the same configuration as the optical filter of FIG. 3 can be realized. On the contrary, different color pupil barycentric positions can be realized by causing the left segment to take the GB state and the right segment to take the RG state.
さらに、近年の撮像装置内に標準的に設けられている機構、例えば、手振れ補正機構や撮像素子22の前面側に付着するゴミを除去する機構、光路上に挿脱可能に設けられている各種のフィルタなどを用いて、帯域制限フィルタ12における帯域毎の透過領域の分布の変更や透過光の色瞳重心位置の移動を実現するようにしても良い。
Furthermore, a mechanism that is provided as a standard in recent imaging apparatuses, such as a camera shake correction mechanism, a mechanism that removes dust adhering to the front side of the
このように、色瞳重心位置を変更する手段は特定の技術に限られるものではなく、種々の技術を広く適用することが可能である。 Thus, the means for changing the color pupil center of gravity position is not limited to a specific technique, and various techniques can be widely applied.
なお、上述では主として距離測定装置を備えた撮像装置について説明したが、上述したような処理を行う距離測定方法、上述したような処理を行うための距離測定プログラム、該距離測定プログラムを記録するコンピュータにより読み取り可能な記録媒体、等であっても構わない。 In the above description, the imaging apparatus including the distance measuring device has been mainly described. However, the distance measuring method for performing the above-described processing, the distance measuring program for performing the above-described processing, and the computer that records the distance measuring program. It may be a recording medium readable by the above.
また、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。 Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.
[付記]
以上詳述したような本発明の上記実施形態によれば、以下のごとき構成を得ることができる。
[Appendix]
According to the above-described embodiment of the present invention described in detail above, the following configuration can be obtained.
(1) 1回の撮像により、複数の波長の帯域の光をそれぞれ受光して光電変換し、複数の帯域の画像を生成するカラーの撮像素子と、
撮影光束による被写体像を、瞳領域を経て前記撮像素子に結像する撮像光学系と、
前記撮影光束の光路上に配設されていて、前記複数の帯域の光が前記瞳領域をそれぞれ通過する際の光量の各重心の内の、少なくとも1つの重心の位置を、他の少なくとも1つの重心の位置とは異ならせる帯域制限フィルタと、
前記撮像素子から得られた複数の画像の位相差量に基づき被写体までの距離を演算する距離演算部と、
前記複数の帯域の内の、前記重心の位置が異なる帯域の画像同士の間の何れかに相関があるか否かを判定する色相関判定部と、
前記複数の帯域の内の、ある1つの帯域の重心である第1の重心の位置を少なくとも変更する色瞳重心位置変更部と、
前記色相関判定部により相関があると判定されたときには、前記撮像素子に1回の撮像を行わせて得られた該相関があると判定された複数の画像に基づき前記距離演算部に被写体までの距離を演算させ、相関がないと判定されたときには、前記色瞳重心位置変更部に前記第1の重心の位置を変更させ、該第1の重心位置の変更前後に前記撮像素子に1回ずつの撮像を行わせて得られた2枚の前記ある1つの帯域の画像に基づき前記距離演算部に被写体までの距離を演算させるように制御する制御部と、
を具備したことを特徴とする距離測定装置。
(1) A color imaging element that receives light in a plurality of wavelength bands and photoelectrically converts each of the light in a plurality of wavelengths by one imaging, and generates an image in a plurality of bands;
An imaging optical system that forms an image of a subject by a photographic light beam on the imaging element through a pupil region;
The position of at least one of the centroids of the centroids of the amount of light when the light beams of the plurality of bands pass through the pupil regions are arranged on the optical path of the photographing light flux, and at least one other centroid position. A band limiting filter that is different from the position of the center of gravity;
A distance calculation unit that calculates the distance to the subject based on the phase difference amounts of a plurality of images obtained from the image sensor;
A color correlation determination unit that determines whether or not there is a correlation between images in bands of different positions of the center of gravity among the plurality of bands;
A color pupil centroid position changing unit that changes at least a position of a first centroid that is a centroid of one of the plurality of bands;
When it is determined that there is a correlation by the color correlation determination unit, the distance calculation unit is informed to the subject based on a plurality of images determined to have the correlation obtained by causing the image sensor to perform one imaging. When the color pupil barycentric position changing unit changes the position of the first barycentric position, and once before and after the change of the first barycentric position, the distance is calculated. A control unit that controls the distance calculation unit to calculate the distance to the subject based on the two images of the one band obtained by performing each imaging;
A distance measuring device comprising:
(2) 前記第1の重心の位置は、前記撮像光学系の光軸中心から偏心した位置であることを特徴とする付記(1)に記載の距離測定装置。 (2) The distance measuring device according to (1), wherein the position of the first gravity center is a position decentered from the optical axis center of the imaging optical system.
1…レンズユニット
2…ボディユニット
9…撮像光学系
10…レンズ(フォーカスレンズを含む)
11…絞り
11u,11d…絞り羽根
12…帯域制限フィルタ
12a…ギヤー
12b…GBフィルタ
12r…RGフィルタ
12f…遮光フレーム
14…レンズ制御部
15…レンズ側通信コネクタ
16…レンズ駆動部
17…フィルタ駆動部(瞳位置変更部)
17a…モータ
17b…回転軸
17c…ウォームギヤー
18…絞り駆動部(瞳位置変更部)
19…バリア駆動部(瞳位置変更部)
20…レンズバリア(保護部材)
20u,20d…遮光板
21…シャッタ
22…撮像素子(カラーの撮像素子)
23…撮像回路
24…撮像駆動部
25…画像処理部
26…画像メモリ
27…表示部
28…インターフェース(IF)
29…記録媒体
30…システムコントローラ(制御部)
31…センサ部
32…操作部
33…ストロボ制御回路
34…ストロボ
35…ボディ側通信コネクタ
36…ホワイトバランス調整部
37…距離演算部
38…色相関判定部
39…コントラストAF制御部
DESCRIPTION OF
DESCRIPTION OF
17a ... Motor 17b ... Rotating
19: Barrier driving unit (pupil position changing unit)
20 ... Lens barrier (protective member)
20u, 20d ...
DESCRIPTION OF
29 ... Recording
DESCRIPTION OF
Claims (11)
前記光を前記撮像素子に対して結像させる撮像光学系と、
前記光が前記撮像光学系の瞳領域を通過する際に、前記帯域を少なくとも2つに分割する帯域制限フィルタと、
前記撮像素子から得られた画像から、分割された前記帯域毎の重心位置を測定し、該重心位置の位相差量に基づき被写体までの距離を演算する距離演算部と、
分割された前記帯域毎の重心位置が異なる帯域の画像同士間の何れかに相関があるか否かを判定する色相関判定部と、
前記重心位置を変更する瞳位置変更部と、
前記色相関判定部により相関があると判定された場合、前記撮像素子による1回の撮像画像から前記距離演算部に被写体までの距離を演算させ、相関がないと判定された場合、前記瞳位置変更部に前記重心位置を変更させ、前記撮像素子による前記重心位置の変更前と変更後との少なくとも2回の撮像画像から、前記距離演算部に被写体までの距離を演算させる制御部と、
を具備したことを特徴とする距離測定装置。 An image sensor that receives light, performs photoelectric conversion, and generates a color image of a plurality of bands;
An imaging optical system that forms an image of the light on the imaging device;
A band limiting filter that divides the band into at least two when the light passes through a pupil region of the imaging optical system;
A distance calculation unit that measures the position of the center of gravity for each of the divided bands from the image obtained from the image sensor, and calculates the distance to the subject based on the phase difference amount of the center of gravity position;
A color correlation determination unit that determines whether or not there is a correlation between images of different bands having different center-of-gravity positions for each of the bands;
A pupil position changing unit for changing the position of the center of gravity;
When the color correlation determination unit determines that there is a correlation, the distance calculation unit calculates the distance from the single image captured by the image sensor to the subject, and when it is determined that there is no correlation, the pupil position A control unit that causes the change unit to change the position of the center of gravity, and causes the distance calculation unit to calculate a distance to the subject from at least two captured images before and after the change of the center of gravity position by the imaging device;
A distance measuring device comprising:
前記色相関判定部は、前記測距エリアにおける画素加算値を、前記重心位置が異なる帯域の画像のそれぞれに対して算出して、算出された内の最も値が大きい第1の画素加算値を、2番目に値が大きい第2の画素加算値で割ったときの値が、所定の閾値以上であるときに、前記重心位置が異なる帯域の画像同士の何れの間にも相関がないと判定する
ことを特徴とする請求項1に記載の距離測定装置。 The distance calculation unit calculates a distance to a subject based on a phase difference amount of ranging areas in the plurality of images.
The color correlation determination unit calculates a pixel addition value in the ranging area for each of the images in the bands having different centroid positions, and calculates a first pixel addition value having the largest value among the calculated values. When a value obtained by dividing by the second pixel addition value having the second largest value is equal to or greater than a predetermined threshold value, it is determined that there is no correlation between images in bands having different centroid positions. The distance measuring device according to claim 1, wherein:
前記瞳位置変更部は、前記絞りを駆動制御することにより、前記重心位置を変更する
ことを特徴とする請求項2に記載の距離測定装置。 The imaging optical system has a diaphragm for changing the pupil region,
The distance measuring device according to claim 2, wherein the pupil position changing unit changes the position of the center of gravity by driving and controlling the diaphragm.
ことを特徴とする請求項2に記載の距離測定装置。 The distance measuring device according to claim 2, wherein the pupil position changing unit changes the position of the center of gravity by changing a position of the band limiting filter.
ことを特徴とする請求項4に記載の距離測定装置。 The pupil position changing unit is capable of changing a position of the band limiting filter in a direction perpendicular to the optical axis of the imaging optical system, and changing the insertion position of the band limiting filter to change the position of the center of gravity. The distance measuring device according to claim 4, wherein the distance measuring device is changed.
ことを特徴とする請求項4に記載の距離測定装置。 The pupil position changing unit is capable of rotating the band limiting filter around the optical axis, and changing the position of the center of gravity by changing a rotation position of the band limiting filter. 4. The distance measuring device according to 4.
前記瞳位置変更部は、前記保護部材に前記測距用状態をとらせることにより、前記重心位置を変更する
ことを特徴とする請求項4に記載の距離測定装置。 A protection state in which the imaging optical system is shielded from light, a shooting state in which the imaging optical system is opened, a part of the imaging optical system, and a part of the imaging optical system being shielded. Further comprising a protective member capable of taking the distance measurement state to be opened,
The distance measuring device according to claim 4, wherein the pupil position changing unit changes the position of the center of gravity by causing the protection member to take the state for distance measurement.
前記撮像素子から得られた画像に基づき前記フォーカスレンズを駆動してコントラストオートフォーカスを行うコントラストオートフォーカス制御部をさらに具備し、
前記制御部は、前記距離演算部による位相差量に基づく被写体距離の演算を行うのに適切であるか否かを判定し、不適切であると判定したときには、該距離演算部による被写体距離の演算を行うことなく、前記コントラストオートフォーカス制御部によるコントラストオートフォーカスを行わせるように制御する
ことを特徴とする請求項1から請求項7までの何れか一項に記載の距離測定装置。 The imaging optical system includes a focus lens for focus adjustment,
A contrast autofocus control unit that performs contrast autofocus by driving the focus lens based on an image obtained from the image sensor;
The control unit determines whether or not it is appropriate to calculate the subject distance based on the phase difference amount by the distance calculation unit, and when it is determined to be inappropriate, the control unit determines the subject distance by the distance calculation unit. The distance measuring device according to any one of claims 1 to 7, wherein control is performed so that contrast autofocus is performed by the contrast autofocus control unit without performing calculation.
前記制御部は、最も高いホワイトバランス評価値である第1のホワイトバランス評価値を2番目に高いホワイトバランス評価値である第2のホワイトバランス評価値で割ったときの値が所定の閾値以上であるときに、前記距離演算部による被写体距離の演算を行うには不適切であると判定する
ことを特徴とする請求項8に記載の距離測定装置。 A white balance adjustment unit that adjusts the white balance based on the white balance evaluation value of the image obtained from the image sensor;
The control unit is configured such that a value obtained by dividing the first white balance evaluation value that is the highest white balance evaluation value by the second white balance evaluation value that is the second highest white balance evaluation value is a predetermined threshold value or more. 9. The distance measuring device according to claim 8, wherein the distance measuring device determines that the distance calculating unit is inappropriate for calculating a subject distance.
前記光を光電変換して、複数帯域の色画像を生成し、
前記色画像から分割された前記帯域毎の重心位置を測定し、
分割された前記帯域毎の重心位置が異なる帯域の画像同士の間の何れかに相関があるか否かを判定し、
相関があると判定された場合、1回の撮像画像から得られた前記重心位置の位相差量に基づき被写体までの距離を演算し、相関がないと判定された場合、前記重心位置を変更し、前記重心位置の変更前と変更後との少なくとも2回の撮像画像から得られた前記重心位置の位相差量に基づき被写体までの距離を演算する
ことを特徴とする距離測定方法。 Split the light into at least two bands,
Photoelectrically converting the light to generate a multi-band color image;
Measure the center of gravity position for each of the bands divided from the color image,
It is determined whether there is a correlation between any of the images of the bands having different centroid positions for each of the divided bands,
When it is determined that there is a correlation, the distance to the subject is calculated based on the phase difference amount of the barycentric position obtained from one captured image, and when it is determined that there is no correlation, the barycentric position is changed. A distance measuring method comprising: calculating a distance to a subject based on a phase difference amount of the centroid position obtained from at least two captured images before and after the change of the centroid position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011195414A JP2013057761A (en) | 2011-09-07 | 2011-09-07 | Distance measuring device, imaging device, and distance measuring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011195414A JP2013057761A (en) | 2011-09-07 | 2011-09-07 | Distance measuring device, imaging device, and distance measuring method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013057761A true JP2013057761A (en) | 2013-03-28 |
Family
ID=48133702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011195414A Withdrawn JP2013057761A (en) | 2011-09-07 | 2011-09-07 | Distance measuring device, imaging device, and distance measuring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013057761A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014203639A1 (en) * | 2013-06-21 | 2014-12-24 | オリンパス株式会社 | Image capture device, image processing device, image capture method, and image processing method |
WO2014208178A1 (en) * | 2013-06-26 | 2014-12-31 | オリンパス株式会社 | Image pickup device and image pickup method |
JP2017220780A (en) * | 2016-06-07 | 2017-12-14 | 株式会社東芝 | Imaging apparatus and vehicle |
CN108076266A (en) * | 2016-11-11 | 2018-05-25 | 株式会社东芝 | Processing unit and photographic device |
JP2018084802A (en) * | 2016-11-11 | 2018-05-31 | 株式会社東芝 | Imaging device, imaging system, and distance information acquisition method |
US10145994B2 (en) | 2014-11-28 | 2018-12-04 | Kabushiki Kaisha Toshiba | Lens device and image capturing device for acquiring distance information at high accuracy |
DE112020005346T5 (en) | 2019-10-30 | 2022-08-11 | Fujifilm Corporation | OPTICAL ELEMENT, OPTICAL DEVICE AND IMAGING DEVICE |
WO2022264576A1 (en) * | 2021-06-15 | 2022-12-22 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device and distance measurement method |
-
2011
- 2011-09-07 JP JP2011195414A patent/JP2013057761A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015005921A (en) * | 2013-06-21 | 2015-01-08 | オリンパス株式会社 | Imaging device, image processing device, imaging method and image processing method |
WO2014203639A1 (en) * | 2013-06-21 | 2014-12-24 | オリンパス株式会社 | Image capture device, image processing device, image capture method, and image processing method |
EP3015892A4 (en) * | 2013-06-26 | 2017-01-25 | Olympus Corporation | Image pickup device and image pickup method |
JP2015011058A (en) * | 2013-06-26 | 2015-01-19 | オリンパス株式会社 | Imaging device and imaging method |
CN105359024A (en) * | 2013-06-26 | 2016-02-24 | 奥林巴斯株式会社 | Image pickup device and image pickup method |
US9525856B2 (en) | 2013-06-26 | 2016-12-20 | Olympus Corporation | Imaging device and imaging method |
WO2014208178A1 (en) * | 2013-06-26 | 2014-12-31 | オリンパス株式会社 | Image pickup device and image pickup method |
US10145994B2 (en) | 2014-11-28 | 2018-12-04 | Kabushiki Kaisha Toshiba | Lens device and image capturing device for acquiring distance information at high accuracy |
JP2017220780A (en) * | 2016-06-07 | 2017-12-14 | 株式会社東芝 | Imaging apparatus and vehicle |
CN108076266A (en) * | 2016-11-11 | 2018-05-25 | 株式会社东芝 | Processing unit and photographic device |
CN108076267A (en) * | 2016-11-11 | 2018-05-25 | 株式会社东芝 | Photographic device, camera system and range information acquisition methods |
JP2018084802A (en) * | 2016-11-11 | 2018-05-31 | 株式会社東芝 | Imaging device, imaging system, and distance information acquisition method |
DE112020005346T5 (en) | 2019-10-30 | 2022-08-11 | Fujifilm Corporation | OPTICAL ELEMENT, OPTICAL DEVICE AND IMAGING DEVICE |
US11796722B2 (en) | 2019-10-30 | 2023-10-24 | Fujifilm Corporation | Optical element, optical device, and imaging apparatus for acquiring multispectral images |
WO2022264576A1 (en) * | 2021-06-15 | 2022-12-22 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device and distance measurement method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8203645B2 (en) | Image-pickup apparatus and control method thereof with image generation based on a detected spatial frequency | |
JP5901246B2 (en) | Imaging device | |
JP2013057761A (en) | Distance measuring device, imaging device, and distance measuring method | |
US9578231B2 (en) | Image capture apparatus and method for controlling the same | |
JP5947601B2 (en) | FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE | |
US8902349B2 (en) | Image pickup apparatus | |
JP2009244862A (en) | Focus detection device and imaging apparatus having the same | |
JP2014178603A (en) | Imaging device | |
JP2010271670A (en) | Imaging apparatus | |
JP2016038414A (en) | Focus detection device, control method thereof, and imaging apparatus | |
JP2014222291A (en) | Imaging apparatus and control method thereof | |
JP2013003159A (en) | Imaging apparatus | |
US11159710B2 (en) | Lowpass filter control apparatus, lowpass filter control method, and imaging apparatus | |
JP4997043B2 (en) | Imaging apparatus, method and program | |
JP2013050691A (en) | Imaging apparatus | |
JP2013113857A (en) | Imaging device, and control method therefor | |
JP2013160991A (en) | Imaging apparatus | |
JP2007225897A (en) | Focusing position determination device and method | |
JP6482247B2 (en) | FOCUS ADJUSTMENT DEVICE, IMAGING DEVICE, FOCUS ADJUSTMENT DEVICE CONTROL METHOD, AND PROGRAM | |
JP2017188633A (en) | Imaging device and imaging apparatus | |
JP5858683B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2007248698A (en) | Method and apparatus for imaging | |
JP2014142497A (en) | Imaging apparatus and method for controlling the same | |
KR20170015158A (en) | Control apparatus, image pickup apparatus, and control method | |
JP2010134291A (en) | Image capturing apparatus and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141202 |