JP2013097154A - Distance measurement device, imaging apparatus, and distance measurement method - Google Patents
Distance measurement device, imaging apparatus, and distance measurement method Download PDFInfo
- Publication number
- JP2013097154A JP2013097154A JP2011239361A JP2011239361A JP2013097154A JP 2013097154 A JP2013097154 A JP 2013097154A JP 2011239361 A JP2011239361 A JP 2011239361A JP 2011239361 A JP2011239361 A JP 2011239361A JP 2013097154 A JP2013097154 A JP 2013097154A
- Authority
- JP
- Japan
- Prior art keywords
- phase difference
- image
- color
- unit
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮像素子から得られた画像に基づき距離情報を取得し得る距離測定装置、撮像装置、距離測定方法に関する。 The present invention relates to a distance measuring device, an imaging device, and a distance measuring method that can acquire distance information based on an image obtained from an image sensor.
距離情報は、自動焦点調節(AF:オートフォーカス)機構によるAF処理を行うためや、立体視用画像を作成するため、あるいは画像処理(例えば、被写体抽出処理や背景抽出処理、あるいはボケ量コントロールの画像加工処理)を行うためなど、撮像装置における様々な機能を実現するのに利用可能である。 The distance information is used for AF processing by an automatic focus adjustment (AF) mechanism, for creating a stereoscopic image, or for image processing (for example, subject extraction processing, background extraction processing, or blur amount control). The present invention can be used to realize various functions in the imaging apparatus, such as for performing image processing.
このような距離情報を取得する方法は、従来より種々のものが提案されており、例えば、照明光を照射し被写体からの反射光を受光して測距を行うアクティブ測距方式や、基線長を設けて配置した複数の撮像装置(例えばステレオカメラ)の取得画像から三角測距の原理により測距を行う方式、あるいは撮像装置自体により取得した画像のコントラストが高くなるようにフォーカスレンズを駆動するコントラストAF方式など、様々な方式が提案されている。 Various methods for obtaining such distance information have been proposed. For example, an active distance measurement method in which illumination light is irradiated and reflected light from a subject is received to perform distance measurement, or a baseline length. The focus lens is driven so as to increase the contrast of images acquired by a plurality of image pickup devices (for example, stereo cameras) arranged in accordance with the principle of triangulation, or the image acquired by the image pickup device itself. Various methods such as a contrast AF method have been proposed.
しかし、アクティブ測距方式は測距用投光装置などの測距専用の部材が必要であり、また、三角測距方式では複数の撮像装置が必要であるために、撮像装置が大型化したりコストが上昇したりする要因となる。一方、コントラストAF方式は、撮像装置自体により取得した画像を利用するために、測距専用部材等は不要であるが、フォーカスレンズの位置を変化させながら複数回の撮像を行ってコントラスト値のピークを探す方式であるために、合焦位置に対応するピークを探すのに時間を要し、高速のAFを行うことが困難である。 However, the active distance measurement method requires a dedicated member for distance measurement such as a light projection device for distance measurement, and the triangular distance measurement method requires a plurality of image pickup devices. Will increase. On the other hand, since the contrast AF method uses an image acquired by the imaging apparatus itself, a dedicated distance measuring member or the like is not required. However, the contrast value peak is obtained by performing multiple imaging while changing the position of the focus lens. Therefore, it takes time to search for a peak corresponding to the in-focus position, and it is difficult to perform high-speed AF.
このような背景の下、大型化やコストの上昇を抑えながら距離情報を取得する技術として、レンズの瞳を通過する光束を複数に分割して受光し、レンズ内の一瞳領域を通過した光束から得られた画素信号と、レンズ内の一瞳領域とは異なる他の瞳領域を通過した光束から得られた画素信号と、の間で相関演算を行うことにより、被写体までの距離情報を取得する技術が提案されている。このような瞳分割画像を同時に取得する技術としては、例えば、距離検出用の画素上に遮光板(マスク)を配置する技術がある。 Under such a background, as a technology to acquire distance information while suppressing an increase in size and cost, a light beam that passes through the pupil of the lens is divided into a plurality of light beams, and a light beam that passes through one pupil region in the lens The distance information to the subject is obtained by performing a correlation calculation between the pixel signal obtained from the pixel signal and the pixel signal obtained from the light beam that has passed through another pupil region different from the one pupil region in the lens. Techniques to do this have been proposed. As a technique for simultaneously acquiring such pupil division images, for example, there is a technique for disposing a light shielding plate (mask) on a pixel for distance detection.
また、瞳分割を遮光板(マスク)によることなく行う技術として、例えば特開2001−174696号公報には、部分瞳毎に異なる分光特性を持たせた瞳色分割用フィルタ(例えば、RG透過フィルタおよびGB透過フィルタ)を撮影光学系に介在させ、撮影光学系からの被写体像をカラー撮像素子により受光することで、色による瞳分割を行う技術が記載されている。すなわち、カラー撮像素子から出力される画像信号を色分離して、各色画像(上記例では、例えばR画像とB画像)上の同一被写体間の相対的なズレ量を検知することにより、合焦位置から近距離側にずれているのか遠距離側にずれているのかのフォーカシングズレ方向と、その方向への合焦位置からのズレ量であるフォーカシングズレ量と、の2つのフォーカシング情報が取得される。 As a technique for performing pupil division without using a light shielding plate (mask), for example, Japanese Patent Laid-Open No. 2001-174696 discloses a pupil color division filter (for example, an RG transmission filter) having different spectral characteristics for each partial pupil. And a GB transmission filter) are interposed in the photographic optical system, and a subject image from the photographic optical system is received by a color image pickup device, thereby dividing the pupil by color. That is, the image signal output from the color image sensor is color-separated, and the relative shift amount between the same subjects on each color image (for example, R image and B image in the above example) is detected, thereby focusing. Two pieces of focusing information are acquired: the focusing shift direction indicating whether the position is shifted to the near distance side or the far distance side, and the focusing shift amount which is a shift amount from the in-focus position in that direction. The
さらに、レンズの色収差を利用してレンズの移動方向を決定する技術が開示されている。例えば、特開平10−200904号公報の従来の技術欄には、RGB各色成分が均等な被写体の場合、レンズ位置が合焦位置よりも至近側であればR色の高周波成分が最も高くなり、レンズ位置が合焦位置よりも無限遠側であればB色の高周波成分が最も高くなることを利用して、各色の高周波成分を比較した結果に基づき、レンズ位置が合焦位置よりも至近側であるか無限遠側であるかを判定してレンズの駆動方向を決定することにより、逆方向への駆動を排除して合焦速度の高速化を図る技術が記載されている。 Furthermore, a technique for determining the moving direction of the lens using the chromatic aberration of the lens is disclosed. For example, in the conventional technique column of Japanese Patent Laid-Open No. 10-200904, in the case where the RGB color components are equal subjects, the high-frequency component of the R color is the highest if the lens position is closer to the in-focus position, Based on the result of comparing the high-frequency components of each color using the fact that the high-frequency component of B color is the highest if the lens position is at infinity from the focus position, the lens position is closer to the focus position A technique is described in which the lens driving direction is determined by determining whether the lens is on the infinity side or not, thereby eliminating the driving in the reverse direction and increasing the focusing speed.
しかしながら、上記特開2001−174696号公報に記載の技術では、被写体の位相差演算領域内に、例えばR,G成分しか存在しないとき(B成分がほぼ0であるとき)には、B成分の画素値を取得することができないために、R成分とB成分との間の位相差演算を行うことができない。 However, in the technique described in Japanese Patent Laid-Open No. 2001-174696, for example, when only the R and G components exist in the phase difference calculation area of the subject (when the B component is almost 0), the B component Since the pixel value cannot be acquired, the phase difference calculation between the R component and the B component cannot be performed.
また、上記特開平10−200904号公報に記載の技術では、RGB各色成分が均等でない被写体の場合には駆動方向を正確に推定することができない。さらに、レンズ交換式の撮像装置においては、装着されるレンズによっては色収差が小さいレンズもあるために、この場合には高周波成分の差が生じ難くなり、距離情報を正確に取得することが困難となる。 Also, with the technique described in Japanese Patent Laid-Open No. 10-200904, the driving direction cannot be accurately estimated in the case of a subject in which the RGB color components are not uniform. Furthermore, in an interchangeable lens imaging device, there are lenses with small chromatic aberration depending on the lens to be mounted, and in this case, a difference in high-frequency components hardly occurs, and it is difficult to obtain distance information accurately. Become.
本発明は上記事情に鑑みてなされたものであり、撮像素子から得られた画像に基づいて、より信頼性の高い距離情報を取得することができる距離測定装置、撮像装置、距離測定方法を提供することを目的としている。 The present invention has been made in view of the above circumstances, and provides a distance measuring device, an imaging device, and a distance measuring method capable of acquiring more reliable distance information based on an image obtained from an imaging element. The purpose is to do.
上記の目的を達成するために、本発明の一態様による距離測定装置は、3つ以上の波長帯域の光をそれぞれ受光して光電変換し、該波長帯域毎の色画像を生成する撮像素子と、前記波長帯域の光を、前記撮像素子に被写体像として結像する撮像光学系と、前記撮像光学系の瞳領域をそれぞれ通過する際の光量の重心位置を、3つ以上に異ならせる帯域制限フィルタと、前記撮像素子から得られた複数の前記色画像の、前記重心位置の相違に起因する位相差量に基づき被写体までの距離を演算する位相差演算部と、前記撮像素子から得られた前記色画像が、前記位相差演算部が演算に用いる色画像として適しているか否かを判定する位相差適合判定部と、前記位相差適合判定部により適していると判定された色画像の数が3つ以上である場合に、前記位相差演算部に、該3つ以上の色画像の中から選択した2つの色画像の組み合わせの相関値、または該3つ以上の色画像のうち、2つの色画像の全ての組み合わせの相関値に基づき、前記被写体までの距離を演算させる位相差演算制御部と、を具備する。 In order to achieve the above object, a distance measuring device according to an aspect of the present invention includes an imaging device that receives light in three or more wavelength bands, performs photoelectric conversion, and generates a color image for each wavelength band. A band limit that varies the center of gravity of the amount of light when passing through the pupil region of the imaging optical system and the imaging optical system that forms light of the wavelength band as a subject image on the imaging device. A filter, a phase difference calculation unit that calculates a distance to a subject based on a phase difference amount caused by a difference in the position of the center of gravity of the plurality of color images obtained from the image sensor, and obtained from the image sensor A phase difference suitability determining unit that determines whether or not the color image is suitable as a color image used by the phase difference computing unit for calculation, and the number of color images determined to be suitable by the phase difference suitability determining unit When there are 3 or more In the phase difference calculation unit, a correlation value of a combination of two color images selected from the three or more color images, or a correlation of all combinations of two color images among the three or more color images And a phase difference calculation control unit that calculates a distance to the subject based on the value.
また、本発明の他の態様による撮像装置は、上記一態様による距離測定装置を具備する。 An imaging device according to another aspect of the present invention includes the distance measuring device according to the above aspect.
本発明のさらに他の態様による距離測定方法は、光を、瞳領域を通過する際の光量の重心位置を3つ以上に異ならせて3つ以上の波長帯域の光に分割し、分割された前記波長帯域毎の光を被写体像として結像し、前記波長帯域毎の光をそれぞれ受光して光電変換し、該波長帯域毎の色画像を生成し、前記色画像が位相差演算に用いる色画像として適しているか否かを判定し、前記位相差演算に適していると判定された前記色画像の数が3つ以上である場合に、該3つ以上の色画像の中から選択した2つの色画像の組み合わせの相関値、または該3つ以上の色画像のうち、2つの色画像の全ての組み合わせの相関値に基づき、被写体までの距離を演算する、方法である。
In the distance measuring method according to still another aspect of the present invention, the light is divided into light of three or more wavelength bands by changing the center of gravity of the amount of light when passing through the pupil region to three or more. The light for each wavelength band is formed as a subject image, the light for each wavelength band is received and photoelectrically converted to generate a color image for each wavelength band, and the color image is used for
本発明の距離測定装置、撮像装置、距離測定方法によれば、撮像素子から得られた画像に基づいて、より信頼性の高い距離情報を取得することが可能となる。 According to the distance measuring device, the imaging device, and the distance measuring method of the present invention, it is possible to acquire more reliable distance information based on the image obtained from the imaging element.
以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]
図1から図21は本発明の実施形態1を示したものであり、図1は撮像装置の構成を示すブロック図である。
FIG. 1 to FIG. 21
本実施形態の距離測定装置を備えた撮像装置は、例えばデジタルスチルカメラとして構成されている。ただし、ここではデジタルスチルカメラを例に挙げているが、撮像装置は、カラー撮像素子を備え撮像機能を有する装置であればどのようなものでも良く、幾つかの例を挙げれば、上述したデジタルスチルカメラ、ビデオカメラ、カメラ付携帯電話、カメラ付携帯情報端末(カメラ付PDA)、カメラ付パーソナルコンピュータ、監視カメラ、内視鏡、デジタル顕微鏡(デジタルマイクロスコープ)、測距機能付き双眼鏡などである。 An imaging device including the distance measuring device according to the present embodiment is configured as a digital still camera, for example. However, here, a digital still camera is taken as an example, but the imaging device may be any device as long as it has a color imaging element and has an imaging function. Still cameras, video cameras, mobile phones with cameras, personal digital assistants with cameras (PDAs with cameras), personal computers with cameras, surveillance cameras, endoscopes, digital microscopes (digital microscopes), binoculars with ranging functions, etc. .
撮像装置は、レンズユニット1と、このレンズユニット1がレンズマウントを介して着脱自在に取り付けられる本体部であるボディユニット2と、を備えている。なお、ここではレンズユニット1が着脱式である場合を例に挙げて説明するが、勿論、着脱式でなくても構わない。
The imaging apparatus includes a
レンズユニット1は、レンズ10と絞り11とを含む撮像光学系9と、帯域制限フィルタ12と、レンズ制御部14と、レンズ側通信コネクタ15と、を備えている。
The
ボディユニット2は、シャッタ21と、撮像素子22と、撮像回路23と、撮像駆動部24と、画像処理部25と、画像メモリ26と、表示部27と、インターフェース(IF)28と、システムコントローラ30と、センサ部31と、操作部32と、ストロボ制御回路33と、ストロボ34と、ボディ側通信コネクタ35と、を備えている。なお、図1のボディユニット2内には記録媒体29も記載されているが、この記録媒体29は撮像装置に対して着脱自在な例えばメモリカード(スマートメディア、SDカード、xDピクチャーカード等)で構成されているために、撮像装置に固有の構成でなくても構わない。
The
まず、レンズユニット1における撮像光学系9は、被写体像を撮像素子22に結像するためのものである。この撮像光学系9のレンズ10は、焦点調節を行うためのフォーカスレンズを備えて構成されている。レンズ10は、一般的には複数枚のレンズで構成されることが多いが、図1においては簡単のために1枚のレンズのみを図示している。
First, the imaging
撮像光学系9の絞り11は、レンズ10を通過する被写体光束の通過範囲を規制することにより、撮像素子22上に結像される被写体像の明るさを調節するためのものである。この絞り11の絞り開口径を変更すると、撮像光学系9の瞳領域も変更される。
The
帯域制限フィルタ12は、撮像光学系9を経て撮像素子22に至る撮影光束の光路上(望ましくは、撮像光学系9の絞り11の位置またはその近傍)に配設されており、3つ以上の帯域の光が撮像光学系9の瞳領域をそれぞれ通過する際の光量の重心位置を、3つ以上に異ならせるものである。本実施形態における帯域制限フィルタ12は、撮像光学系9の瞳領域の一部である第1の領域を通過しようとする撮影光束中の第1の帯域(ここに、帯域は波長帯域を示す。以下同様。)の光を遮断し第2の帯域および第3の帯域の光を通過させる第1の帯域制限と、撮像光学系9の瞳領域の他の一部である第2の領域を通過しようとする撮影光束中の第2の帯域の光を遮断し第1の帯域および第3の帯域の光を通過させる第2の帯域制限と、を行うフィルタとなっている。
The
図4は帯域制限フィルタ12の一構成例を説明するための図である。この図4に示す構成例の帯域制限フィルタ12は、撮像光学系9の瞳領域が、第1の領域と第2の領域とに2分されたものとなっている。すなわち、帯域制限フィルタ12は、撮像装置を標準姿勢(いわゆる、カメラを通常の横位置に構えた姿勢)として撮像素子22から見たときに、左半分がG(緑)成分およびR(赤)成分を通過させB(青)成分を遮断する(すなわち、B(青)成分は第1の帯域と第2の帯域との内の一方の帯域である)RGフィルタ12r、右半分がG成分およびB成分を通過させR成分を遮断する(すなわち、R成分は第1の帯域と第2の帯域との内の他方の帯域である)GBフィルタ12bになっている。従って、帯域制限フィルタ12は、撮像光学系9の絞り11の開口を通過する光に含まれるG成分を全領域において通過させ(すなわち、G成分は第3の帯域である)、R成分を開口の半分の領域だけ通過させ、B成分を開口の残り半分の領域だけ通過させる。
FIG. 4 is a diagram for explaining a configuration example of the
このように帯域制限フィルタ12は、例えば通過させる光の帯域(色)によって撮像光学系9の瞳領域における通過領域を制限することにより、帯域制限フィルタ12により分割された各帯域の光が撮像光学系9の瞳領域を通過する際の光量の重心位置(色瞳重心位置)を、帯域(色)毎に異ならせるものである。
As described above, the
図5は、レンズ10の瞳領域を通過する際のRGB各色の重心位置を示す図である。
FIG. 5 is a diagram illustrating the barycentric positions of the RGB colors when passing through the pupil region of the
Gが瞳領域を通過する際の光量の重心位置Pgは、レンズ10の瞳領域の中央であり、撮像光学系9の光軸中心に一致する。また、Rが瞳領域を通過する際の光量の重心位置Prは、撮像光学系9の光軸中心から偏心して図5の左側にずれた位置となっている。さらに、Bが瞳領域を通過する際の光量の重心位置Pbは、撮像光学系9の光軸中心から偏心して図5の右側にずれた位置となっている。このような位置関係において、Rの重心位置PrとBの重心位置Pbとの重心距離はDrb、Rの重心位置PrとGの重心位置Pgとの重心距離はDrg、Gの重心位置PgとBの重心位置Pbとの重心距離はDgbである。このとき、重心距離Drbは、重心距離Drgおよび重心距離Dgbの、例えば2倍となる(ただし、これは図4に示すような帯域制限フィルタ12の場合であり、フィルタ構成が異なれば、その構成に応じて異なる値となる)。
The center of gravity Pg of the light amount when G passes through the pupil region is the center of the pupil region of the
なお、帯域制限フィルタ12のRGB各分光透過特性が、撮像素子22に例えばオンチップで構成されている素子フィルタ(図3参照)のRGB各分光透過特性と異なると、RGフィルタ12rとGBフィルタ12bの空間位置の相違に基づいて得られる画像から後述するように取得する位置情報の精度が低下したり、分光特性のミスマッチによる光量ロスが発生したりすることになる。従って、帯域制限フィルタ12の分光透過特性は、撮像素子22の素子フィルタの分光透過特性と、同一または可能な限り近似していることが望ましい。
If the RGB spectral transmission characteristics of the
レンズ制御部14は、レンズユニット1の制御を行うものである。すなわち、レンズ制御部14は、レンズ側通信コネクタ15およびボディ側通信コネクタ35を介してシステムコントローラ30から受信した指令に基づき、絞り11を駆動して絞り開口径を変更し、レンズ10を駆動して合焦させる制御を行う。
The
レンズ側通信コネクタ15は、レンズユニット1とボディユニット2とがレンズマウントにより結合されてボディ側通信コネクタ35と接続されることにより、レンズ制御部14とシステムコントローラ30との間の通信を可能にするコネクタである。
The lens-
次に、ボディユニット2におけるシャッタ21は、レンズ10から撮像素子22に到達する被写体光束の通過時間を規制することにより、撮像素子22の露光時間を調節するための光学シャッタである。なお、ここでは光学シャッタを用いているが、光学シャッタに代えて、または光学シャッタに加えて、撮像素子22による素子シャッタ(電子シャッタ)を用いるようにしても構わない。
Next, the
撮像素子22は、帯域制限フィルタ12を介して撮像光学系9により結像される3つ以上の波長帯域の光(例えば、RGBが挙げられるが、これに限るものではない)に係る被写体像をそれぞれ受光して光電変換し、帯域毎の画像(以下では適宜、色画像という)を生成するカラーの撮像素子であり、例えば、CCDやCMOS等として構成されている。ここに、カラー撮像素子の構成としては、オンチップの素子カラーフィルタを備えた単板の撮像素子でも良いし、RGB各色光への色分解を行うダイクロイックプリズムを用いた3板式であっても良いし、同一の画素位置で半導体の深さ方向位置に応じてRGBの撮像情報を取得可能な方式の撮像素子であっても良いし、複数の波長帯光の撮像情報を取得可能であればどのようなものでも構わない。
The
例えば、図3を参照して、一般的なデジタルスチルカメラに用いられることが多い単板のカラー撮像素子の構成例を説明する。ここに、図3は撮像素子22の画素配列を説明するための図である。本実施形態においては、オンチップで搭載される素子カラーフィルタが透過する複数の波長帯光はR、G、およびBとなっており、この図3に示すように、原色ベイヤー配列の単板カラー撮像素子が構成されている。従って、撮像素子22がこの図3に示したような構成である場合には、1画素に付き1色の色成分のみが得られることになるために、画像処理部25においてデモザイキング処理を行い1画素につきRGBの3色が揃ったカラー画像を生成するようになっている。
For example, with reference to FIG. 3, a configuration example of a single-plate color image sensor often used in a general digital still camera will be described. FIG. 3 is a diagram for explaining the pixel arrangement of the
撮像回路23は、撮像素子22から出力される画像信号を増幅(ゲイン調整)したり、また、撮像素子22がアナログ撮像素子であってアナログの画像信号を出力する場合には、A/D変換してデジタル画像信号(以下では「画像情報」ともいう)を生成するものである(撮像素子22がデジタル撮像素子である場合には、撮像回路23に入力される時点で既にデジタルとなっているためにA/D変換は行わない)。撮像回路23は、撮像駆動部24で切り換えられた撮像モードに対応するフォーマットで、画像信号を画像処理部25へ出力する。
The
撮像駆動部24は、システムコントローラ30の指令に基づいて、撮像素子22および撮像回路23にタイミング信号および電力を供給して、撮像素子に露光、読出、素子シャッタ等を行わせるとともに、撮像素子22の動作に同期させて撮像回路23によるゲイン調整およびA/D変換を実行させるように制御するものである。また、この撮像駆動部24は、撮像素子22の撮像モードを切り換える制御も行う。
The
画像処理部25は、各種のデジタル画像処理を行うものである。画像処理部25は、例えば、黒レベルの補正、ホワイトバランス調整、γ補正、欠陥画素の補正、デモザイキング、画像情報の色情報の変換処理、画像情報の画素数変換処理、等を行う。さらに、画像処理部25は、色間補正部36と、色画像生成部37と、を含んで構成されている。
The
上述した帯域制限フィルタ12は、通過させる光の帯域(色)に応じて撮像光学系9の瞳領域における通過領域を制限しているために、通過する光は、帯域によって瞳通過領域面積が異なることになり、ひいては明るさが異なることになる(図4に示した構成の場合、G光は瞳領域全体を通過するが、R光およびB光は瞳領域の半分のみを通過するために、R画像およびB画像は、G画像の例えば半分の明るさとなる)。色間補正部36は、このような帯域間(色間)の明るさの違いを補正するためのものである。
Since the
また、図4に示したような帯域制限フィルタ12を用いた場合には、非合焦部分においてR画像とB画像とに空間的な位置ズレが発生することになる(後述する図7〜図12参照)。色画像生成部37は、このような空間的な位置ズレを補正して、色ズレのない平面画像を生成するカラー化処理を行うものである。
Further, when the
画像メモリ26は、高速な書き込みや読み出しが可能なメモリであり、例えばSDRAM(Synchronous Dynamic Random Access Memory)により構成されていて、画像処理用のワークエリアとして使用されるとともに、システムコントローラ30のワークエリアとしても使用される。例えば、画像メモリ26は、画像処理部25により処理された最終的な画像を記憶するだけでなく、画像処理部25による複数の処理過程における各中間画像も適宜記憶する。
The
表示部27は、LCD等を有して構成されていて、画像処理部25により表示用に処理された画像(記録媒体29から読み出されて画像処理部25により表示用に処理された画像も含む)を表示するものである。具体的には、この表示部27は、ライブビュー画像の表示、静止画像記録時の確認表示、記録媒体29から読み出した静止画像または動画像の再生表示、等を行う。
The
インターフェース(IF)28は、記録媒体29を着脱可能に接続するものであり、記録媒体29へ記録する情報の伝達、および記録媒体29から読み出した情報の伝達を行う。
The interface (IF) 28 is detachably connected to the
記録媒体29は、画像処理部25により記録用に処理された画像や、該画像に関連する各種データを記録するものであり、上述したように例えばメモリカード等として構成されている。
The
センサ部31は、例えば、撮像装置のブレを検出するための加速度センサ等で構成される手振れセンサ、撮像素子22の温度を測定するための温度センサ、撮像装置周辺の明るさを測定するための明るさセンサ、等を含んでいる。このセンサ部31による検出結果はシステムコントローラ30に入力される。ここに、手振れセンサによる検出結果は撮像素子22やレンズ10を駆動して手振れ補正を行ったり、画像処理による手振れ補正を行ったりするために用いられる。また、温度センサによる検出結果は撮像駆動部24による駆動クロックの制御や撮像素子22から得られる画像中のノイズ量を推定するのに用いられる。さらに、明るさセンサによる検出結果は、例えば、周囲の明るさに応じて表示部27の輝度を適正に制御するために用いられる。
The
操作部32は、撮像装置の電源をオン/オフするための電源スイッチ、静止画像や動画像等の撮像動作を指示入力するための2段式の押圧ボタンでなるレリーズボタン、撮像モード等を変更するためのモードボタン、選択項目や数値などを変更するのに用いられる十字キー、等を含んでいる。この操作部32の操作により発生した信号は、システムコントローラ30に入力される。
The
ストロボ制御回路33は、システムコントローラ30の指令に基づいて、ストロボ34の発光量や発光タイミングを制御するものである。
The
ストロボ34は、ストロボ制御回路33の制御により、被写体へ照明光を照射する発光源である。
The
ボディ側通信コネクタ35は、上述したように、レンズユニット1とボディユニット2とがレンズマウントにより結合されてレンズ側通信コネクタ15と接続されることにより、レンズ制御部14とシステムコントローラ30との間の通信を可能にするコネクタである。
As described above, the body
システムコントローラ30は、このボディユニット2の制御を行うとともに、レンズ制御部14を介してレンズユニット1の制御も行うものであり、この撮像装置を統合的に制御する制御部である。このシステムコントローラ30は、図示しないフラッシュメモリ等の不揮発性メモリから撮像装置の基本制御プログラムを読み出して、操作部32からの入力に応じて、撮像装置全体を制御するようになっている。
The
例えば、システムコントローラ30は、レンズ制御部14を介してレンズユニット1内の各部を制御したり、シャッタ21を制御して駆動したり、センサ部31の加速度センサによる検出結果に基づいて図示しない手振れ補正機構を制御駆動して手振れ補正を行ったり、等を行う。さらに、システムコントローラ30は、操作部32のモードボタンからの入力に応じて、撮像装置のモード設定(静止画像を撮像するための静止画モード、動画像を撮像するための動画モード等の設定)を行うものとなっている。
For example, the
さらに、システムコントローラ30は、AF(オートフォーカス:自動焦点調節)制御部38と、距離演算部39とを備えている。
Furthermore, the
距離演算部39は、位相差AF部42と、コントラストAF部43とを備えている。
The
位相差AF部42は、位相差演算部として機能し、撮像素子22から得られた画像における、色瞳重心位置が異なる3つ以上の帯域の画像(3つ以上の色画像)の内の少なくとも2つの色画像に基づき、位相差量を演算し、ひいては被写体までの距離を演算するものである。具体的には、位相差AF部42は、瞳領域をそれぞれ通過する際の光量の重心位置の相違に起因して発生する複数の色画像の位相差量、すなわち、R画像とB画像との位相差量、R画像とG画像との位相差量、B画像とG画像との位相差量の内の少なくとも1つを演算し、演算した位相差量に基づき、被写体までの距離情報を演算するようになっている。
The phase
ここに、図4に示した帯域制限フィルタ12の例は、RGBの3つの帯域の光を、色瞳重心位置を全て異ならせて通過させるものであった。しかし、帯域制限フィルタ12は、4つ、またはそれ以上の帯域の光を通過させるフィルタであっても構わないし、通過させる帯域の光の色瞳重心位置が全て異ならなければならないものでもない。例えば、帯域制限フィルタ12が、R、G1、G2、Bの4つの帯域の光を通過させるフィルタであって、G1とG2の色瞳重心位置が同一であっても構わない(色瞳重心位置が異なる帯域が3つ以上あれば良い)。そして、色瞳重心位置が同一となる帯域については、何れの帯域の色画像を位相差検出に用いるかを予め定めておくか、あるいは各色画像のヒストグラム等に基づいて、何れを位相差検出に用いるかを決定しておくものとする。例えば、G1とG2の内の、G1を位相差検出に用いる場合には、R、G1、Bの色瞳重心位置が独立していることになり、独立した色瞳重心位置の数は3である。このような独立した色瞳重心位置の数が、一般にmaxN(maxNは3以上の整数)であるものとして、以下において参照する。
Here, in the example of the
この位相差AF部42により得られた距離情報は、例えばオートフォーカス(AF)に利用され、システムコントローラ30が距離情報に基づきレンズユニット1を制御して位相差AFを行う(勿論、距離情報の利用対象はAFに限るものではなく、ボケ量コントロールや、立体視画像の生成等に用いても構わない)。
The distance information obtained by the phase
コントラストAF部43は、撮像素子22から得られた画像に基づきフォーカスレンズを駆動してコントラストAFを行うものである。より詳しくは、コントラストAF部43は、画像処理部25から出力される画像信号(この画像信号は、輝度成分を含む割合が高いG画像であっても良いし、上述したカラー化処理により色ズレが補正された画像に係る輝度信号画像であっても構わない)からコントラスト値(AF評価値ともいう)を生成し、レンズ制御部14を介してレンズ10内のフォーカスレンズを制御するものである。すなわち、コントラストAF部43は、画像信号にフィルタ、例えばハイパスフィルタを作用させて高周波成分を抽出し、コントラスト値とする。そして、コントラストAF部43は、フォーカスレンズ位置を異ならせてコントラスト値を取得し、コントラスト値が大きくなる方向へフォーカスレンズを移動させて、さらにコントラスト値を取得する。このような処理を繰り返して行うことにより、最大のコントラスト値が得られるフォーカスレンズ位置(合焦位置)へフォーカスレンズを駆動するように制御するものである。
The
AF制御部38は、位相差演算制御部であって、撮像素子22から得られた画像に基づき距離演算部39を制御して、上述した位相差AF部42とコントラストAF部43との少なくとも一方を用いた距離演算を実行させるものである。
The
このAF制御部38は、位相差適合判定部41を備えている。この位相差適合判定部41は、撮像素子22から得られた上述した色瞳重心位置が異なる複数の帯域の画像(色瞳重心位置が異なる複数の色画像)が、位相差検出に適した画像であるか否か(位相差演算に用いる色画像として適しているか否か)(あるいはさらに、位相差検出に適する程度がどの程度であるか)を判定するものである。
The
次に、図2は位相差AF部42の構成を示すブロック図である。
Next, FIG. 2 is a block diagram showing a configuration of the phase
位相差AF部42は、色信号選択部51と、基準補正部52と、位相差演算部53と、を備えている。
The phase
色信号選択部51は、上述した位相差適合判定部41により位相差演算に適していると判定された色画像の中から、位相差演算に用いる1組の色画像(色瞳重心位置が異なる2つの帯域の画像)を選択するものである。
The color
基準補正部52は、色信号選択部51により選択された2つの色画像に係る2つ帯域の光がレンズ10の瞳領域を通過する際の重心位置の距離(図5に示したような重心距離)に応じて、位相差演算部53により算出される位相差量を補正するか、あるいは位相差量に基づき算出される被写体距離を補正するものである(ただし、補正が不要である場合には、もちろん補正は行わない)。
The
ここに、位相差AF部42により算出される位相差量と被写体距離との関係は、例えばシステムコントローラ30内の図示しないフラッシュメモリ等の不揮発性メモリに予め記憶されている。ただし、重心位置が異なる2つの色画像の全ての組み合わせに対して位相差量と被写体距離との関係を記憶すると、多くの記憶容量を要することになる。そこで、位相差量と被写体距離との関係は、標準とする1組の色画像(例えば、R画像とB画像)に関してのみ記憶しておき、標準でない2つの色画像の組み合わせの場合には、重心距離に応じて、基準補正部52が補正を行うように構成している。
Here, the relationship between the phase difference amount calculated by the phase
位相差演算部53は、色信号選択部51により選択された2つの色画像に位相差演算を行うことにより、これら2つの色画像間の位相差量を求める(位相差検出を行う)ものである。
The phase
なお、図2に示す例では、色信号選択部51と基準補正部52とを位相差AF部42内に設けているが、AF制御部38内に設けても良いし、システムコントローラ30あるいは画像処理部25内に設けても構わないし、その他の構成を採用しても良い。
In the example shown in FIG. 2, the color
まず、各色画像の空間的な位置ズレについて、図6〜図12を参照して説明する。ここに、図6は合焦位置にある被写体を撮像するときの被写体光束集光の様子を示す平面図、図7は合焦位置よりも近距離側にある被写体を撮像するときの被写体光束集光の様子を示す平面図、図8は合焦位置よりも近距離側にある被写体上の1点からの光により形成されるボケの形状を示す図、図9は合焦位置よりも近距離側にある被写体上の1点からの光により形成されるボケの形状を色成分毎に示す図、図10は合焦位置よりも遠距離側にある被写体を撮像するときの被写体光束集光の様子を示す平面図、図11は合焦位置よりも遠距離側にある被写体上の1点からの光により形成されるボケの形状を示す図、図12は合焦位置よりも遠距離側にある被写体上の1点からの光により形成されるボケの形状を色成分毎に示す図である。なお、ボケ形状の説明に際しては、絞り11の開口が円形状である場合を例に挙げて説明する。
First, the spatial positional shift of each color image will be described with reference to FIGS. FIG. 6 is a plan view showing a state of subject light flux condensing when imaging a subject at the in-focus position, and FIG. 7 is a subject light flux concentrating when imaging a subject closer to the in-focus position. FIG. 8 is a plan view showing the state of light, FIG. 8 is a diagram showing the shape of a blur formed by light from one point on the subject closer to the focus position, and FIG. 9 is a closer distance than the focus position. FIG. 10 is a diagram showing, for each color component, the shape of a blur formed by light from one point on a subject on the side, and FIG. 10 is a diagram of subject light flux collection when imaging a subject farther from the in-focus position. FIG. 11 is a plan view showing a state, FIG. 11 is a diagram showing the shape of a blur formed by light from one point on the subject on the far side from the in-focus position, and FIG. 12 is on the far side from the in-focus position. It is a figure which shows the shape of the blur formed with the light from one point on a certain subject for every color component. In the description of the blur shape, the case where the aperture of the
被写体OBJcが合焦位置にあるときには、被写体OBJc上の1点から放射された光は、図6に示すように、帯域制限フィルタ12全体を通過するG成分も、帯域制限フィルタ12の半分のRGフィルタ12rのみを通過するR成分も、帯域制限フィルタ12の他の半分のGBフィルタ12bのみを通過するB成分も、撮像素子22上の1点に集光され、点像としての被写体像IMGrgbを形成するために、上述したような瞳通過領域の面積に応じた光量の相違はあるものの、色間に位置ズレは発生しない。従って、合焦位置にある被写体OBJcを撮像したときには、色にじみのない被写体像IMGrgbが結像される。
When the subject OBJc is at the in-focus position, the light emitted from one point on the subject OBJc has a G component that passes through the entire
これに対して、被写体OBJnが例えば合焦位置よりも近距離側にある場合には、被写体OBJn上の1点から放射された光により、図7〜図9に示すように、G成分については円形ボケをなす被写体像IMGgが形成され、R成分については左半分の半円形ボケをなす被写体像IMGrが形成され、B成分については右半分の半円形ボケをなす被写体像IMGbが形成される。従って、合焦位置よりも近距離側にある被写体OBJnを撮像したときには、R成分の被写体像IMGrが左側にずれ、B成分の被写体像IMGbが右側にずれたボケ画像が形成され、このボケ画像におけるR成分とB成分の左右位置は、撮像素子22から見たときの帯域制限フィルタ12におけるR成分透過領域(RGフィルタ12r)とB成分透過領域(GBフィルタ12b)の左右位置と同じである。また、G成分の被写体像IMGgについては、図8、図9に示すように、R成分の被写体像IMGrとB成分の被写体像IMGbとにまたがったボケ画像となる。そして、被写体OBJnが合焦位置から近距離側へ離れるほど、ボケが大きくなって、R成分の被写体像IMGrの重心位置CrとB成分の被写体像IMGbの重心位置Cbとの離間距離、R成分の被写体像IMGrの重心位置CrとG成分の被写体像IMGgの重心位置Cgとの離間距離、およびG成分の被写体像IMGgの重心位置CgとB成分の被写体像IMGbの重心位置Cbとの離間距離が大きくなることになる。
On the other hand, when the subject OBJn is, for example, closer to the in-focus position, the light emitted from one point on the subject OBJn is used for the G component as shown in FIGS. A subject image IMGg that forms a circular blur is formed, a subject image IMGr that forms a semicircular blur of the left half is formed for the R component, and a subject image IMGb that forms a semicircular blur of the right half is formed for the B component. Therefore, when the subject OBJn that is closer to the in-focus position is imaged, a blurred image is formed in which the R component subject image IMGr is shifted to the left side and the B component subject image IMGb is shifted to the right side. The left and right positions of the R component and the B component are the same as the left and right positions of the R component transmission region (
一方、被写体OBJfが例えば合焦位置よりも遠距離側にある場合には、被写体OBJf上の1点から放射された光により、図10〜図12に示すように、G成分については円形ボケをなす被写体像IMGgが形成され、R成分については右半分の半円形ボケをなす被写体像IMGrが形成され、B成分については左半分の半円形ボケをなす被写体像IMGbが形成される。従って、合焦位置よりも遠距離側にある被写体OBJfを撮像したときには、R成分の被写体像IMGrが右側にずれ、B成分の被写体像IMGbが左側にずれたボケ画像が形成され、このボケ画像におけるR成分とB成分の左右位置は、撮像素子22から見たときの帯域制限フィルタ12におけるR成分透過領域(RGフィルタ12r)とB成分透過領域(GBフィルタ12b)の左右位置と逆である。また、G成分の被写体像がR成分の被写体像IMGrとB成分の被写体像IMGbとにまたがったボケ画像となる(図11、図12参照)のは、この遠距離側においても同様である。そして、被写体OBJfが合焦位置から遠距離側へ離れるほど、ボケが大きくなって、R成分の被写体像IMGrの重心位置CrとB成分の被写体像IMGbの重心位置Cbとの離間距離、R成分の被写体像IMGrの重心位置CrとG成分の被写体像IMGgの重心位置Cgとの離間距離、およびG成分の被写体像IMGgの重心位置CgとB成分の被写体像IMGbの重心位置Cbとの離間距離が大きくなることになる。
On the other hand, when the subject OBJf is on the far side of the in-focus position, for example, the light emitted from one point on the subject OBJf causes a circular blur for the G component as shown in FIGS. A subject image IMGg is formed, a subject image IMGr that forms a semicircular blur of the right half is formed for the R component, and a subject image IMGb that forms a semicircular blur of the left half is formed for the B component. Therefore, when the subject OBJf is imaged farther than the in-focus position, a blurred image is formed in which the R component subject image IMGr is shifted to the right side and the B component subject image IMGb is shifted to the left side. The left and right positions of the R component and the B component are opposite to the left and right positions of the R component transmission region (
従って、レンズ10の瞳領域を通過する際の重心位置が異なる2つの色画像の組み合わせに対して、相関性に基づく位相差量を算出すれば、被写体距離を算出することが可能である。
Accordingly, the subject distance can be calculated by calculating the phase difference amount based on the correlation with respect to a combination of two color images having different centroid positions when passing through the pupil region of the
なお、近距離側と遠距離側との何れであっても、G成分の被写体像IMGgは、帯域制限フィルタ12を使用しない場合のボケ画像と同じ情報になるために、上述した色画像生成部37が行うカラー化処理における標準画像として使用することができる。
Note that the G component subject image IMGg becomes the same information as the blurred image when the
次に、図13および図14を参照して、位相差演算部53により位相差検出を行う際に作成される相関値グラフの例を説明する。図13は2つの画像の相対位置をずらしながらSAD方式により演算を行って得られる相関値グラフの例を示す線図、図14は2つの画像の相対位置をずらしながらZNCC方式により演算を行って得られる相関値グラフの例を示す線図である。ここに、図13、図14のグラフの横軸は、相関演算対象の2つ画像の像ずれ量(単位は画素ピッチ)を示し、縦軸は相関演算の結果得られる相関値を示している。
Next, an example of a correlation value graph created when the phase
まず、SAD方式により2つの画像を相関演算したときには、図13に示すようなV字形状の谷をなす相関値が得られ、0に近い谷の底の像ずれ量が求める位相差量となる。 First, when two images are subjected to correlation calculation by the SAD method, a correlation value forming a V-shaped valley as shown in FIG. 13 is obtained, and an image shift amount at the bottom of the valley close to 0 becomes a calculated phase difference amount. .
また、ZNCC方式により2つの画像を相関演算したときには、図14に示すような逆V字形状の山をなす相関値が得られ、1に近い山の頂点の像ずれ量が求める位相差量となる。 Further, when two images are subjected to correlation calculation by the ZNCC method, a correlation value forming an inverted V-shaped peak as shown in FIG. 14 is obtained, and the phase difference amount obtained by calculating the image shift amount at the peak of the peak close to 1 is obtained. Become.
次に、図15は撮像装置における測距の処理を示すフローチャートである。 Next, FIG. 15 is a flowchart showing distance measurement processing in the imaging apparatus.
この処理を開始すると、距離情報を取得する対象範囲となる位相差検出エリアの選択を行う(ステップS1)。この位相差検出エリアは、撮像装置に設定されている撮影モードに応じて自動的に設定されたり、ユーザにより手動で設定されたりする。位相差検出エリアの具体例としては、全画素領域、システムコントローラ30により自動的に設定された注目被写体領域(例えば、画像処理部25の顔検出により検出された顔、あるいは画面中央部など)、ユーザにより設定あるいは選択された領域などである。
When this process is started, a phase difference detection area that is a target range for acquiring distance information is selected (step S1). This phase difference detection area is automatically set according to the shooting mode set in the imaging apparatus or manually set by the user. Specific examples of the phase difference detection area include all pixel areas, a subject area of interest automatically set by the system controller 30 (for example, a face detected by face detection of the
続いて、撮像素子22により画像を取得し(ステップS2)、取得した画像に基づいて、位相差適合判定部41が位相差検出エリアにおける各色画像の適合判定処理を行う(ステップS3)。
Subsequently, an image is acquired by the imaging element 22 (step S2), and based on the acquired image, the phase difference matching
そして、ステップS3の処理結果に基づいて、AF制御部38が、3色以上の画像が位相差検出に適合するか否かを判定する(ステップS4)。
Then, based on the processing result of step S3, the
ここで、3色以上の画像が位相差検出に適合すると判定された場合には、AF制御部38の制御に基づき色信号選択部51が、該適合すると判定された3以上の色の中から位相差取得に用いる1組(2色)を選択する適合色の組選択の処理を行う(ステップS5)。
Here, when it is determined that an image of three or more colors is suitable for phase difference detection, the color
次に、AF制御部38の制御により、位相差演算部53が、選択された1組の色画像の相関値グラフを作成し、作成した相関値グラフに基づき位相差を取得する(ステップS6)。
Next, under the control of the
さらに、AF制御部38の制御により基準補正部52が、取得された位相差を、選択した2色に係る光がレンズ10の瞳領域を通過する際の重心距離(図5に示したような重心距離)に合わせて補正する(ステップS7)。すなわち、例えば図4に示したような構成の帯域制限フィルタ12を用いる場合には、重心距離Drbは、重心距離Drgおよび重心距離Dgbの2倍となる。従って、色信号選択部51により選択された色がRとG、またはGとBである場合には、選択された色がRとBである場合の半分の像ずれ量(図13および図14の横軸に示す像ずれ量)しか得られないことになる。そこで、例えばRとBの組み合わせを標準に採用する場合に、選択された色がRとG、またはGとBであるときには、合焦位置の像ずれ量を2倍する補正処理を行うことになる。
Further, the
そして、補正された位相差に基づき、システムコントローラ30が、現在のレンズ10の駆動位置が合焦位置となっているか否かを判定する(ステップS8)。
Based on the corrected phase difference, the
ここで、合焦していないと判定された場合には、システムコントローラ30がレンズ制御部14を介してレンズ10を合焦位置へ近付ける駆動を行い(ステップS9)、ステップS2へ戻って上述したような処理を繰り返して行う。
Here, if it is determined that the lens is not in focus, the
一方、ステップS4において、位相差検出に適合する色画像が3色未満であると判定された場合には、さらにAF制御部38が、2色の色画像のみが位相差検出に適合するか否かを判定する(ステップS10)。
On the other hand, if it is determined in step S4 that the number of color images suitable for phase difference detection is less than three, the
ここで、2色の色画像のみが位相差検出に適合すると判定された場合には、適合すると判定された2色の色画像を選択された1組の色画像として、上述されたステップS6の処理を行う。 If it is determined that only two color images are suitable for phase difference detection, the two color images determined to be compatible are selected as a set of color images in the above-described step S6. Process.
また、ステップS10において、位相差検出に適合する色画像が2色未満であると判定された場合には、AF制御部38が制御して、コントラストAF部43にコントラストAFを行わせ、合焦へ導く(ステップS11)。
If it is determined in step S10 that the number of color images suitable for phase difference detection is less than two colors, the
こうして、このステップS11の処理が終了するか、またはステップS8において合焦したと判定された場合には、この測距の処理を終了する。 In this way, when the process of step S11 ends or when it is determined in step S8 that the focus is achieved, the distance measurement process ends.
次に、図16は図15のステップS3の位相差検出エリアの各色の適合判定の処理の第1の例を示すフローチャートである。 Next, FIG. 16 is a flowchart showing a first example of the compatibility determination process for each color in the phase difference detection area in step S3 of FIG.
この処理を開始すると、色数をカウントするためのカウンタnを1にリセットする(ステップS21)。 When this process is started, a counter n for counting the number of colors is reset to 1 (step S21).
次に、位相差検出エリアにおける、第n番目の色の情報(この処理を最初に行うときには、第1番目の色情報)を読み込む(ステップS22)。ただし、読み込む対象となるのは、上述したような、独立した色瞳重心位置の色情報であって、位相差検出に用いる可能性のある色情報である(上述したR、G1、G2、Bの例においてはR、G1、B)。 Next, information on the nth color in the phase difference detection area (the first color information when this process is first performed) is read (step S22). However, the information to be read is the color information of the independent color pupil centroid position as described above, and may be used for phase difference detection (the above-described R, G1, G2, B). In the example of R, G1, B).
そして、画素値として取り得る最大画素値maxL(例えば、画素値を10ビット、すなわち0〜1023で表現する場合には、maxL=1023)に1未満の所定値k(例えば、k=0.5)を掛けた値以上の画素値の画素が、位相差検出エリア内の全ての第n番目の色の画素の所定割合(例えば、30%)以上あるか否かを判定する(ステップS23)。 Then, the maximum pixel value maxL that can be taken as the pixel value (for example, when the pixel value is expressed by 10 bits, that is, 0 to 1023, maxL = 1023) is a predetermined value k less than 1 (for example, k = 0.5). It is determined whether or not the number of pixels having a pixel value equal to or greater than the value multiplied by) is equal to or greater than a predetermined ratio (for example, 30%) of all the nth color pixels in the phase difference detection area (step S23).
ここで、位相差適合判定部41は、k×maxL以上の画素値の画素が所定割合以上であると判定された場合には、第n番目の色の情報は位相差検出に適合すると判定し(ステップS24)、所定割合未満であると判定された場合には、第n番目の色の情報は位相差検出に不適合であると判定する(ステップS25)。
Here, the phase difference
ステップS24またはステップS25の処理が行われたら、カウンタnが、上述したような独立した色瞳重心位置の数maxNに達したか否かを判定する(ステップS26)。 When the processing of step S24 or step S25 is performed, it is determined whether or not the counter n has reached the number maxN of independent color pupil centroid positions as described above (step S26).
ここで、maxNに達していないと判定された場合には、カウンタnをインクリメントして(ステップS27)からステップS22へ戻り、次の色情報について上述したような処理を行う。 If it is determined that maxN has not been reached, the counter n is incremented (step S27) and the process returns to step S22 to perform the processing described above for the next color information.
また、カウンタnがmaxNに達したと判定された場合には、この位相差検出エリアの各色の適合判定の処理から図15に示した処理に復帰する。 If it is determined that the counter n has reached maxN, the process returns to the process shown in FIG. 15 from the compatibility determination process for each color in the phase difference detection area.
また、図17は図15のステップS3の位相差検出エリアの各色の適合判定の処理の第2の例を示すフローチャートである。 FIG. 17 is a flowchart showing a second example of the compatibility determination process for each color in the phase difference detection area in step S3 of FIG.
この処理を開始すると、上述したステップS21、ステップS22の処理を行ってから、位相差検出エリアにおける、第n番目の色の情報の平均画素値AveLを、次の数式1のように算出する(ステップS31)。
[数1]
ここに、Xi は位相差検出エリア内の第n番目の色の画素の画素値、PNは位相差検出エリア内の第n番目の色の画素の全画素数である。
When this process is started, after performing the above-described processes of step S21 and step S22, the average pixel value AveL of the nth color information in the phase difference detection area is calculated as in the following equation (1): Step S31).
[Equation 1]
Here, Xi is the pixel value of the nth color pixel in the phase difference detection area, and PN is the total number of pixels of the nth color pixel in the phase difference detection area.
次に、算出した平均画素値AveLが、所定の範囲内、すなわち所定の下限値L1以上かつ所定の上限値L2以下であるか否かを判定する(ステップS32)。ここに、所定の下限値L1の一例としては0.3×maxL、所定の上限値L2の一例としては0.7×maxLが挙げられる(maxL=1023の場合には、0.3×maxL=307、0.7×maxL=716)が、勿論これらの例に限定されるものではない。この処理は、位相差検出エリアにおける第n番目の色が、白飛びや黒つぶれしていないかを確認するための処理である。 Next, it is determined whether or not the calculated average pixel value AveL is within a predetermined range, that is, a predetermined lower limit value L1 or more and a predetermined upper limit value L2 or less (step S32). Here, an example of the predetermined lower limit value L1 is 0.3 × maxL, and an example of the predetermined upper limit value L2 is 0.7 × maxL (in the case of maxL = 1023, 0.3 × maxL = 307, 0.7 × maxL = 716) is, of course, not limited to these examples. This process is a process for confirming whether the nth color in the phase difference detection area is not over-exposed or under-exposed.
ここで、平均画素値AveLが所定の下限値L1以上かつ所定の上限値L2以下であると判定された場合には、第n番目の色の情報の画素値の標準偏差σを次の数式2に示すように算出する(ステップS33)。
[数2]
Here, when it is determined that the average pixel value AveL is equal to or larger than the predetermined lower limit value L1 and equal to or smaller than the predetermined upper limit value L2, the standard deviation σ of the pixel value of the nth color information is expressed by the following
[Equation 2]
そして、算出した標準偏差σが所定の下限標準偏差σ1(maxL=1023の場合には、例えば、σ1=200等)以上であるか否かを判定する(ステップS34)。位相差検出を行うためには、被写体にコントラストが必要であり、平均画素値が中庸の値であっても、コントラストが平坦な被写体(例えば、色が一様な青空など)は位相差検出を行うのが困難である。従って、この処理は、位相差検出エリアにおける第n番目の色情報が、平坦な被写体に係るものでないかを確認するための処理である。 Then, it is determined whether or not the calculated standard deviation σ is equal to or greater than a predetermined lower limit standard deviation σ1 (for example, σ1 = 200 when maxL = 1023) (step S34). In order to perform phase difference detection, the subject needs to have contrast, and even if the average pixel value is a moderate value, subjects with a flat contrast (for example, a blue sky with a uniform color) should perform phase difference detection. Difficult to do. Therefore, this process is a process for confirming whether the nth color information in the phase difference detection area relates to a flat subject.
そして、標準偏差σが所定の下限標準偏差σ1以上であると判定された場合には、ステップS24へ行って第n番目の色の情報は位相差検出に適合すると判定する。 If it is determined that the standard deviation σ is greater than or equal to the predetermined lower limit standard deviation σ1, the process proceeds to step S24, and the nth color information is determined to be suitable for phase difference detection.
一方、ステップS32において、平均画素値AveLが所定の下限値L1未満もしくは所定の上限値L2よりも大きいと判定された場合、またはステップS34において、標準偏差σが所定の下限標準偏差σ1未満であると判定された場合には、ステップS25へ行って第n番目の色の情報は位相差検出に不適合であると判定する。 On the other hand, when it is determined in step S32 that the average pixel value AveL is less than the predetermined lower limit value L1 or larger than the predetermined upper limit value L2, or in step S34, the standard deviation σ is less than the predetermined lower limit standard deviation σ1. If it is determined, the process goes to step S25 to determine that the nth color information is incompatible with the phase difference detection.
その後、ステップS26の処理を行い、ステップS26の判定結果に応じてステップS27の処理へ進むか、またはこの位相差検出エリアの各色の適合判定の処理から図15に示した処理に復帰する。 Thereafter, the process of step S26 is performed, and the process proceeds to the process of step S27 according to the determination result of step S26, or the process returns to the process shown in FIG. 15 from the compatibility determination process of each color in the phase difference detection area.
続いて、図18は図15のステップS3の位相差検出エリアの各色の適合判定の処理の第3の例を示すフローチャートである。 Next, FIG. 18 is a flowchart showing a third example of the compatibility determination process for each color in the phase difference detection area in step S3 of FIG.
この処理を開始すると、上述したステップS21,S22,S31,S32の処理を行う。 When this process is started, the processes of steps S21, S22, S31, and S32 described above are performed.
そして、ステップS32において、平均画素値AveLが所定の下限値L1以上かつ所定の上限値L2以下であると判定された場合には、位相差検出エリアにおける第n番目の色のエッジ量Vを検出する(ステップS41)。 If it is determined in step S32 that the average pixel value AveL is not less than the predetermined lower limit value L1 and not more than the predetermined upper limit value L2, the edge amount V of the nth color in the phase difference detection area is detected. (Step S41).
ここに、エッジ量Vの検出は、種々のフィルタを用いて行うことが可能であるが、一例を挙げればソーベルフィルタである。例えば、下記数式3に示す3×3のフィルタを用いると、垂直方向のエッジを検出することができる。
[数3]
Here, the detection of the edge amount V can be performed using various filters, but a Sobel filter is given as an example. For example, if a 3 × 3 filter represented by the following
[Equation 3]
例えばこの数式3に示すフィルタを、中心画素位置を1画素ずつずらしながら位相差検出エリア内の第n番目の色の画素に順次かけていき、その結果を加算して、位相差検出エリア内の第n番目の色のエッジ量Vを算出する。
For example, the filter shown in
次に、検出されたエッジ量Vの絶対値|V|が、所定の下限エッジ量|V1|(maxL=1023の場合には、例えば、|V1|=200等)以上であるか否かを判定する(ステップS42)。 Next, whether or not the absolute value | V | of the detected edge amount V is equal to or greater than a predetermined lower limit edge amount | V1 | (for example, | V1 | = 200 when maxL = 1023). Determination is made (step S42).
ここで、エッジ量|V|が所定の下限エッジ量|V1|以上であると判定された場合には、位相差検出エリア内に位相差検出に適するエッジが存在するために、ステップS24へ行って第n番目の色の情報は位相差検出に適合すると判定する。 Here, if it is determined that the edge amount | V | is equal to or larger than the predetermined lower limit edge amount | V1 |, there is an edge suitable for phase difference detection in the phase difference detection area. Thus, the nth color information is determined to be suitable for phase difference detection.
一方、ステップS32において、平均画素値AveLが所定の下限値L1未満もしくは所定の上限値L2よりも大きいと判定された場合、またはステップS42において、エッジ量|V|が所定の下限エッジ量|V1|未満であると判定された場合には、ステップS25へ行って第n番目の色の情報は位相差検出に不適合であると判定する。 On the other hand, when it is determined in step S32 that the average pixel value AveL is less than the predetermined lower limit value L1 or larger than the predetermined upper limit value L2, or in step S42, the edge amount | V | is the predetermined lower limit edge amount | V1. If it is determined that it is less than |, the process goes to step S25 to determine that the nth color information is incompatible with the phase difference detection.
その後、ステップS26の処理を行い、ステップS26の判定結果に応じてステップS27の処理へ進むか、またはこの位相差検出エリアの各色の適合判定の処理から図15に示した処理に復帰する。 Thereafter, the process of step S26 is performed, and the process proceeds to the process of step S27 according to the determination result of step S26, or the process returns to the process shown in FIG. 15 from the compatibility determination process of each color in the phase difference detection area.
次に、図19は図15のステップS3の位相差検出エリアの各色の適合判定の処理の第4の例を示すフローチャートである。 FIG. 19 is a flowchart showing a fourth example of the compatibility determination process for each color in the phase difference detection area in step S3 of FIG.
この処理を開始すると、上述したステップS21,S22,S31,S32の処理を行う。 When this process is started, the processes of steps S21, S22, S31, and S32 described above are performed.
そして、ステップS32において、平均画素値AveLが所定の下限値L1以上かつ所定の上限値L2以下であると判定された場合には、フーリエ解析等の周波数解析を行う(ステップS51)。 If it is determined in step S32 that the average pixel value AveL is not less than the predetermined lower limit value L1 and not more than the predetermined upper limit value L2, frequency analysis such as Fourier analysis is performed (step S51).
次に、周波数解析の結果に基づいて、所定の周波数成分(例えば、被写体の模様や輪郭等に係る適宜の高周波成分)が、所定値以上存在するか否かを判定する(ステップS52)。 Next, based on the result of the frequency analysis, it is determined whether or not a predetermined frequency component (for example, an appropriate high-frequency component related to the pattern or contour of the subject) is greater than or equal to a predetermined value (step S52).
ここで、所定の周波数成分が所定値以上存在すると判定された場合には、ステップS24へ行って第n番目の色の情報は位相差検出に適合すると判定する。 Here, if it is determined that the predetermined frequency component is greater than or equal to the predetermined value, the process goes to step S24 to determine that the nth color information is suitable for phase difference detection.
一方、ステップS32において、平均画素値AveLが所定の下限値L1未満もしくは所定の上限値L2よりも大きいと判定された場合、またはステップS52において、所定の周波数成分が所定値未満であると判定された場合には、ステップS25へ行って第n番目の色の情報は位相差検出に不適合であると判定する。 On the other hand, when it is determined in step S32 that the average pixel value AveL is less than the predetermined lower limit value L1 or larger than the predetermined upper limit value L2, or in step S52, it is determined that the predetermined frequency component is less than the predetermined value. If YES in step S25, the flow advances to step S25 to determine that the nth color information is incompatible with phase difference detection.
その後、ステップS26の処理を行い、ステップS26の判定結果に応じてステップS27の処理へ進むか、またはこの位相差検出エリアの各色の適合判定の処理から図15に示した処理に復帰する。 Thereafter, the process of step S26 is performed, and the process proceeds to the process of step S27 according to the determination result of step S26, or the process returns to the process shown in FIG. 15 from the compatibility determination process of each color in the phase difference detection area.
なお、図16から図19を参照して、位相差検出エリアの各色の適合判定の処理の幾つかの例を説明したが、これらに限らず、その他の処理を用いても構わない。 In addition, with reference to FIG. 16 to FIG. 19, some examples of the compatibility determination process of each color in the phase difference detection area have been described. However, the present invention is not limited thereto, and other processes may be used.
次に、図20は図15のステップS5の適合色の組選択の処理の第1の例を示すフローチャートである。 Next, FIG. 20 is a flowchart showing a first example of the process of selecting a set of compatible colors in step S5 of FIG.
この処理を開始すると、色信号選択部51が、位相差検出エリアにおける、位相差検出に適合すると判定された各適合色の平均画素値を、上述した数式1を用いて算出する(ステップS61)。ただし、ステップS3の処理を図17〜図19の何れかにより行った場合には、既に計算結果が存在しているために、その計算結果を利用しても良い。
When this processing is started, the color
次に、色信号選択部51が、平均画素値の上位2色画像(平均画素値が最も大きい色画像と2番目に大きい色画像との組み合わせ)を、位相差検出に用いる1組の色画像として選択して(ステップS62)、この適合色の組選択の処理から図15に示した処理に復帰する。
Next, the color
続いて、図21は図15のステップS5の適合色の組選択の処理の第2の例を示すフローチャートである。 Next, FIG. 21 is a flowchart showing a second example of the process of selecting a suitable color set in step S5 of FIG.
この処理を開始すると、色信号選択部51が、位相差検出エリアにおける、位相差検出に適合すると判定された各適合色の中から、瞳領域を通過する際の重心位置が最も離れた2色を、位相差検出に用いる1組の色として選択して(ステップS71)、この適合色の組選択の処理から図15に示した処理に復帰する。
When this process is started, the color
なお、図20および図21を参照して、適合色の組選択の処理の幾つかの例を説明したが、これらに限らず、その他の処理を用いても構わない。例えば、色信号選択部51は、位相差適合判定部41の判定結果に基づいて、最も位相差検出に適合する2色を選択しても良い。
20 and 21 have been described with reference to some examples of the process of selecting a set of compatible colors, but the present invention is not limited to these, and other processes may be used. For example, the color
具体的には、位相差適合判定部41が図16に示す処理を行う場合には、k×maxL以上の画素値の画素が最も高い割合で存在する2色を選択することが考えられる。
Specifically, when the phase difference matching
また、位相差適合判定部41が図17に示す処理を行う場合には、平均画素値AveLが下限値L1以上かつ上限値L2以下である色の中から、標準偏差σが最も大きい2色を選択することが考えられる。
When the phase difference matching
さらに、位相差適合判定部41が図18に示す処理を行う場合には、平均画素値AveLが下限値L1以上かつ上限値L2以下である色の中から、エッジ量|V|が最も大きい2色を選択することが考えられる。
Further, when the phase difference matching
加えて、位相差適合判定部41が図19に示す処理を行う場合には、平均画素値AveLが下限値L1以上かつ上限値L2以下である色の中から、所定の周波数成分が最も大きい2色を選択することが考えられる。
In addition, when the phase difference matching
このような実施形態1によれば、帯域制限フィルタ12に構成されている3以上の透過帯域の中から、位相差検出に最も適した2つの帯域を選択して、選択した2つの帯域の色画像を用いて位相差検出を行うようにしたために、撮像素子から得られた画像に基づいて、より信頼性の高い距離情報を取得することが可能となる。
According to the first embodiment, the two bands most suitable for phase difference detection are selected from the three or more transmission bands configured in the
そして、位相差検出に適した色が2色以上検出されない場合には、コントラストAFを行うようにしたために、位相差検出に適さない被写体であっても被写体距離を測定することができる。 When two or more colors suitable for phase difference detection are not detected, contrast AF is performed, so that the subject distance can be measured even for a subject that is not suitable for phase difference detection.
色画像が位相差検出に適するか否かを、画素値として取り得る最大画素値maxLに1未満の所定値kを掛けた値以上の画素値の画素が、位相差検出エリア内の全ての第n番目の色の画素の所定割合以上あるか否かに基づき判定する場合には、処理が簡便となる利点がある。 Whether or not the color image is suitable for phase difference detection is determined by determining whether or not pixels having a pixel value equal to or greater than the maximum pixel value maxL that can be taken as the pixel value multiplied by a predetermined value k less than 1 are all in the phase difference detection area. When the determination is made based on whether or not the predetermined number of pixels of the nth color is present, there is an advantage that the processing is simple.
また、色画像が位相差検出に適するか否かを、平均画素値および標準偏差に基づき判定する場合には、画素値変化の少ない平坦な被写体を位相差検出の対象から容易に排除することが可能となる。 Further, when determining whether or not a color image is suitable for phase difference detection based on the average pixel value and standard deviation, it is possible to easily exclude a flat subject having a small change in pixel value from a phase difference detection target. It becomes possible.
さらに、色画像が位相差検出に適するか否かを、平均画素値およびエッジ量に基づき判定する場合には、エッジが少ない被写体を位相差検出の対象から容易に排除することが可能となる。 Furthermore, when determining whether or not a color image is suitable for phase difference detection based on the average pixel value and the edge amount, it is possible to easily exclude a subject having few edges from the phase difference detection target.
そして、色画像が位相差検出に適するか否かを、平均画素値および周波数成分に基づき判定する場合には、高周波成分等が少ない被写体を位相差検出の対象から容易に排除することが可能となる。 When determining whether or not a color image is suitable for phase difference detection based on the average pixel value and frequency component, it is possible to easily exclude a subject with few high-frequency components from the phase difference detection target. Become.
加えて、3色以上の適合色がある場合に、平均画素値の上位2色を位相差検出に用いることで、最も明るい2つの色画像に基づいて、信頼性の高い位相差検出を行うことができる。 In addition, when there are three or more compatible colors, the top two colors of the average pixel value are used for phase difference detection, so that reliable phase difference detection is performed based on the two brightest color images. Can do.
また、3色以上の適合色がある場合に、瞳領域を通過する際の重心位置が最も離れた2色を位相差検出に用いることで、最も精度の高い位相差検出を、高い信頼性で行うことができる。
[実施形態2]
In addition, when there are three or more compatible colors, the two colors with the most distant center of gravity when passing through the pupil region are used for phase difference detection, so that the most accurate phase difference detection can be performed with high reliability. It can be carried out.
[Embodiment 2]
図22および図23は本発明の実施形態2を示したものであり、図22は撮像装置における測距の処理を示すフローチャート、図23は位相差AF部42の構成を示すブロック図である。この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。
22 and FIG. 23 show the second embodiment of the present invention. FIG. 22 is a flowchart showing the distance measuring process in the imaging apparatus, and FIG. 23 is a block diagram showing the configuration of the phase
上述した実施形態1は、3色以上の適合色がある場合に、その中から最も位相差検出に適した2色を選択して、選択した2色の相関値グラフを作成し、作成した相関値グラフに基づき位相差検出を行うものとなっていた。これに対して、本実施形態2は、全ての適合色の組み合わせの相関値グラフを作成し、最も高い相関値を与える相関値グラフに基づき、より信頼性の高い位相差検出を行うものとなっている。 In the above-described first embodiment, when there are three or more compatible colors, two colors most suitable for phase difference detection are selected from them, a correlation value graph of the selected two colors is created, and the created correlation The phase difference is detected based on the value graph. On the other hand, the second embodiment creates a correlation value graph of all the matching color combinations, and performs more reliable phase difference detection based on the correlation value graph giving the highest correlation value. ing.
従って、本実施形態の位相差AF部42は、図23に示すように、色信号選択部51が省略されたものとなっている。
Therefore, the phase
次に、図22を参照して、撮像装置における測距の処理を説明する。 Next, distance measurement processing in the imaging apparatus will be described with reference to FIG.
この処理を開始すると、上述したステップS1〜S4の処理を行う。 When this process is started, the above-described steps S1 to S4 are performed.
そして、ステップS4において、3色以上の画像が位相差検出に適合すると判定された場合には、AF制御部38が、ステップS3において適合色であると判定された全ての色画像の組み合わせについて、位相差AF部42に相関値グラフを作成させる(ステップS81)。適合色の数がn(nは3以上の整数)であるとすると、ここで作成される相関値グラフの数は、nC2個となる。また、以下では、図14に示すようなZNCC方式を採用する場合、つまり相関値が高いほど相関性が高いことを示す場合を例に挙げて説明する。
If it is determined in step S4 that the image of three or more colors is suitable for phase difference detection, the
ZNCC方式の場合には、nC2個の相関値グラフのそれぞれに、ピーク、つまり相関値の最大値が存在する。そこで、AF制御部38の制御により位相差AF部42が、これらnC2個の相関値の最大値の中で、最も大きい相関値を与える相関値グラフを、位相差検出に用いる相関値グラフとして選択する(ステップS82)。
In the case of the ZNCC method, a peak, that is, a maximum correlation value exists in each of the nC2 correlation value graphs. Therefore, under the control of the
そして、AF制御部38の制御により位相差演算部53が、選択した相関値グラフにおける最大相関値を与える像ずれ量に基づき、位相差(ひいては、被写体距離)を取得する(ステップS83)。
Then, under the control of the
一方、ステップS4において、位相差検出に適合する色画像が3色未満であると判定された場合には、上述したステップS10の処理を行って、AF制御部38が、2色の色画像のみが位相差検出に適合するか否かを判定する。
On the other hand, if it is determined in step S4 that the number of color images suitable for phase difference detection is less than three, the process in step S10 described above is performed, and the
ここで、2色の色画像のみが位相差検出に適合すると判定された場合には、AF制御部38の制御により位相差演算部53が、適合すると判定された2色の色画像の位相差(ひいては、被写体距離)を取得する(ステップS84)。
If it is determined that only two color images are suitable for phase difference detection, the phase
また、ステップS10において、位相差検出に適合する色画像が2色未満であると判定された場合には、AF制御部38が、1色の色画像のみが位相差検出に適合するか否かを判定する(ステップS85)。
If it is determined in step S10 that the number of color images suitable for phase difference detection is less than two, the
ここで、1色の色画像のみが位相差検出に適合すると判定された場合には、AF制御部38の制御により位相差演算部53が、適合色と、不適合各色との間の相関値グラフを作成する(ステップS86)。上述したような、独立した色瞳重心位置の数がmaxNの場合には、ここで作成される相関値グラフの数は、(maxN−1)個となる。
Here, when it is determined that only one color image is suitable for phase difference detection, the phase
次に、AF制御部38が、作成された(maxN−1)個の相関値グラフのそれぞれに存在する相関値の最大値の中から、最も大きい相関値を取得する(ステップS87)。
Next, the
そして、取得した最大相関値が所定値(例えば、ZNCC方式において0.7あるいは0.8等)以上であるか否かに基づき、AF制御部38が、位相差検出が可能であるか否かを判定する(ステップS88)。
Whether or not the
ここで、位相差検出が可能であると判定された場合には、AF制御部38の制御により位相差AF部42が、最大相関値を与える相関値グラフを、位相差検出に用いる相関値グラフとして選択して(ステップS89)、選択した相関値グラフにおける最大相関値を与える像ずれ量に基づき、AF制御部38の制御により位相差演算部53が、位相差(ひいては、被写体距離)を取得する(ステップS90)。
Here, if it is determined that the phase difference can be detected, the phase
ステップS83,S84,またはS90の何れかの処理により位相差(ひいては、被写体距離)が取得されたら、上述したステップS7の処理を行って、AF制御部38の制御により基準補正部52が、取得された位相差を、選択した2色に係る光がレンズ10の瞳領域を通過する際の重心距離に合わせて補正する。
When the phase difference (and thus the subject distance) is acquired by any of the processes of steps S83, S84, or S90, the process of step S7 described above is performed, and the
さらに、ステップS8において合焦判定を行い、合焦していないと判定された場合にはステップS9の処理へ進む。 Furthermore, in-focus determination is performed in step S8, and if it is determined that it is not in focus, the process proceeds to step S9.
また、ステップS85において位相差検出に適合する色画像がないと判定された場合、またはステップS88において位相差検出が可能でないと判定された場合には、ステップS11のコントラストAFへ進む。 If it is determined in step S85 that there is no color image suitable for phase difference detection, or if it is determined in step S88 that phase difference detection is not possible, the process proceeds to contrast AF in step S11.
こうして、ステップS11の処理が終了するか、またはステップS8において合焦したと判定された場合には、この測距の処理を終了する。 In this way, the process of step S11 ends, or if it is determined in step S8 that the in-focus state is obtained, the distance measurement process ends.
このような実施形態2によれば、適合色の組選択に係る効果等を除いて上述した実施形態1とほぼ同様の効果を奏するとともに、全ての適合色の組み合わせの相関値グラフを作成して、最も高い相関値を与える相関値グラフを選択し、選択した相関値グラフに基づき位相差検出を行うようにしたために、実際の相関性が高い、つまり信頼性の高い、位相差検出を行うことができる。
[実施形態3]
According to the second embodiment, the effects similar to those of the first embodiment described above except for the effect related to the selection of the matching color set are obtained, and the correlation value graph of all the matching color combinations is created. Since the correlation value graph that gives the highest correlation value is selected and phase difference detection is performed based on the selected correlation value graph, phase difference detection is performed with high actual correlation, that is, high reliability. Can do.
[Embodiment 3]
図24から図30は本発明の実施形態3を示したものであり、図24は撮像装置における測距の処理を示すフローチャート、図25はR画像とB画像の相関値グラフの例を示す図、図26はR画像とG画像の相関値グラフの例を示す図、図27はG画像とB画像の相関値グラフの例を示す図、図28は水平軸をR画像とB画像の相関値グラフに合わせてリスケーリングしたR画像とG画像の補正相関値グラフの例を示す図、図29は水平軸をR画像とB画像の相関値グラフに合わせてリスケーリングしたG画像とB画像の補正相関値グラフの例を示す図、図30はR画像とB画像の相関値グラフと、R画像とG画像の補正相関値グラフと、G画像とB画像の補正相関値グラフと、を加算して得られる加算相関値グラフの例を示す図である。 FIGS. 24 to 30 show the third embodiment of the present invention, FIG. 24 is a flowchart showing distance measurement processing in the imaging apparatus, and FIG. 25 is a diagram showing an example of a correlation value graph of an R image and a B image. 26 is a diagram illustrating an example of a correlation value graph between an R image and a G image, FIG. 27 is a diagram illustrating an example of a correlation value graph between a G image and a B image, and FIG. 28 is a correlation between the R image and the B image on the horizontal axis. FIG. 29 is a diagram illustrating an example of a corrected correlation value graph of an R image and a G image that has been rescaled according to a value graph, and FIG. 29 illustrates a G image and a B image that are rescaled according to the correlation value graph of an R image and a B image. FIG. 30 is a diagram illustrating an example of the corrected correlation value graph of FIG. 30. FIG. 30 illustrates a correlation value graph of the R image and the B image, a corrected correlation value graph of the R image and the G image, and a corrected correlation value graph of the G image and the B image. It is a figure which shows the example of the addition correlation value graph obtained by adding.
この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。 In the third embodiment, parts that are the same as those in the first and second embodiments are given the same reference numerals, description thereof is omitted, and only differences are mainly described.
上述した実施形態1,2は、3色以上の適合色がある場合に、3色以上の色画像の中から選択した2つの色画像の組み合わせの相関値に基づき被写体までの距離を演算するものであり、(2色を選択してから相関値グラフを作成するか、相関値グラフを作成してから2色を実質的に選択するかの違いはあるものの)3色以上の中から最も位相差検出に適した2色を実質的に選択するものとなっていた。これに対して、本実施形態3は、3色以上の色画像の全ての2つの色画像の組み合わせの相関値に基づき被写体までの距離を演算するものであり、全ての適合色の画像情報を統合的に用いて(全ての適合色の組み合わせの相関値グラフを作成して、作成した相関値グラフを統合することにより)、より信頼性の高い位相差検出を行うものとなっている。 In the first and second embodiments, when there are three or more compatible colors, the distance to the subject is calculated based on the correlation value of the combination of two color images selected from the three or more color images. (There is a difference between selecting two colors and then creating a correlation value graph, or creating a correlation value graph and then substantially selecting two colors.) Two colors suitable for phase difference detection are substantially selected. On the other hand, in the third embodiment, the distance to the subject is calculated based on the correlation value of the combination of all two color images of three or more color images. It is used in an integrated manner (by creating correlation value graphs for all combinations of matching colors and integrating the created correlation value graphs) to perform more reliable phase difference detection.
従って、本実施形態の位相差AF部42は、上述した実施形態2の図23に示したものと同様に、色信号選択部51が省略されたものとなっている。
Therefore, in the phase
また、上述した実施形態1,2の基準補正部52は、位相差量または被写体距離を重心距離に応じて補正するものであったが、本実施形態の基準補正部52は、後述するようにさらに、相関値グラフを、重心距離に応じて、水平方向(像ずれ量軸の方向)にリスケーリング(つまり、同一スケールとなるように補正)するものとなっている。
Further, the
次に、図24を参照して、撮像装置における測距の処理を説明する。 Next, distance measurement processing in the imaging apparatus will be described with reference to FIG.
この処理を開始すると、上述したステップS1〜S4の処理を行う。 When this process is started, the above-described steps S1 to S4 are performed.
そして、ステップS4において、3色以上の画像が位相差検出に適合すると判定された場合には、上述したステップS81の処理を行い、適合色の数がn(nは3以上の整数)であるとすると、nC2個の相関値グラフを作成する。ここに、図4に示したような帯域制限フィルタ12を用いた場合に、図25に示すようなR画像とB画像の相関値グラフと、図26に示すようなR画像とG画像の相関値グラフと、図27に示すようなG画像とB画像の相関値グラフとが得られたものとする。
If it is determined in step S4 that an image of three or more colors is suitable for phase difference detection, the process of step S81 described above is performed, and the number of compatible colors is n (n is an integer of 3 or more). Then, nC2 correlation value graphs are created. When the
図4に示したような帯域制限フィルタ12は、重心距離Drgおよび重心距離Dgbが、重心距離Drbの半分となる。従って、図26に示すRG相関値グラフおよび図27に示すGB相関値グラフは、水平方向(像ずれ量軸の方向)のスケールが、図25に示すRB相関値グラフの半分となる。
In the
そこで、例えばRB相関値グラフを基準として、AF制御部38の制御により基準補正部52が、図26に示すRG相関値グラフおよび図27に示すGB相関値グラフを、重心距離に応じて、水平方向(像ずれ量軸の方向)にリスケーリングする(ステップS101)。このリスケーリングにより、例えば、図28に示すようなRG補正相関値グラフおよび図29に示すようなGB補正相関値グラフが得られたものとする(図28、図29において、リスケーリングされた相関値グラフRG,GBを、RG’,GB’として表している)。
Therefore, for example, based on the RB correlation value graph, the
次に、AF制御部38の制御により位相差AF部42が、図25に示すRB相関値グラフと、図28に示すRG補正相関値グラフと、図29に示すGB補正相関値グラフと、を加算して、図30に示すような加算相関値グラフを統合相関値グラフとして作成する(ステップS102)。
Next, under the control of the
そして、作成した加算相関値グラフに基づいて、AF制御部38の制御により位相差演算部53が、位相差(ひいては、被写体距離)を取得する(ステップS103)。
Then, based on the created addition correlation value graph, the phase
一方、ステップS4において、位相差検出に適合する色画像が3色未満であると判定された場合には、上述したステップS10の処理を行って、AF制御部38が、2色の色画像のみが位相差検出に適合するか否かを判定する。
On the other hand, if it is determined in step S4 that the number of color images suitable for phase difference detection is less than three, the process in step S10 described above is performed, and the
ここで、2色の色画像のみが位相差検出に適合すると判定された場合には、AF制御部38の制御により位相差演算部53が、上述したステップS84の処理を行って、適合すると判定された2色の色画像の位相差(ひいては、被写体距離)を取得し、上述したステップS7の処理を行って、AF制御部38の制御により基準補正部52が、取得された位相差を、選択した2色に係る光がレンズ10の瞳領域を通過する際の重心距離に合わせて補正する。
Here, when it is determined that only two color images are suitable for phase difference detection, the phase
また、ステップS10において、位相差検出に適合する色画像が2色未満であると判定された場合には、上述したステップS85の処理を行って、AF制御部38が、1色の色画像のみが位相差検出に適合するか否かを判定する。
If it is determined in step S10 that the number of color images suitable for phase difference detection is less than two, the process in step S85 described above is performed, and the
ここで、1色の色画像のみが位相差検出に適合すると判定された場合には、上述したステップS86の処理を行って、AF制御部38の制御により位相差演算部53が、適合色と、不適合各色との間の相関値グラフを作成する。上述したような、独立した色瞳重心位置の数がmaxNの場合には、ここで作成される相関値グラフの数は、(maxN−1)個となる。
If it is determined that only one color image is suitable for phase difference detection, the process of step S86 described above is performed, and the phase
次に、AF制御部38の制御により基準補正部52が、作成された(maxN−1)個の相関値グラフを、上述したステップS101の処理と同様に、重心距離に応じて、水平方向(像ずれ量軸の方向)にリスケーリングする(ステップS104)。
Next, the
さらに、AF制御部38の制御により位相差AF部42が、上述したステップS102の処理と同様に、リスケーリング後の(maxN−1)個の相関値グラフを加算して、加算相関値グラフを統合相関値グラフとして作成する(ステップS105)。
Further, under the control of the
そして、AF制御部38が、作成した加算相関値グラフから、最大相関値を取得する(ステップS106)。
Then, the
続いて、上述したステップS88の処理と同様に、取得した最大相関値が所定値(例えば、ZNCC方式において0.7×(maxN−1)あるいは0.8×(maxN−1)等)以上であるか否かに基づき、AF制御部38が、位相差検出が可能であるか否かを判定する。ただし、ここでは図22のステップS88の処理と異なり、最大相関値と比較する所定値が、相関値グラフの加算数倍[(maxN−1)倍]されている点が異なっている。
Subsequently, the acquired maximum correlation value is equal to or greater than a predetermined value (for example, 0.7 × (maxN−1) or 0.8 × (maxN−1) in the ZNCC method) as in the process of step S88 described above. Based on whether or not there is, the
ここで、位相差検出が可能であると判定された場合には、AF制御部38の制御により位相差演算部53が、加算相関値グラフに基づき位相差を取得する(ステップS107)。
If it is determined that the phase difference can be detected, the phase
ステップS103,S7,またはS107の何れかの処理により位相差(ひいては、被写体距離)が取得されたら、ステップS8において合焦判定を行い、合焦していないと判定された場合にはステップS9の処理へ進む。 When the phase difference (and hence the subject distance) is acquired by any one of the processes in steps S103, S7, or S107, the focus determination is performed in step S8. If it is determined that the subject is not in focus, the process proceeds to step S9. Proceed to processing.
また、ステップS85において位相差検出に適合する色画像がないと判定された場合、またはステップS88において位相差検出が可能でないと判定された場合には、ステップS11のコントラストAFへ進む。 If it is determined in step S85 that there is no color image suitable for phase difference detection, or if it is determined in step S88 that phase difference detection is not possible, the process proceeds to contrast AF in step S11.
こうして、ステップS11の処理が終了するか、またはステップS8において合焦したと判定された場合には、この測距の処理を終了する。 In this way, the process of step S11 ends, or if it is determined in step S8 that the in-focus state is obtained, the distance measurement process ends.
なお、上述では、位相差検出の対象を、全ての相関値グラフを加算した加算相関値グラフとしたが、これに限るものではない。例えば、全ての相関値グラフを平均した平均相関値グラフを統合相関値グラフとして作成し、この平均相関値グラフに基づき位相差検出を行っても構わない。さらに、全ての相関値グラフを統計的に処理(例えば、値が大きく異なる相関値グラフは除外する、あるいは、値の相似性が高い相関値グラフは重み付けを大きくする等)して1つの統合相関値グラフを作成し、この統合相関値グラフに基づき位相差検出を行っても構わない。 In the above description, the phase difference detection target is the addition correlation value graph obtained by adding all the correlation value graphs, but the present invention is not limited to this. For example, an average correlation value graph obtained by averaging all correlation value graphs may be created as an integrated correlation value graph, and phase difference detection may be performed based on the average correlation value graph. Further, all the correlation value graphs are statistically processed (for example, correlation value graphs with greatly different values are excluded, or correlation value graphs with high value similarity are increased in weight, etc.) to provide one integrated correlation. A value graph may be created and phase difference detection may be performed based on the integrated correlation value graph.
このような実施形態3によれば、適合色の組選択に係る効果等を除いて上述した実施形態1,2とほぼ同様の効果を奏するとともに、全ての適合色の組み合わせの相関値グラフを作成して、さらに作成した相関値グラフをリスケーリングした後に加算する等により統合相関値グラフを作成し、作成した統合相関値グラフに基づき位相差検出を行うようにしたために、各色の相関性を総合的に含めた、信頼性の高い位相差検出を行うことができる。 According to the third embodiment as described above, effects similar to those of the first and second embodiments described above except for the effect related to the selection of the matching color set are obtained, and a correlation value graph of all the matching color combinations is created. Then, the correlation value graph created is rescaled and then added to create an integrated correlation value graph, and phase difference detection is performed based on the created integrated correlation value graph. Therefore, highly reliable phase difference detection can be performed.
なお、上述では主として距離測定装置を備えた撮像装置について説明したが、上述したような処理を行う距離測定方法、上述したような処理を行うための距離測定プログラム、該距離測定プログラムを記録するコンピュータにより読み取り可能な記録媒体、等であっても構わない。
また、距離測定をオートフォーカスのために利用している例のみ示したが、本距離測定方法による距離測定結果を、画像処理や立体視画像などに用いてもよい。
In the above description, the imaging apparatus including the distance measuring device has been mainly described. However, the distance measuring method for performing the above-described processing, the distance measuring program for performing the above-described processing, and the computer that records the distance measuring program. It may be a recording medium readable by the above.
Further, although only an example in which distance measurement is used for autofocusing is shown, a distance measurement result by this distance measurement method may be used for image processing, a stereoscopic image, and the like.
また、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。 Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.
1…レンズユニット
2…ボディユニット
9…撮像光学系
10…レンズ(フォーカスレンズを含む)
11…絞り
12…帯域制限フィルタ
12b…GBフィルタ
12r…RGフィルタ
14…レンズ制御部
15…レンズ側通信コネクタ
21…シャッタ
22…撮像素子(カラーの撮像素子)
23…撮像回路
24…撮像駆動部
25…画像処理部
26…画像メモリ
27…表示部
28…インターフェース(IF)
29…記録媒体
30…システムコントローラ(制御部)
31…センサ部
32…操作部
33…ストロボ制御回路
34…ストロボ
35…ボディ側通信コネクタ
36…色間補正部
37…色画像生成部
38…AF制御部(位相差演算制御部)
39…距離演算部
41…位相差適合判定部
42…位相差AF部(位相差演算部)
43…コントラストAF部
51…色信号選択部
52…基準補正部
53…位相差演算部
DESCRIPTION OF
DESCRIPTION OF
DESCRIPTION OF
29 ... Recording
DESCRIPTION OF
39 ...
43 ... Contrast
Claims (17)
前記波長帯域の光を、前記撮像素子に被写体像として結像する撮像光学系と、
前記撮像光学系の瞳領域をそれぞれ通過する際の光量の重心位置を、3つ以上に異ならせる帯域制限フィルタと、
前記撮像素子から得られた複数の前記色画像の、前記重心位置の相違に起因する位相差量に基づき被写体までの距離を演算する位相差演算部と、
前記撮像素子から得られた前記色画像が、前記位相差演算部が演算に用いる色画像として適しているか否かを判定する位相差適合判定部と、
前記位相差適合判定部により適していると判定された色画像の数が3つ以上である場合に、前記位相差演算部に、該3つ以上の色画像の中から選択した2つの色画像の組み合わせの相関値、または該3つ以上の色画像のうち、2つの色画像の全ての組み合わせの相関値に基づき、前記被写体までの距離を演算させる位相差演算制御部と、
を具備したことを特徴とする距離測定装置。 An image sensor that receives and photoelectrically converts light in three or more wavelength bands, and generates a color image for each wavelength band; and
An imaging optical system that forms light of the wavelength band as a subject image on the imaging device;
A band limiting filter that varies the center of gravity of the amount of light when passing through the pupil region of the imaging optical system to three or more,
A phase difference calculation unit that calculates a distance to a subject based on a phase difference amount caused by a difference in the center of gravity of the plurality of color images obtained from the image sensor;
A phase difference suitability determining unit that determines whether or not the color image obtained from the image sensor is suitable as a color image used by the phase difference calculating unit;
Two color images selected from the three or more color images in the phase difference calculation unit when the number of color images determined to be suitable by the phase difference matching determination unit is three or more. A phase difference calculation control unit that calculates a distance to the subject based on a correlation value of a combination of the above or a correlation value of all combinations of two color images among the three or more color images;
A distance measuring device comprising:
前記位相差演算制御部は、前記色信号選択部により選択された2つの色画像の組み合わせの相関値に基づき、前記位相差演算部に前記被写体までの距離を演算させることを特徴とする請求項1に記載の距離測定装置。 A color signal selection unit that selects a combination of two color images from the color images determined to be suitable by the phase difference matching determination unit;
The phase difference calculation control unit causes the phase difference calculation unit to calculate a distance to the subject based on a correlation value of a combination of two color images selected by the color signal selection unit. The distance measuring apparatus according to 1.
前記位相差演算部により作成された前記相関値グラフを、該相関値グラフを作成する対象とした2つの色画像に係る光が前記瞳領域を通過する際の光量の重心位置間の重心距離に応じて、像ずれ量軸の方向に補正する基準補正部をさらに具備し、
前記位相差演算制御部は、
前記位相差演算部に、前記位相差適合判定部により適していると判定された全ての色画像の中の2つの色画像の組み合わせの全てについて前記相関値グラフを作成させ、
前記基準補正部に、作成された全ての前記相関値グラフを、像ずれ量の軸方向と同一のスケールに補正させ、
前記位相差演算部に、全ての前記相関値グラフを統合させて統合相関値グラフを作成させ、前記統合相関値グラフに基づき、前記被写体までの距離を演算させることを特徴とする請求項1に記載の距離測定装置。 The phase difference calculation unit creates a correlation value graph indicating a correlation value with respect to an image shift amount of a combination of two color images.
The correlation value graph created by the phase difference calculation unit is used as the centroid distance between the centroid positions of the light amounts when the light related to the two color images for which the correlation value graph is created passes through the pupil region. Accordingly, a reference correction unit that corrects in the direction of the image shift amount axis is further provided,
The phase difference calculation control unit is
Causing the phase difference calculation unit to create the correlation value graph for all combinations of two color images among all color images determined to be suitable by the phase difference matching determination unit;
Let the reference correction unit correct all the created correlation value graphs to the same scale as the axial direction of the image shift amount,
2. The phase difference calculation unit is configured to create an integrated correlation value graph by integrating all the correlation value graphs, and to calculate a distance to the subject based on the integrated correlation value graph. The described distance measuring device.
前記位相差演算制御部は、前記位相差適合判定部により適していると判定された色画像が存在しない場合には、前記コントラストオートフォーカス部に前記被写体までの距離を演算させることを特徴とする請求項8に記載の距離測定装置。 A contrast autofocus unit for performing contrast autofocus based on an image obtained from the image sensor;
The phase difference calculation control unit causes the contrast autofocus unit to calculate a distance to the subject when there is no color image determined to be suitable by the phase difference matching determination unit. The distance measuring device according to claim 8.
分割された前記波長帯域毎の光を被写体像として結像し、
前記波長帯域毎の光をそれぞれ受光して光電変換し、該波長帯域毎の色画像を生成し、
前記色画像が位相差演算に用いる色画像として適しているか否かを判定し、
前記位相差演算に適していると判定された前記色画像の数が3つ以上である場合に、該3つ以上の色画像の中から選択した2つの色画像の組み合わせの相関値、または該3つ以上の色画像のうち、2つの色画像の全ての組み合わせの相関値に基づき、被写体までの距離を演算することを特徴とする距離測定方法。 Dividing the light into three or more wavelength bands by changing the center of gravity of the amount of light when passing through the pupil region to three or more,
Form the divided light for each wavelength band as a subject image,
Receiving light for each wavelength band, photoelectrically converting, generating a color image for each wavelength band,
Determining whether the color image is suitable as a color image used for phase difference calculation;
When the number of the color images determined to be suitable for the phase difference calculation is three or more, a correlation value of a combination of two color images selected from the three or more color images, or the A distance measuring method comprising: calculating a distance to a subject based on correlation values of all combinations of two color images among three or more color images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011239361A JP2013097154A (en) | 2011-10-31 | 2011-10-31 | Distance measurement device, imaging apparatus, and distance measurement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011239361A JP2013097154A (en) | 2011-10-31 | 2011-10-31 | Distance measurement device, imaging apparatus, and distance measurement method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013097154A true JP2013097154A (en) | 2013-05-20 |
Family
ID=48619147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011239361A Pending JP2013097154A (en) | 2011-10-31 | 2011-10-31 | Distance measurement device, imaging apparatus, and distance measurement method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013097154A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015194706A (en) * | 2014-03-26 | 2015-11-05 | キヤノン株式会社 | Focus detection device and control method thereof |
KR20160024208A (en) * | 2014-08-25 | 2016-03-04 | 삼성전자주식회사 | Method and for sensing proximity in electronic device and the electronic device thereof |
JP2016053653A (en) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | Focus detection device and method for controlling the same |
JP2016102733A (en) * | 2014-11-28 | 2016-06-02 | 株式会社東芝 | Lens and image capturing device |
CN108933890A (en) * | 2017-05-24 | 2018-12-04 | 中兴通讯股份有限公司 | A kind of background-blurring method, equipment and terminal |
CN109764864A (en) * | 2019-01-16 | 2019-05-17 | 南京工程学院 | A kind of indoor UAV position and orientation acquisition methods and system based on color identification |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59143112A (en) * | 1983-02-05 | 1984-08-16 | Canon Inc | Focal point detector |
JPH06273664A (en) * | 1993-03-23 | 1994-09-30 | Olympus Optical Co Ltd | Focus detector |
JPH11344662A (en) * | 1998-06-02 | 1999-12-14 | Ricoh Co Ltd | Automatic focusing device |
JP2001021792A (en) * | 1999-07-09 | 2001-01-26 | Olympus Optical Co Ltd | Focus detection system |
JP2001075003A (en) * | 1999-09-03 | 2001-03-23 | Nikon Gijutsu Kobo:Kk | Focal point detector, controller and camera using it |
JP2001174696A (en) * | 1999-12-15 | 2001-06-29 | Olympus Optical Co Ltd | Color image pickup unit |
JP2002344999A (en) * | 2001-05-21 | 2002-11-29 | Asahi Optical Co Ltd | Stereoscopic image pickup device |
JP2009276294A (en) * | 2008-05-16 | 2009-11-26 | Toshiba Corp | Image processing method |
-
2011
- 2011-10-31 JP JP2011239361A patent/JP2013097154A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59143112A (en) * | 1983-02-05 | 1984-08-16 | Canon Inc | Focal point detector |
JPH06273664A (en) * | 1993-03-23 | 1994-09-30 | Olympus Optical Co Ltd | Focus detector |
JPH11344662A (en) * | 1998-06-02 | 1999-12-14 | Ricoh Co Ltd | Automatic focusing device |
JP2001021792A (en) * | 1999-07-09 | 2001-01-26 | Olympus Optical Co Ltd | Focus detection system |
JP2001075003A (en) * | 1999-09-03 | 2001-03-23 | Nikon Gijutsu Kobo:Kk | Focal point detector, controller and camera using it |
JP2001174696A (en) * | 1999-12-15 | 2001-06-29 | Olympus Optical Co Ltd | Color image pickup unit |
JP2002344999A (en) * | 2001-05-21 | 2002-11-29 | Asahi Optical Co Ltd | Stereoscopic image pickup device |
JP2009276294A (en) * | 2008-05-16 | 2009-11-26 | Toshiba Corp | Image processing method |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015194706A (en) * | 2014-03-26 | 2015-11-05 | キヤノン株式会社 | Focus detection device and control method thereof |
KR20160024208A (en) * | 2014-08-25 | 2016-03-04 | 삼성전자주식회사 | Method and for sensing proximity in electronic device and the electronic device thereof |
KR102180333B1 (en) * | 2014-08-25 | 2020-11-18 | 삼성전자주식회사 | Method and for sensing proximity in electronic device and the electronic device thereof |
JP2016053653A (en) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | Focus detection device and method for controlling the same |
JP2016102733A (en) * | 2014-11-28 | 2016-06-02 | 株式会社東芝 | Lens and image capturing device |
US10145994B2 (en) | 2014-11-28 | 2018-12-04 | Kabushiki Kaisha Toshiba | Lens device and image capturing device for acquiring distance information at high accuracy |
CN108933890A (en) * | 2017-05-24 | 2018-12-04 | 中兴通讯股份有限公司 | A kind of background-blurring method, equipment and terminal |
CN109764864A (en) * | 2019-01-16 | 2019-05-17 | 南京工程学院 | A kind of indoor UAV position and orientation acquisition methods and system based on color identification |
CN109764864B (en) * | 2019-01-16 | 2022-10-21 | 南京工程学院 | Color identification-based indoor unmanned aerial vehicle pose acquisition method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11099459B2 (en) | Focus adjustment device and method capable of executing automatic focus detection, and imaging optical system storing information on aberrations thereof | |
US10212334B2 (en) | Focusing adjustment apparatus and focusing adjustment method | |
US9641769B2 (en) | Image capture apparatus and method for controlling the same | |
JP6429546B2 (en) | Imaging apparatus, control method, program, and storage medium | |
US9742982B2 (en) | Image capturing apparatus and method for controlling image capturing apparatus | |
JP6555863B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP6516429B2 (en) | Distance measuring device, imaging device, and distance measuring method | |
JP6220148B2 (en) | Imaging apparatus and control method thereof | |
JP2009031682A (en) | Imaging system and image signal processing program | |
JP2013044806A (en) | Imaging apparatus | |
JP2013097154A (en) | Distance measurement device, imaging apparatus, and distance measurement method | |
US10015386B2 (en) | Focus control apparatus, image capturing apparatus, interchangeable lens, focus control method, and storage medium storing focus control program | |
JP2013003159A (en) | Imaging apparatus | |
JP6300670B2 (en) | Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus | |
US10602050B2 (en) | Image pickup apparatus and control method therefor | |
US8830378B2 (en) | Image capturing system and image capturing method, involving image restoration processing | |
US11209262B2 (en) | Electronic apparatus, control method thereof and computer readable storage medium | |
US11924542B2 (en) | Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium | |
CN106993110B (en) | Image pickup apparatus and control method thereof | |
US9955128B2 (en) | Imaging apparatus and method for controlling the same | |
US10447937B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium that perform image processing based on an image processing parameter set for a first object area, and information on a positional relationship between an object in a second object area and an object in the first object area | |
JP6223502B2 (en) | Image processing apparatus, image processing method, program, and storage medium storing the same | |
JP2015176114A (en) | Imaging device and control method of imaging device | |
JP2013037294A (en) | Image pickup apparatus | |
JP2016004210A (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151208 |