JP6628678B2 - Distance measuring device, imaging device, and distance measuring method - Google Patents

Distance measuring device, imaging device, and distance measuring method Download PDF

Info

Publication number
JP6628678B2
JP6628678B2 JP2016085199A JP2016085199A JP6628678B2 JP 6628678 B2 JP6628678 B2 JP 6628678B2 JP 2016085199 A JP2016085199 A JP 2016085199A JP 2016085199 A JP2016085199 A JP 2016085199A JP 6628678 B2 JP6628678 B2 JP 6628678B2
Authority
JP
Japan
Prior art keywords
image
blur correction
distance
obtaining
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016085199A
Other languages
Japanese (ja)
Other versions
JP2017194591A (en
Inventor
秀敏 椿
秀敏 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016085199A priority Critical patent/JP6628678B2/en
Publication of JP2017194591A publication Critical patent/JP2017194591A/en
Application granted granted Critical
Publication of JP6628678B2 publication Critical patent/JP6628678B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は距離測定技術に関し、特にデジタルスチルカメラやデジタルビデオなどに用いられる距離測定技術に関するものである。   The present invention relates to a distance measurement technique, and particularly to a distance measurement technique used for a digital still camera, a digital video, and the like.

デジタルスチルカメラやビデオカメラに適応可能な距離検出技術として、位相差方式による距離検出技術が知られている。この方式は異なる瞳領域を通過した光束により形成される光像(以下、それぞれ「A像」、「B像」という)を取得する。このA像とB像の相対的な位置ズレ量である像ズレ量(視差ともいう)を算出し、レンズ瞳上でのA像とB像を形成する重心間隔である基線長をもとにした換算係数を介してデフォーカス量に変換することで、被写体までの距離を算出することができる。   As a distance detection technique applicable to a digital still camera or a video camera, a distance detection technique using a phase difference method is known. In this method, light images (hereinafter, referred to as “A image” and “B image”, respectively) formed by light beams passing through different pupil regions are acquired. Calculate the image shift amount (also referred to as parallax), which is the relative position shift amount between the A image and the B image, based on the base line length, which is the distance between the centers of gravity forming the A image and the B image on the lens pupil. The distance to the subject can be calculated by converting to a defocus amount via the converted conversion coefficient.

このとき、周辺画角では種々の要因によって前記換算係数が変化することが知られている。変化の要因は、たとえば、結像光学系のレンズ枠等のケラレにより発生する口径食(「ビネッティング」ともいう)の影響による瞳形状の変化や色収差特性、測距画素の入射角度に対する分光感度特性、カメラの製造誤差などである。また、そもそもデフォーカス量自体に応じて換算係数も変化する。特許文献1には、換算係数の変動を補正する手法が記載されている。   At this time, it is known that the conversion coefficient changes due to various factors at the peripheral angle of view. Factors of the change include, for example, a change in pupil shape due to vignetting (also referred to as “vignetting”) caused by vignetting of a lens frame or the like of an imaging optical system, chromatic aberration characteristics, and spectral sensitivity to an incident angle of a ranging pixel. Characteristics, camera manufacturing errors, and the like. In addition, the conversion coefficient changes in accordance with the defocus amount itself. Patent Literature 1 describes a method of correcting a change in a conversion coefficient.

また近年、デジタルスチルカメラやビデオカメラに手ぶれなどで発生する像ブレを防ぐためにさまざまな防振機能が搭載されるにようになっている。例えば特許文献2は、レンズ系の一部をシフトさせて像ブレを抑制する手法を開示する。具体的には、レンズ系のシフトにより光量や歪曲収差の状態が変化するため、特許文献2では、像ぶれ補正光学系の位置情報に応じた歪曲収差補正を行う。   In recent years, digital still cameras and video cameras have been equipped with various image stabilizing functions to prevent image blurring caused by camera shake or the like. For example, Patent Literature 2 discloses a technique for suppressing image blur by shifting a part of a lens system. Specifically, since the state of the amount of light and the state of distortion change due to the shift of the lens system, in Patent Document 2, distortion correction is performed according to the position information of the image blur correction optical system.

特開2015−212772号公報JP-A-2015-212772 特開2012−231262号公報JP 2012-231262 A 特開2013−222183号公報JP 2013-222183 A

測距装置を備えた撮像装置(デジタルスチルカメラやビデオカメラ)は、持ち運び可能なことが好ましい。カメラの持ち運びおよび適切な位置からの撮影により、意図した構図の距離マップが得られる。また、近くからの撮影により、幾何学的な原理やデジタルシステムの特性上、高密度で高精度な距離マップが得られる。   It is preferable that the imaging device (digital still camera or video camera) provided with the distance measuring device is portable. By carrying the camera and photographing from an appropriate position, a distance map having an intended composition can be obtained. In addition, a high-density and high-accuracy distance map can be obtained by taking a picture from a nearby place due to the geometric principle and the characteristics of the digital system.

持ち運び可能なカメラは手ぶれに弱く、したがって、防振機構を搭載することが望ましい。しかしながら、特許文献2に記載されるような方法で変動する光量や像の歪曲に合わせて像補正を実施すると、像の明るさや歪等の変動は抑えることができるようになる一方、測距に関係する換算係数が変動してしまう。すなわち、測距に誤差が生じてしまうという課題があった。   A portable camera is vulnerable to camera shake, and therefore it is desirable to mount a vibration isolation mechanism. However, when image correction is performed in accordance with the amount of light and image distortion that fluctuate by the method described in Patent Literature 2, fluctuations in image brightness, distortion, and the like can be suppressed, while distance measurement can be performed. The related conversion factor fluctuates. That is, there is a problem that an error occurs in the distance measurement.

本発明は上記の課題を考慮してなされたものであり、その目的は、撮像装置において防振機構が有効な場合でも精度の良い距離測定が可能な技術を提供することである。   The present invention has been made in consideration of the above problems, and an object of the present invention is to provide a technique capable of performing accurate distance measurement even when an image stabilizing mechanism is effective in an imaging apparatus.

本発明の第一の態様は、
像ぶれ補正手段と、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得手段と、
前記像ぶれ補正手段による像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正手段と、
を備え
前記距離情報取得手段は、前記第一の像と前記第二の像との像ズレ量を取得する第一の取得手段と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得手段と、を含み、
前記距離情報補正手段は、前記像ぶれ補正量に基づいて前記換算係数を取得する第三の取得手段を含み、
前記第三の取得手段は前記像ぶれ補正量の大きさに応じて前記換算係数を取得する方法を変更することを特徴とする、
距離測定装置である。
本発明の第二の態様は、
像ぶれ補正手段と、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得手段と、
前記像ぶれ補正手段による像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正手段と、
前記像ぶれ補正手段による像ぶれ補正量に基づいて像修正フィルタを決定して、前記像修正フィルタを用いて前記第一の像および前記第二の像の像修正処理を行う像修正手段と、
を備え、
前記距離情報取得手段は、前記第一の像と前記第二の像との像ズレ量を取得する第一の取得手段と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得手段と、を含み、
前記第二の取得手段は、前記像修正手段による像修正処理後の第一の像および第二の像から前記距離情報を取得する、
距離測定装置である。
The first aspect of the present invention,
Image blur correction means,
Based on a first image based on a light beam that has passed through a first pupil region of the imaging optical system and a second image based on a light beam that has passed through a second pupil region of the imaging optical system, a distance Distance information acquisition means for acquiring information;
A distance information correcting unit that corrects the distance information based on an image blur correction amount by the image blur correcting unit;
Equipped with a,
The distance information obtaining unit is configured to obtain an image shift amount between the first image and the second image, and the image shift amount from the image shift amount using a conversion coefficient corresponding to a pixel position. Second acquisition means for acquiring distance information,
The distance information correcting unit includes a third obtaining unit that obtains the conversion coefficient based on the image blur correction amount,
The third obtaining unit changes a method of obtaining the conversion coefficient according to the magnitude of the image blur correction amount,
It is a distance measuring device.
A second aspect of the present invention provides
Image blur correction means,
Based on a first image based on a light beam that has passed through a first pupil region of the imaging optical system and a second image based on a light beam that has passed through a second pupil region of the imaging optical system, a distance Distance information acquisition means for acquiring information;
A distance information correcting unit that corrects the distance information based on an image blur correction amount by the image blur correcting unit;
Image correction means for determining an image correction filter based on the amount of image blur correction by the image blur correction means, and performing image correction processing of the first image and the second image using the image correction filter,
With
The distance information obtaining unit is configured to obtain an image shift amount between the first image and the second image, and the image shift amount from the image shift amount using a conversion coefficient corresponding to a pixel position. Second acquisition means for acquiring distance information,
The second obtaining means obtains the distance information from the first image and the second image after the image correction processing by the image correcting means,
It is a distance measuring device.

本発明の第の態様は、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得ステップと、
像ぶれ補正手段による像ぶれ補正量を取得する取得ステップと、
前記像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正ステップと、
を含み、
前記距離情報取得ステップは、前記第一の像と前記第二の像との像ズレ量を取得する第一の取得工程と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得工程と、を含み、
前記距離情報補正ステップは、前記像ぶれ補正量に基づいて前記換算係数を取得する第三の取得工程を含み、
前記第三の取得工程では、前記像ぶれ補正量の大きさに応じて前記換算係数を取得する方法を変更することを特徴とする、
距離測定方法である。
本発明の第四の態様は、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得ステップと、
像ぶれ補正手段による像ぶれ補正量を取得する取得ステップと、
前記像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正ステップと、
前記像ぶれ補正量に基づいて像修正フィルタを決定して、前記像修正フィルタを用いて前記第一の像および前記第二の像の像修正処理を行う像修正ステップと、
を含み、
前記距離情報取得ステップは、前記第一の像と前記第二の像との像ズレ量を取得する第
一の取得工程と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得工程と、を含み、
前記第二の取得工程では、前記像修正ステップによる像修正処理後の第一の像および第二の像から前記距離情報を取得する、
距離測定方法である。
A third aspect of the present invention provides:
Based on a first image based on a light beam that has passed through a first pupil region of the imaging optical system and a second image based on a light beam that has passed through a second pupil region of the imaging optical system, a distance A distance information obtaining step of obtaining information;
An obtaining step of obtaining an image blur correction amount by the image blur correcting means,
A distance information correction step of correcting the distance information based on the image blur correction amount,
Only including,
The distance information obtaining step is a first obtaining step of obtaining an image shift amount between the first image and the second image, and the image shift amount is calculated from the image shift amount using a conversion coefficient corresponding to a pixel position. A second acquisition step of acquiring distance information,
The distance information correcting step includes a third obtaining step of obtaining the conversion coefficient based on the image blur correction amount,
In the third obtaining step, a method of obtaining the conversion coefficient is changed according to the magnitude of the image blur correction amount,
This is a distance measuring method.
A fourth aspect of the present invention provides:
Based on a first image based on a light beam that has passed through a first pupil region of the imaging optical system and a second image based on a light beam that has passed through a second pupil region of the imaging optical system, a distance A distance information obtaining step of obtaining information;
An obtaining step of obtaining an image blur correction amount by the image blur correcting means,
A distance information correction step of correcting the distance information based on the image blur correction amount,
Determine an image correction filter based on the image blur correction amount, an image correction step of performing image correction processing of the first image and the second image using the image correction filter,
Including
The distance information obtaining step is a step of obtaining an image shift amount between the first image and the second image.
One acquisition step, including a second acquisition step of acquiring the distance information from the image shift amount using a conversion coefficient according to the position of the pixel,
In the second obtaining step, the distance information is obtained from the first image and the second image after the image correction processing by the image correction step,
This is a distance measuring method.

本発明によれば、防振機構を有効にした撮像装置においても距離測定を精度良く行える。   According to the present invention, distance measurement can be performed with high accuracy even in an image pickup apparatus in which a vibration isolation mechanism is enabled.

実施例1に係る距離測定装置の概要構成図である1 is a schematic configuration diagram of a distance measuring device according to a first embodiment. 実施例1における基本処理を示す図であるFIG. 4 is a diagram illustrating basic processing according to the first embodiment. 実施例1に係る距離測定装置の防振機能を説明する図であるFIG. 3 is a diagram illustrating an image stabilizing function of the distance measuring device according to the first embodiment. 実施例1における換算係数マップの幾何変形を説明する図であるFIG. 7 is a diagram illustrating geometric deformation of a conversion coefficient map according to the first embodiment. 実施例1における演算処理部の測距処理を示す図であるFIG. 5 is a diagram illustrating a distance measurement process of an arithmetic processing unit according to the first embodiment. 実施例2におけるベクトル要素の換算係数マップを説明する図であるFIG. 14 is a diagram illustrating a conversion coefficient map of a vector element according to the second embodiment. 実施例2における演算処理部の測距処理を示す図であるFIG. 13 is a diagram illustrating a distance measurement process of an arithmetic processing unit according to the second embodiment. 撮像素子103の要部上面図であるFIG. 2 is a top view of a main part of an image sensor 103. 実施例3におけるケラレによる瞳透過率分布の変化を説明する図であるFIG. 14 is a diagram illustrating a change in a pupil transmittance distribution due to vignetting in Embodiment 3. 実施例3における演算処理部の測距処理を示す図であるFIG. 14 is a diagram illustrating a distance measurement process of an arithmetic processing unit according to a third embodiment. 実施例3における換算係数および像修正係数マップを説明する図であるFIG. 14 is a diagram illustrating a conversion coefficient and an image correction coefficient map according to the third embodiment. 実施例3における像修正フィルタ係数を説明する図であるFIG. 14 is a diagram illustrating an image correction filter coefficient according to the third embodiment.

(実施形態1)
本実施形態は距離情報を求める距離測定装置を備える撮像装置である。距離情報は、ある基準点と被写体とのあいだの距離に応じた値である。典型的には、距離測定装置と被写体とのあいだの距離(絶対距離)が距離情報に相当する。距離情報は、一般には、撮像装置と被写体のあいだの距離から求められるその他の値であってもよい。距離情報のその他の例は、1画像のフォーカス位置と被写体のあいだの距離、2画像のフォーカス位置の中間位置と被写体のあいだの距離である。また、距離情報は、像面側での距離、物体側での距離のどちらであっても良い。また、距離情報は、実空間の距離で表されてもよいし、デフォーカス量や視差量など実空間距離に換算できる量で表されてもよい。このように距離情報は、撮像装置と被写体のあいだの距離(絶対距離)に依存して変化する値である。したがって、距離情報は距離依存値と称することもできる。
(Embodiment 1)
The present embodiment is an imaging device including a distance measuring device for obtaining distance information. The distance information is a value corresponding to the distance between a certain reference point and the subject. Typically, the distance (absolute distance) between the distance measuring device and the subject corresponds to the distance information. Generally, the distance information may be another value obtained from the distance between the imaging device and the subject. Another example of the distance information is a distance between the focus position of one image and the subject and a distance between an intermediate position between the focus positions of the two images and the subject. Further, the distance information may be either the distance on the image plane side or the distance on the object side. Further, the distance information may be represented by a distance in a real space, or may be represented by an amount that can be converted into a real space distance such as a defocus amount or a parallax amount. Thus, the distance information is a value that changes depending on the distance (absolute distance) between the imaging device and the subject. Therefore, the distance information may be referred to as a distance-dependent value.

以下、図を用いて本実施形態を詳細に説明する。   Hereinafter, the present embodiment will be described in detail with reference to the drawings.

<距離測定装置の構成>
図1(A)は、本発明に係る距離測定装置を備えた撮像装置100を示す模式図である。撮像装置100は、結像光学系101と、距離測定装置102、姿勢センサ140、像ぶれ補正部150を備えて構成されている。距離測定装置102は、演算処理部104とメモリ105を有している。結像光学系101は、像ぶれ補正部材1011(図1(A)では不図示)を含む。
<Configuration of distance measuring device>
FIG. 1A is a schematic diagram illustrating an imaging device 100 including a distance measuring device according to the present invention. The imaging device 100 includes an imaging optical system 101, a distance measurement device 102, an attitude sensor 140, and an image blur correction unit 150. The distance measuring device 102 includes an arithmetic processing unit 104 and a memory 105. The imaging optical system 101 includes an image blur correction member 1011 (not shown in FIG. 1A).

演算処理部104は、ASIC(Application Specific Integrated Circuit)のよう
な論理回路により構成される。他の実施形態では、演算処理部104は、CPU(Central Processing Unit)のような汎用プロセッサとプログラムを記憶するメモリとから構成
され、汎用プロセッサがプログラムを実行することにより下記の処理を実行する。演算処理部104は、全体として、距離情報取得部および距離情報補正部として機能する。より具体的には、演算処理部104は、図5(A)に示すように、画像取得部11、像ズレ量算出部(第一の取得部)12、像ぶれ補正量取得部13、変換係数算出部(第三の取得部)14、および距離算出部(第二の取得部)15をその機能部として有する。これらの各機能部の具体的な説明は後述する。
The arithmetic processing unit 104 is configured by a logic circuit such as an ASIC (Application Specific Integrated Circuit). In another embodiment, the arithmetic processing unit 104 includes a general-purpose processor such as a CPU (Central Processing Unit) and a memory for storing a program, and executes the following processing by executing the program by the general-purpose processor. The arithmetic processing unit 104 functions as a distance information acquisition unit and a distance information correction unit as a whole. More specifically, as shown in FIG. 5A, the arithmetic processing unit 104 includes an image acquisition unit 11, an image shift amount calculation unit (first acquisition unit) 12, an image blur correction amount acquisition unit 13, It has a coefficient calculation unit (third acquisition unit) 14 and a distance calculation unit (second acquisition unit) 15 as its functional units. Specific description of each of these functional units will be described later.

図1(B)は、撮像素子103の構成を示す図である。撮像素子103は、xy平面上に配列された多数の測距画素(以降、単に「画素」とも呼ぶ)110R、110G、110Bが並置されて構成されている。   FIG. 1B is a diagram illustrating a configuration of the image sensor 103. The image sensor 103 is configured by arranging a large number of ranging pixels (hereinafter, also simply referred to as “pixels”) 110R, 110G, and 110B arranged on an xy plane.

図1(C)は、測距画素110R、110G、110Bの断面構成図を示す。測距画素は、マイクロレンズ111、カラーフィルタ122R、122G、122B、光電変換部110Ra、110Rb、110Ga、110Gb、110Ba、110Bb、導波路113を備える。以下、光電変換部110Ra、110Ga、110Baを光電変換部110aと総称し、光電変換部110Rb、110Gb、110Bbを光電変換部110bと総称することがある。   FIG. 1C is a cross-sectional configuration diagram of the ranging pixels 110R, 110G, and 110B. The ranging pixel includes a microlens 111, color filters 122R, 122G, 122B, photoelectric conversion units 110Ra, 110Rb, 110Ga, 110Gb, 110Ba, 110Bb, and a waveguide 113. Hereinafter, the photoelectric conversion units 110Ra, 110Ga, and 110Ba may be collectively referred to as a photoelectric conversion unit 110a, and the photoelectric conversion units 110Rb, 110Gb, and 110Bb may be collectively referred to as a photoelectric conversion unit 110b.

撮像素子103の各画素は、検出する波長帯域に応じた分光特性がカラーフィルタ122R、122G、122Bによって与えられ、それぞれ、主として赤光、緑光、青光を取得する。測距画素110R,110G,110Bは、図示しない公知の配色パターン(たとえば、ベイヤ配列)によってxy平面上に配置されている。基板124は、検出する波長帯域を吸収する材料、例えばSiからなる。基板124には、イオン打ち込みなどで、内部の少なくとも一部の領域に光電変換部が形成される。各画素は、図示しない配線を備えている。   Each pixel of the image sensor 103 is given spectral characteristics according to the wavelength band to be detected by the color filters 122R, 122G, and 122B, and mainly acquires red light, green light, and blue light, respectively. The distance measurement pixels 110R, 110G, and 110B are arranged on the xy plane by a known color arrangement pattern (for example, Bayer arrangement) not shown. The substrate 124 is made of a material that absorbs a wavelength band to be detected, for example, Si. On the substrate 124, a photoelectric conversion portion is formed in at least a part of the internal region by ion implantation or the like. Each pixel includes a wiring (not shown).

光電変換部110aおよび光電変換部110bには、それぞれ射出瞳130中の異なる領域である第1の瞳領域131aおよび第2の瞳領域131bを通過した光束が入射し、それぞれ第1の信号および第2の信号を出力する。A像を形成する第1の信号を取得する光電変換部をA画素と呼び、B像を形成する第2の信号を取得する光電変換部をB画素と呼ぶ。各光電変換部で取得された信号は、演算処理部104に伝送され測距演算処理が行われる。   Light beams that have passed through the first pupil region 131a and the second pupil region 131b, which are different regions in the exit pupil 130, respectively enter the photoelectric conversion unit 110a and the photoelectric conversion unit 110b, and the first signal and the second signal respectively. 2 is output. The photoelectric conversion unit that obtains the first signal forming the A image is called an A pixel, and the photoelectric conversion unit that obtains the second signal forming the B image is called a B pixel. The signal acquired by each photoelectric conversion unit is transmitted to the arithmetic processing unit 104, and the distance measurement arithmetic processing is performed.

<測距演算基本フロー>
測距演算処理の基本フローチャートの一例を図2に示す。
<Basic flow of distance calculation>
FIG. 2 shows an example of a basic flowchart of the distance measurement calculation process.

[像ズレ量算出]
ステップS201の像ズレ量算出処理では、画像取得部11がA像(第1の信号の像)とB像(第2の信号の像)をメモリから読み出し、像ズレ量算出部12がA像とB像の間
の相対的な位置ズレ量である像ズレ量の算出する。像ズレ量の算出は公知の手法を用いることができる。相関値S(k)は例えば、A像とB像の像信号データA(i)、B(i)から式(1)を用いて算出される。

Figure 0006628678
[Image shift amount calculation]
In the image shift amount calculation processing in step S201, the image acquisition unit 11 reads out the image A (image of the first signal) and the image B (image of the second signal) from the memory, and the image shift amount calculation unit 12 outputs the image A Image shift amount, which is a relative position shift amount between the image B and the B image. A known method can be used to calculate the image shift amount. The correlation value S (k) is calculated, for example, from the image signal data A (i) and B (i) of the A image and the B image using Expression (1).
Figure 0006628678

式(1)において、S(j)は像シフト量jにおける2つの像の間の相関度を示す相関値、iは画素番号、jは2つの像の相対的な像シフト量である。p及びqは、相関値S(j)の算出に用いる対象画素範囲を示している。相関値S(j)は値が低いほど相関が高いことを意味する。   In equation (1), S (j) is a correlation value indicating a degree of correlation between two images in the image shift amount j, i is a pixel number, and j is a relative image shift amount between the two images. p and q indicate target pixel ranges used for calculating the correlation value S (j). The lower the correlation value S (j), the higher the correlation.

像ズレ量算出部12は、所定範囲のjについて相関値S(j)を求め、極小値を与える像シフト量jを位置iにおけるA像とB像のあいだの像ズレ量として決定する。なお、像ズレ量の算出方法は、本実施例の方法に限定されるものではなく、他の公知の手法を用いてもよい。   The image shift amount calculation unit 12 obtains the correlation value S (j) for j in the predetermined range, and determines the image shift amount j that gives the minimum value as the image shift amount between the A image and the B image at the position i. Note that the method of calculating the image shift amount is not limited to the method of the present embodiment, and another known method may be used.

[デフォーカス量算出]
ステップS202の距離算出処理では、距離算出部15が、像ズレ量からデフォーカス量を算出する。被写体106の像は、結像光学系101を介して撮像素子103に結像される。図1(A)は射出瞳130を通過した光束が撮像面とは異なる結像面107で焦点を結ぶ状態、すなわちデフォーカスした状態を示している。尚、デフォーカスとは結像面107が、撮像面(受光面)と一致せず、光軸108方向にズレた状態のことをいう。デフォーカス量は、撮像素子103の撮像面と結像面107との間の距離を示す。本実施形態に係る距離測定装置は、このデフォーカス量に基づいて被写体106の距離を検出する。
[Defocus amount calculation]
In the distance calculation processing in step S202, the distance calculation unit 15 calculates the defocus amount from the image shift amount. An image of the subject 106 is formed on the image sensor 103 via the image forming optical system 101. FIG. 1A shows a state in which a light beam that has passed through the exit pupil 130 is focused on an imaging surface 107 different from the imaging surface, that is, a defocused state. Note that defocusing refers to a state where the imaging surface 107 does not coincide with the imaging surface (light receiving surface) and is shifted in the direction of the optical axis 108. The defocus amount indicates a distance between the imaging surface of the imaging element 103 and the imaging surface 107. The distance measuring device according to the present embodiment detects the distance of the subject 106 based on the defocus amount.

画素110の各光電変換部110a、110bで取得した第1の信号および第2の信号に依拠するA像およびB像との相対的位置ズレを示す像ズレ量rと、デフォーカス量ΔLとは、式(2)の関係を有している。

Figure 0006628678
The image shift amount r indicating the relative position shift between the A image and the B image based on the first signal and the second signal acquired by each of the photoelectric conversion units 110a and 110b of the pixel 110, and the defocus amount ΔL , Equation (2).
Figure 0006628678

式(2)において、Wは基線長、Lは撮像素子(撮像面)103から射出瞳130までの距離である。基線長Wは後述する画素の入射角に対する感度分布を射出瞳130面上に投影した瞳感度分布の重心間隔に相当する。   In Expression (2), W is the base line length, and L is the distance from the imaging element (imaging plane) 103 to the exit pupil 130. The base line length W corresponds to a center-of-gravity interval of a pupil sensitivity distribution obtained by projecting a sensitivity distribution with respect to an incident angle of a pixel described later on the exit pupil 130 surface.

式(2)は、換算係数Kを用いて、式(3)のように書くことができる。

Figure 0006628678
Equation (2) can be written as equation (3) using the conversion coefficient K.
Figure 0006628678

像ズレ量をデフォーカス量に変換する係数を以下「換算係数」と呼ぶ。換算係数は、例えば基線長Wのことを言う。以降、基線長Wの補正は換算係数の補正と等価である。本実施形態においては、換算係数は換算係数算出部14によって算出されるものが距離算出に利用される。換算係数の決定(補正)方法は後述する。   The coefficient for converting the image shift amount into the defocus amount is hereinafter referred to as “conversion coefficient”. The conversion coefficient refers to, for example, the base line length W. Hereinafter, the correction of the base line length W is equivalent to the correction of the conversion coefficient. In the present embodiment, the conversion coefficient calculated by the conversion coefficient calculation unit 14 is used for distance calculation. The method of determining (correcting) the conversion coefficient will be described later.

なお、デフォーカス量の算出方法は、上記の方法に限定されるものではなく、他の公知の手法を用いてもよい。   The method of calculating the defocus amount is not limited to the above method, and another known method may be used.

撮影レンズがズームレンズの場合、ズームステートの変化により射出瞳位置とセンサ瞳位置が変化すると、射出瞳上の透過率分布(受光量分布)形状が変化する。この変化は、像高に依存する。したがって、瞳上での透過率分布の重心間隔である基線長Wの値、および基線長Wに関連する換算係数Kも像高に応じて異なる値となる。透過率分布の変化に対応する基線長Wもしくは換算係数Kを、図4(A)のように画素位置に応じた2次元テーブルとしてメモリ105に蓄えておく。   When the photographing lens is a zoom lens, when the position of the exit pupil and the position of the sensor pupil change due to a change in the zoom state, the shape of the transmittance distribution (light-receiving amount distribution) on the exit pupil changes. This change depends on the image height. Therefore, the value of the base length W, which is the center of gravity of the transmittance distribution on the pupil, and the conversion coefficient K related to the base length W also have different values according to the image height. The base line length W or the conversion coefficient K corresponding to the change in the transmittance distribution is stored in the memory 105 as a two-dimensional table corresponding to the pixel position as shown in FIG.

<防振機構の構成>
像ぶれ補正部材1011による像ぶれの抑制について説明する。本実施形態においては像ぶれ補正部150が、カメラの揺れに応じて、図3(A)に示すように結像光学系101の一部のレンズ(補正部材1011)を平行移動させる。これにより、撮像素子上の光学像の位置が平行移動し、カメラの揺れによる映像の揺れ、いわゆるぶれを抑制できる。
<Structure of anti-vibration mechanism>
The suppression of image blur by the image blur correction member 1011 will be described. In the present embodiment, the image blur correction unit 150 moves a part of the lens (correction member 1011) of the imaging optical system 101 in parallel as shown in FIG. Thereby, the position of the optical image on the image sensor moves in parallel, and the image shake due to camera shake, so-called shake, can be suppressed.

結像光学系101内に補正部材1011を設ける代わりに、撮像素子103を結像光学系101の光軸に垂直な面内で平行移動させるピエゾ素子等の機械的駆動部品(補正部材に相当)を設けて像ぶれを抑制しても良い。また例えば撮像素子103から画像信号として出力される像の範囲を制御し、電子的に手ぶれによる振動を防振する防振機構を代替的に備えても良い。   Instead of providing the correction member 1011 in the imaging optical system 101, a mechanical drive component (corresponding to a correction member) such as a piezo element that translates the image sensor 103 in a plane perpendicular to the optical axis of the imaging optical system 101. May be provided to suppress image blur. Further, for example, a vibration damping mechanism for controlling a range of an image output as an image signal from the image sensor 103 and electronically damping vibration due to camera shake may be provided.

カメラの揺れは姿勢センサ140によって検出される。姿勢センサ140は、例えばジャイロ等により構成され、光学系の光軸に直交する任意の軸に取り付けられる。姿勢センサ140は姿勢変化の情報を計測し、計測した情報を像ぶれ補正部150に伝える。例えば姿勢センサ140が回転センサの場合、姿勢センサ140は、撮像装置のヨー方向、ピッチ方向の各軸に取り付けられ、各軸周りの回転による姿勢変化を計測する。姿勢センサ140は、加速度センサ等の撮像装置の平行移動を計測するセンサ、あるいは撮像装置の平行移動による像ぶれ量を算出するセンサであっても良い。また、姿勢センサ140は、画像ベクトルから撮像装置の相対的な回転・平行移動による像ぶれ量を算出するセンサであっても良い。   The camera shake is detected by the posture sensor 140. The attitude sensor 140 is formed of, for example, a gyro, and is attached to an arbitrary axis orthogonal to the optical axis of the optical system. The posture sensor 140 measures information on the posture change, and transmits the measured information to the image blur correction unit 150. For example, when the attitude sensor 140 is a rotation sensor, the attitude sensor 140 is attached to each axis of the imaging device in the yaw direction and the pitch direction, and measures a change in attitude due to rotation about each axis. The posture sensor 140 may be a sensor that measures the parallel movement of the imaging device, such as an acceleration sensor, or a sensor that calculates the amount of image blur caused by the parallel movement of the imaging device. In addition, the attitude sensor 140 may be a sensor that calculates the amount of image blur due to relative rotation / translation of the imaging device from the image vector.

像ぶれ補正部150は、像ぶれを打ち消すように補正部材1011の位置や姿勢を制御する。補正部材1011の移動量は、姿勢センサ140により計測された撮像装置の姿勢及び/または位置変化、または当該姿勢及び/または位置変化により生じる像ぶれに基づいて算出される。補正部材1011の移動は、電磁コイル等により補正部材1011を含むユニットを駆動することにより行われる。また像ぶれ補正部150は、補正部材1011の位置姿勢情報を検出する機能を持つ。像ぶれ補正部150は、ホール素子またはエンコーダ等を構成に含み、光学防振を行うレンズアセンブリユニットの軌道上の位置に基づいて補正部材1011の位置および姿勢情報を計測する。具体的には、像ぶれ補正部150は、補正部材1011の平行移動により移動した画像中心の位置を監視する。画像中心とは、レンズの光軸が無偏心な状態でカメラの光軸上を通る光線が撮像素子面と交わる画像上の点である。撮像素子面における画像中心位置は、補正部材1011の移動に伴って移動する。また、光学像の平行移動量と画像中心の平行移動量は当然等価である。高い精度を必要としない場合には、像ぶれ補正部150は補正部材1011の制御情報を直接出力しても良い。   The image blur correction unit 150 controls the position and orientation of the correction member 1011 so as to cancel the image blur. The movement amount of the correction member 1011 is calculated based on the posture and / or position change of the imaging device measured by the posture sensor 140, or image blur caused by the posture and / or position change. The movement of the correction member 1011 is performed by driving a unit including the correction member 1011 with an electromagnetic coil or the like. Further, the image blur correction unit 150 has a function of detecting position and orientation information of the correction member 1011. The image blur correction unit 150 includes a Hall element or an encoder in the configuration, and measures the position and orientation information of the correction member 1011 based on the position on the trajectory of the lens assembly unit that performs optical image stabilization. Specifically, the image blur correction unit 150 monitors the position of the center of the image moved by the parallel movement of the correction member 1011. The image center is a point on the image where a light beam passing on the optical axis of the camera intersects with the imaging element surface in a state where the optical axis of the lens is not decentered. The image center position on the imaging element surface moves with the movement of the correction member 1011. In addition, the translation amount of the optical image and the translation amount of the center of the image are naturally equivalent. When high accuracy is not required, the image blur correction unit 150 may directly output control information of the correction member 1011.

<防振>
まず、光学系のレンズ部の平行移動による光学防振の様子を図3(A)に図示する。被写体106からの光学像が光学系101により撮像素子103面上に結像される。破線は
補正部材1011が像ぶれ補正なしの場合の光路を示す。一方、実線は、像ぶれ補正により補正部材1011が上方へ移動した場合の光路を示す。像ぶれ補正により、被写体像は撮像素子103の中央部に結像する。詳細に言い換えれば、図3(A)の実線で示す状態は、図3(B)に示すように、像ぶれ補正がなければ撮像素子の下方周辺部に結像される被写体の像(点線)を、像ぶれ補正(補正部材の移動)により撮像素子の中央部に結像させた状態である。図3(B)は、像ぶれ補正による光学像の撮像素子上での位置変化を示す。破線のイラストが像ぶれ補正前の像の位置、実線のイラストが像ぶれ補正後の像の位置である。また、×印301は像ぶれ補正前の画像中心の位置、黒丸302が像ぶれ補正後の画像中心の位置である。画像中心とはレンズの光軸が無偏心な状態でカメラの光軸上を通る光線が撮像素子面と交わる画像上の点である。画像中心は、補正部材1011の移動時応じて移動する。つまり画像中心は、像ぶれ補正を行わない場合に仮に画像の中央座標と一致していたとしても、像ぶれ補正による像の移動に応じて移動する。
<Vibration isolation>
First, FIG. 3A illustrates a state of optical image stabilization due to parallel movement of a lens unit of an optical system. An optical image from the subject 106 is formed on the surface of the image sensor 103 by the optical system 101. A broken line indicates an optical path when the correction member 1011 has no image blur correction. On the other hand, a solid line indicates an optical path when the correction member 1011 moves upward due to image blur correction. The subject image is formed at the center of the image sensor 103 by the image blur correction. In other words, the state shown by the solid line in FIG. 3A is, as shown in FIG. 3B, the image of the subject (dotted line) formed on the lower peripheral portion of the image sensor without image blur correction. Is formed in the center of the image sensor by image blur correction (movement of the correction member). FIG. 3B shows a change in position of an optical image on the image sensor due to image blur correction. The illustration of the broken line is the position of the image before image blur correction, and the illustration of the solid line is the position of the image after image blur correction. An X mark 301 indicates the position of the image center before the image blur correction, and a black circle 302 indicates the position of the image center after the image blur correction. The image center is a point on the image where a light ray passing on the optical axis of the camera intersects with the imaging element surface in a state where the optical axis of the lens is not decentered. The center of the image moves in response to the movement of the correction member 1011. That is, the center of the image moves in accordance with the movement of the image due to the image blur correction, even if the image center is coincident with the center coordinates of the image when the image blur correction is not performed.

また図3(C)は、補正部材1011が撮像素子103に含まれる場合(補正部材1011が撮像素子103を移動させる場合)を示す。像ぶれ補正により補正部材1011が移動し、それにより図3(B)と同様に光学像が撮像領域の中央に移動する。図3(D)は図3(C)に示す状況における撮影像303を表す。×印304が像ぶれ補正なしの時の画像中心の位置、黒丸印305が像ぶれ補正時の画像中心の位置を表す。図3(A)の場合とは逆方向に補正部材1011を移動することになるが、図3(D)に示すように得られる効果は図3(C)と同じである。すなわち、補正部材1011が結像光学系101に含まれるか撮像素子103に含まれるかは、補正効果に実質的な相違をもたらさない。したがって以下の説明では、補正部材1011が結像光学系101に含まれるか撮像素子103に含まれるかを区別しない。   FIG. 3C illustrates a case where the correction member 1011 is included in the image sensor 103 (a case where the correction member 1011 moves the image sensor 103). The correction member 1011 is moved by the image blur correction, whereby the optical image is moved to the center of the imaging area as in FIG. FIG. 3D shows a captured image 303 in the situation shown in FIG. An X mark 304 indicates the position of the center of the image without image blur correction, and a black circle 305 indicates the position of the center of the image during image blur correction. Although the correction member 1011 is moved in the opposite direction to the case of FIG. 3A, the effect obtained as shown in FIG. 3D is the same as that of FIG. 3C. In other words, whether the correction member 1011 is included in the imaging optical system 101 or the image sensor 103 does not cause a substantial difference in the correction effect. Therefore, in the following description, it is not distinguished whether the correction member 1011 is included in the imaging optical system 101 or the imaging element 103.

撮像素子103に対する光学像の移動は、画素と換算係数の対応関係の変化を招く。すなわち、像ぶれ補正があると、図4(A)に示すような像ぶれ補正がない場合の換算係数マップをそのまま利用することはできない。そこで、変換係数算出部14は、像ぶれ補正量(光学像の移動量)に基づき、換算係数マップを変化させ、デフォーカス量を算出する画素に適切な換算係数を取得する。   The movement of the optical image with respect to the image sensor 103 causes a change in the correspondence between pixels and conversion coefficients. That is, if there is image blur correction, the conversion coefficient map without image blur correction as shown in FIG. 4A cannot be used as it is. Therefore, the conversion coefficient calculation unit 14 changes the conversion coefficient map based on the image blur correction amount (movement amount of the optical image), and obtains a conversion coefficient appropriate for the pixel for which the defocus amount is calculated.

<換算係数決定処理>
上述のように像ぶれ補正(防振機構)を用いる場合には、距離演算処理において換算係数マップを調整することが必要となる。以下、像ぶれ補正を考慮した場合の測距演算処理(距離情報取得処理)を、図5(A)に示すフローチャートを参照して説明する。
<Conversion coefficient determination processing>
In the case of using the image blur correction (anti-vibration mechanism) as described above, it is necessary to adjust the conversion coefficient map in the distance calculation processing. Hereinafter, the distance measurement calculation processing (distance information acquisition processing) in consideration of image blur correction will be described with reference to the flowchart illustrated in FIG.

ステップS501(画素選択処理)において、演算処理部104は、距離算出を行う画素の撮像素子上の位置を選択する。以下の説明では、ステップS501において選択された画素を、対象画素と称する。   In step S501 (pixel selection processing), the arithmetic processing unit 104 selects the position on the image sensor of the pixel for which distance calculation is to be performed. In the following description, the pixel selected in step S501 is referred to as a target pixel.

ステップS502(像ぶれ補正量取得処理)において、像ぶれ補正量取得部13は、像ぶれ補正部150から像ぶれ補正量を取得する。像ぶれ補正量は、上述したように、撮像素子に対する像の移動量に関連する情報である。像ぶれ補正量は、補正部材1011の移動量であってもよい。   In step S502 (image blur correction amount acquisition processing), the image blur correction amount acquisition unit 13 acquires the image blur correction amount from the image blur correction unit 150. As described above, the image blur correction amount is information related to the amount of movement of the image with respect to the image sensor. The image blur correction amount may be a movement amount of the correction member 1011.

ステップS503(換算係数決定処理)において、変換係数算出部14は、対象画素の変換係数(式(3)に示すように像ズレ量をデフォーカス量に変換するための係数)を決定する。変換係数算出部14は、像ぶれ補正量に基づいて、像ぶれ補正により移動した光学像に応じて換算係数マップを補正する。変換係数算出部14は、補正後の換算係数マップから対象画素の換算係数を決定する。ステップS503の処理は、換算係数を補正する換算係数補正処理と捉えることもできるし、デフォーカス量(距離情報)を補正する距離
情報補正処理と捉えることもできる。
In step S503 (conversion coefficient determination processing), the conversion coefficient calculation unit 14 determines a conversion coefficient of the target pixel (a coefficient for converting an image shift amount into a defocus amount as shown in Expression (3)). The conversion coefficient calculation unit 14 corrects the conversion coefficient map according to the optical image moved by the image blur correction based on the image blur correction amount. The conversion coefficient calculation unit 14 determines a conversion coefficient of the target pixel from the corrected conversion coefficient map. The processing in step S503 can be regarded as a conversion coefficient correction processing for correcting a conversion coefficient, or as distance information correction processing for correcting a defocus amount (distance information).

換算係数マップの補正方法は、像ぶれ補正量の大きさに応じて異ならせることが好ましい。本実施形態では、像ぶれ補正量が(1)小さい場合、(2)やや大きい場合、(3)大きい場合ごとに処理を異ならせる。以下では、まず、それぞれの場合の処理について説明し、その後に場合分けの基準となる像ぶれ補正量の閾値について説明する。   It is preferable that the method of correcting the conversion coefficient map be changed depending on the magnitude of the image blur correction amount. In the present embodiment, the processing is different for each case where the image blur correction amount is (1) small, (2) slightly large, and (3) large. In the following, the processing in each case will be described first, and then the threshold value of the image blur correction amount, which will be a reference for classification, will be described.

[1.像ぶれ補正量が小さい場合]
像ぶれ補正量が小さい場合には、像ぶれ補正量が0の状態に関する換算係数マップを撮像面上の画素の移動量に基づいて平行移動すればよい。図4(A)は、像ぶれ補正量が0の状態に関する換算係数マップを示し、図4(B)は補正後の換算係数マップを示す。この例では、像ぶれ補正量(x,y)=(1,0)としている。この場合、補正後の換算係数マップをK'(x,y)とすると、K'(x,y)=K(x+1, y)となる。
[1. When the amount of image blur correction is small]
When the image blur correction amount is small, the conversion coefficient map relating to the state where the image blur correction amount is 0 may be translated based on the movement amount of the pixel on the imaging surface. FIG. 4A shows a conversion coefficient map for a state where the image blur correction amount is 0, and FIG. 4B shows a conversion coefficient map after correction. In this example, the image blur correction amount (x, y) = (1, 0). In this case, assuming that the corrected conversion coefficient map is K '(x, y), K' (x, y) = K (x + 1, y).

像ぶれ補正量は連続的に変化するため、換算係数マップの移動量はサブピクセル値となりうる。その際は補間を用いて換算係数マップを再作成すればよい。この際、変換係数算出部14は、出力マップのデータに欠陥が生じないよう、出力マップ座標に基づき入力マップデータのサンプリング及び補間を行うバックワードマッピングによりマップの再作成を実現する。補間手法は特に限定されない。変換係数算出部14は、補間手法に応じて、演算した入力マップ上のサンプリング座標の近傍の画素値を用いて補間処理をおこなう。補間処理には例えば4近傍を用いて線形補間を行うバイリニア補間処理、16近傍を用いて3次補間をおこなうバイキュービック補間処理などが利用可能である。   Since the amount of image blur correction changes continuously, the amount of movement of the conversion coefficient map can be a sub-pixel value. In that case, the conversion coefficient map may be re-created using interpolation. At this time, the conversion coefficient calculation unit 14 realizes the re-creation of the map by backward mapping which performs sampling and interpolation of the input map data based on the output map coordinates so that no defect occurs in the data of the output map. The interpolation method is not particularly limited. The conversion coefficient calculation unit 14 performs an interpolation process using a pixel value near the sampling coordinates on the input map calculated according to the interpolation method. For the interpolation processing, for example, bilinear interpolation processing for performing linear interpolation using four neighbors, bicubic interpolation processing for performing cubic interpolation using sixteen neighbors, and the like can be used.

図5(C)を用いて、典型的な例としてバイリニア補間を説明する。黒丸601は、出力マップ上の或る画素の、入力マップ上での対応点(サンプリング点)を示す。サンプリング点のx座標およびy座標は、一般に非整数である。変換係数算出部14は、サンプリング座標を中心とする周辺の4つの入力マップデータ(白丸で示すデータ)を用いて、バイリニア補間により出力マップのデータを求める。具体的には、変換係数算出部14は、メモリから4近傍すなわち([x],[y]),([x+1],[y]),([x],[y+1]),([x+1],[y+1])の4点の入力マップデータを読み出す。なお、[x]は値xの整数部分を表す。そして、変換係数算出部14は、以下の式にしたがって、出力マップのマップ値を計算する。

Figure 0006628678
Referring to FIG. 5C, bilinear interpolation will be described as a typical example. A black circle 601 indicates a corresponding point (sampling point) of a certain pixel on the output map on the input map. The x and y coordinates of a sampling point are generally non-integers. The conversion coefficient calculation unit 14 obtains output map data by bilinear interpolation using four input map data (data indicated by white circles) around the sampling coordinates. More specifically, the conversion coefficient calculation unit 14 calculates four neighbors from the memory, that is, ([x], [y]), ([x + 1], [y]), ([x], [y + 1]), ([x + 1 , [Y + 1]) are read. [X] represents an integer part of the value x. Then, the conversion coefficient calculator 14 calculates the map value of the output map according to the following equation.
Figure 0006628678

ここで、K(x,y)は入力マップ(すなわち、像ぶれ補正量が0の換算係数マップ)であり、K'(x,y)は出力マップ(すなわち、像ぶれ補正を考慮した換算係数マップ)である。   Here, K (x, y) is an input map (that is, a conversion coefficient map in which the image blur correction amount is 0), and K ′ (x, y) is an output map (that is, a conversion coefficient map in consideration of the image blur correction). Map).

上記処理を順次行うことにより換算係数マップを補間できる。ただし、実際には、換算係数マップ全体を再作成する必要はなく、ステップS501(画素選択処理)において取得した対象画素の位置の換算係数のみを求めれば十分である。   By sequentially performing the above processing, the conversion coefficient map can be interpolated. However, in practice, it is not necessary to re-create the entire conversion coefficient map, and it is sufficient to obtain only the conversion coefficient of the position of the target pixel acquired in step S501 (pixel selection processing).

[2.像ぶれ補正量がやや大きい場合]
像ぶれ補正量が少し大きくなると、補正部材1011の移動により光学像の平行移動に偏心歪曲収差の影響が加わる。したがって、像は単に平行移動するではなく、拡大縮小や
あおりのような幾何変形も生じる。ただし、像ぶれ補正による光学像の移動がそれほど大きくない場合、光量の変化は小さいため、近似的には換算係数マップの幾何変換(一般には射影変換)により、光学像の移動に対応する換算係数マップの再作成を行うことができる。つまり、変換係数算出部14は、光学像の並進移動や拡大縮小・あおりの動きに合わせて、像ぶれ補正量が0の場合の換算係数マップを変形させる。
[2. When the amount of image blur correction is slightly large]
When the image blur correction amount is slightly increased, the movement of the correction member 1011 exerts an influence of eccentric distortion on the parallel movement of the optical image. Therefore, the image does not simply move in parallel, but also undergoes geometric deformation such as scaling and tilt. However, when the movement of the optical image due to the image blur correction is not so large, the change in the light amount is small. Therefore, the conversion coefficient corresponding to the movement of the optical image is approximated by geometric conversion (generally, projective conversion) of the conversion coefficient map. You can recreate the map. That is, the conversion coefficient calculation unit 14 deforms the conversion coefficient map when the image blur correction amount is 0 in accordance with the translational movement of the optical image and the movement of enlargement / reduction and tilt.

[3.像ぶれ補正量が大きい場合]
像ぶれ補正量がさらに大きい場合は、光学像の幾何学的な変形による光量の変化が無視できなくなる。この場合には、光学系101のズームステート、被写体距離、絞り値のみならず、像ぶれ補正量のx,yのパラメータ毎に像高に対する換算係数マップを事前に作成
し保持しておけば対応可能である。変換係数算出部14は、条件が一致する換算係数マップを取得して、対象画素に適用する換算係数を決定すればよい。
[3. When the amount of image blur correction is large]
When the amount of image blur correction is even larger, a change in the amount of light due to geometric deformation of the optical image cannot be ignored. In this case, if not only the zoom state of the optical system 101, the object distance, and the aperture value, but also a conversion coefficient map for the image height for each of the x and y parameters of the image blur correction amount is created and held in advance. It is possible. The conversion coefficient calculation unit 14 may obtain a conversion coefficient map that satisfies the condition and determine the conversion coefficient to be applied to the target pixel.

もしくは、換算係数マップを像ぶれ補正量に応じて変形させても良い。そのために、例えば像ぶれ補正量の変化に伴う各像位置における換算係数の変化を、超平面のフィッティング関数の係数(フィッティングパラメータ)として保持しておく。変換係数算出部14は、換算係数マップにフィッティング関数を適用して変形することで像ぶれ補正量に対応した換算係数マップを取得することもできる。   Alternatively, the conversion coefficient map may be modified according to the image blur correction amount. For this purpose, for example, a change in the conversion coefficient at each image position due to a change in the image blur correction amount is stored as a coefficient (fitting parameter) of a fitting function of the hyperplane. The conversion coefficient calculation unit 14 can also obtain a conversion coefficient map corresponding to the image blur correction amount by applying a fitting function to the conversion coefficient map and deforming it.

また、複数の像ぶれ補正量について換算係数マップを事前に作成・格納しておき、実際の像ぶれ補正量に最も近い換算係数マップに基づいて、上記(1)または(2)の処理を施して、対象画素に適用する換算係数を決定してもよい。すなわち、複数の所定の像ぶれ補正量に対して像面内の位置に応じた換算係数マップをメモリに保持しておき、変換係数算出部14は、実際の像ぶれ補正量に最も近い換算係数マップを平行移動または射影変換して対象画素に適用する換算係数を決定してもよい。   Also, a conversion coefficient map is created and stored in advance for a plurality of image blur correction amounts, and the above-described processing (1) or (2) is performed based on the conversion coefficient map closest to the actual image blur correction amount. Thus, the conversion coefficient applied to the target pixel may be determined. That is, the conversion coefficient map corresponding to the position in the image plane for a plurality of predetermined image blur correction amounts is stored in the memory, and the conversion coefficient calculation unit 14 determines the conversion coefficient closest to the actual image blur correction amount. The conversion coefficient applied to the target pixel may be determined by translating or projecting the map.

[場合分けの基準について]
以上のように、像ぶれ補正量の大きさに応じて処理を異ならせることが好ましい。ここで、場合分けの基準となる像ぶれ量の閾値は、結像光学系101によって異なるので、適当な手法で決定すればよい。たとえば、距離が既知の種々の被写体を対象として、種々の像ぶれ補正量を適用した場合に、上記3つの処理により距離情報を求める。第1の手法による測距誤差が許容範囲以上となる像ぶれ補正量を、「像ぶれ補正量が小さい」場合と「像ぶれ補正量がやや大きい」場合を区別する第1の閾値として決定できる。同様に、第2の手法よる測距誤差が許容範囲以上となる像ぶれ補正量を、「像ぶれ補正量がやや大きい」場合と「像ぶれ補正量が大きい」場合を区別する第2の閾値として決定できる。
[Criteria for classification]
As described above, it is preferable to make the processing different depending on the magnitude of the image blur correction amount. Here, the threshold value of the amount of image blur, which is a reference for classification, differs depending on the imaging optical system 101, and may be determined by an appropriate method. For example, when various image blur correction amounts are applied to various subjects with known distances, distance information is obtained by the above three processes. The image blur correction amount in which the distance measurement error by the first method is equal to or larger than the allowable range can be determined as a first threshold value for distinguishing between a case where the image blur correction amount is small and a case where the image blur correction amount is slightly large. . Similarly, the image blur correction amount in which the distance measurement error by the second method is equal to or larger than the allowable range is determined by a second threshold value for distinguishing between a case where the image blur correction amount is slightly large and a case where the image blur correction amount is large. Can be determined as

変換係数算出部14は、像ぶれ補正量が第1の閾値以下のときは第1の手法を、第1の閾値よりも大きく第2の閾値以下のときは第2の手法を、第2の閾値よりも大きいときは第3の手法に従って換算係数を取得する。像ぶれ補正量が閾値以下のときと閾値より大きい場合で処理を変えることと、像ぶれ補正量が閾値より小さいときと閾値以上の場合で処理を変えることは技術的に同義である。したがって、像ぶれ補正量が閾値以下か否かを判定する代わりに、像ぶれ補正量が閾値より小さいか否かを判定してもよい。   The conversion coefficient calculation unit 14 performs the first method when the image blur correction amount is equal to or less than the first threshold, the second method when the image blur correction amount is larger than the first threshold and equal to or less than the second threshold, and When it is larger than the threshold value, the conversion coefficient is obtained according to the third method. It is technically equivalent to change the processing when the image blur correction amount is equal to or less than the threshold value and when the image blur correction amount is larger than the threshold value and to change the processing when the image blur correction amount is smaller than the threshold value and when the image blur correction amount is equal to or more than the threshold value. Therefore, instead of determining whether or not the image blur correction amount is equal to or less than the threshold value, it may be determined whether the image blur correction amount is smaller than the threshold value.

ステップS504の像ズレ量算出処理は、図2におけるステップS201と同様の処理であるため、説明を省略する。ステップS505(距離算出処理)では、距離算出部15は、ステップS503にて取得した換算係数の値を用いて式(3)により、像ズレ量からデフォーカス量を算出する。   The image shift amount calculation processing in step S504 is the same processing as step S201 in FIG. In step S505 (distance calculation processing), the distance calculation unit 15 calculates the defocus amount from the image shift amount using Expression (3) using the value of the conversion coefficient acquired in step S503.

像ぶれ補正量が0の状態に対する換算係数マップは、例えば、以下のように決定できる。まず、結像光学系の状態(焦点距離や絞り、フォーカス距離、デフォーカス量)や撮像
素子103上の測距画素の位置(像高)などの所定の測距条件において、既知の距離にある様々な被写体を撮影する。各被写体から取得した信号から、像ズレ量と所定の算出式により換算係数マップを算出する。さらに、各被写体の実際の距離と、像ズレ量及び換算係数から求まる距離が近くなるように、換算係数の調整を行う。あるいは、同様の手法を結像光学系101や距離測定装置102の設計値を元にした数値シミュレーションで行うことにより、換算係数マップを決定してもよい。
The conversion coefficient map for the state where the image blur correction amount is 0 can be determined as follows, for example. First, a predetermined distance measurement condition such as the state of the imaging optical system (focal length, aperture, focus distance, defocus amount) and the position (image height) of a distance measurement pixel on the image sensor 103 is at a known distance. Shoot various subjects. A conversion coefficient map is calculated from a signal acquired from each subject by an image shift amount and a predetermined calculation formula. Further, the conversion coefficient is adjusted so that the actual distance of each subject is shorter than the distance obtained from the image shift amount and the conversion coefficient. Alternatively, the conversion coefficient map may be determined by performing a similar method by numerical simulation based on the design values of the imaging optical system 101 and the distance measurement device 102.

(実施形態2)
撮像素子面の倒れや球面収差、軸上色収差などの影響を受け、デフォーカス量がゼロになるべきベストピント位置でも像ズレ量はゼロとはならないことがある。また、ベストピント位置はRGB画素や像高によって異なることもある。測距演算処理においては、式(5)のように係数Mを採用することで、この影響を補正できる。

Figure 0006628678
(Embodiment 2)
The image shift amount may not become zero even at the best focus position where the defocus amount should become zero due to the influence of the tilt of the image sensor surface, spherical aberration, axial chromatic aberration, and the like. Also, the best focus position may differ depending on the RGB pixel and the image height. In the distance measurement calculation process, this effect can be corrected by using the coefficient M as in Expression (5).
Figure 0006628678

この場合、補正値Mも像高に応じて異なる値となる。つまり、像高によるベストピント位置のずれを考慮して、デフォーカス量を誤差を小さく求めるためには、基線長に関連する係数Kとベストピント位置の補正量Mをメモリ105に蓄えておく必要がある。本実施形態では、メモリ105に、係数Kと係数Mからなる2要素のベクトルパラメータを、図6のように画素位置に応じた2次元テーブルとしてメモリ105に蓄える。すなわち、本実施形態では、ベクトルパラメータ(K,M)が換算係数に相当し、係数Kおよび係数Mを画素位置ごとに格納したテーブルT(x,y)=(K(x,y),M(x,y))が換算係数マップに相当する。   In this case, the correction value M is also different depending on the image height. That is, in order to obtain a small error in the defocus amount in consideration of the deviation of the best focus position due to the image height, it is necessary to store the coefficient K relating to the base line length and the correction amount M of the best focus position in the memory 105. There is. In the present embodiment, two-element vector parameters consisting of a coefficient K and a coefficient M are stored in the memory 105 as a two-dimensional table corresponding to the pixel position as shown in FIG. That is, in the present embodiment, the vector parameter (K, M) corresponds to a conversion coefficient, and a table T (x, y) = (K (x, y), M) storing the coefficient K and the coefficient M for each pixel position. (X, y)) corresponds to the conversion coefficient map.

本実施形態における測距演算処理のフローチャートを図7に示す。図7に示すように、処理内容は実施形態1と同様である。   FIG. 7 shows a flowchart of the distance measurement calculation process in the present embodiment. As shown in FIG. 7, the processing content is the same as in the first embodiment.

本実施形態では、ステップS603(換算係数決定処理)において、ステップS501で選択した対象画素に対応する換算係数(K,M)を決定する処理を行う。具体的な処理は、実施形態1と実質的に同様である。すなわち、像ぶれ補正量が0の場合の換算係数マップを、ステップS502に取得した像ぶれ補正量に応じて補正すればよい。この場合も、実施形態1と同様に、像ぶれ補正量の大きさに応じて異なる処理により換算係数マップを補正することが好ましい。   In the present embodiment, in step S603 (conversion coefficient determination processing), processing for determining a conversion coefficient (K, M) corresponding to the target pixel selected in step S501 is performed. Specific processing is substantially the same as in the first embodiment. That is, the conversion coefficient map when the image blur correction amount is 0 may be corrected according to the image blur correction amount acquired in step S502. Also in this case, similarly to the first embodiment, it is preferable to correct the conversion coefficient map by different processing according to the magnitude of the image blur correction amount.

ステップS605(距離算出処理)では、距離算出部15は、ステップS603にて取得した換算係数の値を用いて式(5)により、像ズレ量からデフォーカス量を算出する。   In step S605 (distance calculation processing), the distance calculation unit 15 calculates the defocus amount from the image shift amount by using Expression (5) using the value of the conversion coefficient acquired in step S603.

像ぶれ補正量が0の状態に対応する換算係数マップ(K,M)は、例えば、以下のように決定できる。まず、結像光学系の状態(焦点距離や絞り、フォーカス距離、デフォーカス量)や撮像素子103上の測距画素の位置(像高)などの所定の測距条件において、既知の距離にある様々な被写体を撮影する。各被写体から取得した信号から、像ズレ量と所定の算出式により換算係数マップ(K,M)を算出する。各被写体の実際の距離と、像ズレ量及び換算係数(K,M)から求まる距離が近くなるように、換算係数(K,M)の調整を行う。あるいは、同様の手法を結像光学系101や距離測定装置102の設計値を元にした数値シミュレーションで行うことにより、換算係数マップ(K,M)を決定してもよい。   The conversion coefficient map (K, M) corresponding to the state where the image blur correction amount is 0 can be determined as follows, for example. First, a predetermined distance measurement condition such as the state of the imaging optical system (focal length, aperture, focus distance, defocus amount) and the position (image height) of a distance measurement pixel on the image sensor 103 is at a known distance. Shoot various subjects. A conversion coefficient map (K, M) is calculated from a signal acquired from each subject by an image shift amount and a predetermined calculation formula. The conversion coefficients (K, M) are adjusted so that the actual distance of each subject and the distance obtained from the image shift amount and the conversion coefficients (K, M) become shorter. Alternatively, the conversion coefficient map (K, M) may be determined by performing a similar method by numerical simulation based on the design values of the imaging optical system 101 and the distance measuring device 102.

(実施形態3)
実施形態1,2においては、鏡筒枠によるケラレや収差がない場合を基本的に想定して
いる。しかし、撮像レンズの小型化の要請から通常の撮像用の光学系ではレンズ枠で光束がけられるいわゆる口径食が発生し,絞り内を通過した光束が全て撮像素子に導かれることはない。この影響により、瞳上での透過率分布の重心間隔である基線長Wの値および関連する換算係数Kも像高に応じて異なる値となる。加えて、デフォーカス算出画素が周辺画素になるにつれA像・B像間の像の違いが大きくなり、これを考慮する必要性が高まる。
(Embodiment 3)
In the first and second embodiments, it is basically assumed that there is no vignetting or aberration due to the lens barrel. However, in a normal imaging optical system, a so-called vignetting, in which a light beam is cut off by a lens frame, occurs due to a demand for miniaturization of an imaging lens, and the light beam that has passed through the inside of the diaphragm is not guided to the image sensor. Due to this effect, the value of the base line length W, which is the distance between the centers of gravity of the transmittance distribution on the pupil, and the associated conversion coefficient K also have different values depending on the image height. In addition, as the defocus calculation pixel becomes a peripheral pixel, the image difference between the A image and the B image increases, and the necessity of taking this into account increases.

図8は撮像素子103の要部上面図である。ここでは撮像素子103の中心を通り、光電変換部1101と光電変換部1102の各中心点を結ぶ方向に垂直な線分1031を境界として、撮像素子領域1032と撮像素子領域1033とする。撮像素子領域1032(第二の撮像素子領域)では、第二の瞳領域を通過した光束を受光する光電変換部1102を第一の光電変換部とし、光電変換部1101を第二の光電変換部としている。一方、領域1033(第一の撮像素子領域)では、第一の瞳領域を通過した光束を受光する光電変換部1101を第一の光電変換部とし、光電変換部1102を第二の光電変換部とする。   FIG. 8 is a top view of a main part of the image sensor 103. Here, an image sensor region 1032 and an image sensor region 1033 are set with a line segment 1031 passing through the center of the image sensor 103 and perpendicular to a direction connecting the center points of the photoelectric conversion unit 1101 and the photoelectric conversion unit 1102 as a boundary. In the imaging element region 1032 (second imaging element region), the photoelectric conversion unit 1102 that receives a light beam that has passed through the second pupil region is a first photoelectric conversion unit, and the photoelectric conversion unit 1101 is a second photoelectric conversion unit. And On the other hand, in a region 1033 (first imaging element region), the photoelectric conversion unit 1101 that receives a light beam that has passed through the first pupil region is a first photoelectric conversion unit, and the photoelectric conversion unit 1102 is a second photoelectric conversion unit. And

図9(A)は、撮像素子103の中心付近に配置された測距画素110における光電変換部1102に対応する射出瞳130上での瞳透過率分布を表わし、第二の瞳領域に対応する.黒いほど透過率が高く、白いほど透過率が低い。同様に、図9(B)は撮像素子103の中心付近に配置された測距画素110における光電変換部1101に対応する射出瞳130上での瞳透過率分布を表わす。   FIG. 9A illustrates a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1102 in the distance measurement pixel 110 arranged near the center of the image sensor 103, and corresponds to the second pupil region. . The blacker the transmittance is higher, and the whiter the transmittance is lower. Similarly, FIG. 9B shows a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1101 in the ranging pixels 110 arranged near the center of the image sensor 103.

図9(C)は、撮像素子103の中心付近の測距画素110について、x軸断面における透過率分布を表わしたもので、横軸がx軸座標、縦軸が透過率である。実線が光電変換部1102に対応する透過率分布(第二の瞳領域に対応)、点線が光電変換部1101に対応する透過率分布(第一の瞳領域に対応)である。瞳透過率分布は、光電変換部、マイクロレンズと射出瞳の位置関係およびマイクロレンズの収差・回折・撮像素子の入射面から光電変換部に至る光路中の光散乱・吸収などの光伝播状態により決まる。   FIG. 9C shows the transmittance distribution in the x-axis cross section of the distance measurement pixel 110 near the center of the image sensor 103, where the horizontal axis is the x-axis coordinate and the vertical axis is the transmittance. The solid line is the transmittance distribution corresponding to the photoelectric conversion unit 1102 (corresponding to the second pupil region), and the dotted line is the transmittance distribution corresponding to the photoelectric conversion unit 1101 (corresponding to the first pupil region). The pupil transmittance distribution depends on the positional relationship between the photoelectric conversion unit, the microlens and the exit pupil, and the light propagation conditions such as aberration, diffraction of the microlens, and light scattering and absorption in the optical path from the entrance surface of the image sensor to the photoelectric conversion unit. Decided.

図9(D)は撮像素子領域1032の測距画素110における光電変換部1102に対応する射出瞳130上での瞳透過率分布を表わし、第二の瞳領域に対応する。図9(E)は撮像素子領域1032の測距画素110における光電変換部1101に対応する射出瞳130上での瞳透過率分布を表わし、第一の瞳領域に対応する。図9(F)は撮像素子領域1032の測距画素110についてx軸断面における透過率分布を表わしたものである。   FIG. 9D illustrates a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1102 in the distance measurement pixel 110 in the imaging element region 1032, and corresponds to a second pupil region. FIG. 9E shows a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1101 in the distance measurement pixel 110 in the imaging element region 1032, and corresponds to the first pupil region. FIG. 9F shows the transmittance distribution in the x-axis cross section of the distance measurement pixel 110 in the imaging element region 1032.

一般に、周辺像高では、撮像レンズの小型化の要請からレンズ枠で光束がけられるいわゆる口径食が発生し、絞り内を通過した光束が全て撮像素子に導かれることはない。瞳上で片側から口径食が発生するため、元の透過率分布の形状に応じて、透過効率の変化量が異なる。図9(D)に示すように、口径食が発生する領域130aが、元の透過率が高い領域の場合は透過効率の低下量が大きい。一方、図9(E)に示すように、口径食が発生する領域130aが、元の透過率が低い領域の場合は透過効率の低下量は小さい。よって、撮像素子領域1032の測距画素110においては、像高が高くなるに従い、第二の瞳領域の透過率分布は第一の瞳領域の透過率分布と比べ、けれられがない場合に対して形状が欠損により大きく変化する。したがって、重心位置が変わり、基線長が短くなる方向に変化してしまう。   In general, at the peripheral image height, so-called vignetting occurs in which a light beam is cut off by the lens frame due to a demand for downsizing of the imaging lens, and all the light beam that has passed through the inside of the diaphragm is not guided to the image sensor. Since vignetting occurs from one side on the pupil, the amount of change in transmission efficiency varies depending on the shape of the original transmittance distribution. As shown in FIG. 9D, when the region 130a where vignetting occurs is a region where the original transmittance is high, the amount of decrease in transmission efficiency is large. On the other hand, as shown in FIG. 9E, when the area 130a where vignetting occurs is an area where the original transmittance is low, the amount of decrease in transmission efficiency is small. Therefore, in the ranging pixels 110 of the imaging element region 1032, as the image height increases, the transmittance distribution of the second pupil region is smaller than the transmittance distribution of the first pupil region. The shape changes greatly due to the loss. Therefore, the position of the center of gravity changes, and the base line length changes in the direction of shortening.

図9(G)は撮像素子領域1033の測距画素110における光電変換部1102に対応する射出瞳130上での瞳透過率分布を表わし、第二の瞳領域に対応する。図9(H)は撮像素子領域1033の測距画素110における光電変換部1101に対応する射出瞳
130上での瞳透過率分布を表わし、第一の瞳領域に対応する。図9(I)は撮像素子領域1033の測距画素についてx軸断面における透過率分布を表わしたものである。
FIG. 9G illustrates a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1102 in the distance measurement pixel 110 in the imaging element region 1033, and corresponds to a second pupil region. FIG. 9H illustrates a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1101 in the distance measurement pixel 110 in the imaging element region 1033, and corresponds to the first pupil region. FIG. 9I shows the transmittance distribution in the x-axis cross section of the distance measurement pixels in the image sensor region 1033.

撮像素子領域1032と同様に、撮像素子領域1033の測距画素110においては、像高が高くなるに従い、第一の瞳領域の透過率分布は第二の瞳領域の透過率分布と比べ、けれられがない場合に対して形状が欠損により大きく変化する。したがって、重心位置が変わり、基線長が短くなる方向に変化してしまう。   As in the image sensor region 1032, in the ranging pixels 110 in the image sensor region 1033, as the image height increases, the transmittance distribution of the first pupil region is more blurred than the transmittance distribution of the second pupil region. The shape changes greatly due to the loss compared to the case where there is no gap. Therefore, the position of the center of gravity changes, and the base line length changes in the direction of shortening.

以上のように、各光電変換部の瞳感度分布の重心位置間の長さである重心間隔は像高(画素位置)に応じて異なり、基線長Wの値も像高に応じて異なる値となる。そのため、精度の高い測距を行うためには式(2)または式(5)を用いた距離算出処理において、像高に応じた基線長の値を用いる必要がある。   As described above, the distance between the centers of gravity, which is the length between the positions of the centers of gravity of the pupil sensitivity distributions of the photoelectric conversion units, differs depending on the image height (pixel position), and the value of the base line length W also differs depending on the image height. Become. Therefore, in order to perform highly accurate ranging, it is necessary to use the value of the base line length according to the image height in the distance calculation processing using Expression (2) or Expression (5).

このように、撮像素子上の画素の位置に応じた受光量分布の値の変化量と、基線長W、もしくは関連する換算係数には対応がある。   As described above, the amount of change in the value of the received light amount distribution according to the position of the pixel on the image sensor corresponds to the base line length W or the related conversion coefficient.

<像修正>
撮像レンズの枠などによる光束のケラレがあると、A像とB像を各々形成する光学系の開口関数が異なってくるため、A像とB像は互いに異なる形状となり、測距精度が悪化する。そこで、公知の手法を用いて像修正処理を行う。像ぶれ補正がOFFのときの基本的な像修正処理を用いた測距方法については特開2013−222183号公報(特許文献3)に公開されている。
<Image correction>
If there is vignetting of the light beam due to the frame of the imaging lens or the like, the aperture functions of the optical systems that form the A image and the B image are different, so that the A image and the B image have different shapes, and the distance measurement accuracy deteriorates. . Therefore, an image correction process is performed using a known method. A ranging method using basic image correction processing when image blur correction is OFF is disclosed in Japanese Patent Application Laid-Open No. 2013-222183 (Patent Document 3).

像修正フィルタは像修正関数を元に作成される。像修正関数は、例えば、第1の瞳領域あるいは第2の瞳領域に対応する線像分布関数とする。A像およびB像と、像修正フィルタLa´、Lb´を用いて、像形状を修正したA´像およびB´像を作成する。A像の一次元信号A[x]に、像修正フィルタLb´[x]を、畳み込み積分することで、A´[x]を作成する。B像についても同様に、B像の一次元信号B[x]に像修正フィルタLa´(x)を、畳み込み積分することで、B´[x]を作成する。像修正フィルタは、例えば9×1の多次元ベクトルのフィルタ係数(f1,…,f9)から構成され、像高に応じて事前計算されている。   The image correction filter is created based on the image correction function. The image correction function is, for example, a line image distribution function corresponding to the first pupil region or the second pupil region. Using the A image and the B image and the image correction filters La ′ and Lb ′, an A ′ image and a B ′ image whose image shapes are corrected are created. The image correction filter Lb '[x] is convolution-integrated with the one-dimensional signal A [x] of the A image, thereby creating A' [x]. Similarly, for the B image, the image correction filter La ′ (x) is convolution-integrated with the one-dimensional signal B [x] of the B image to create B ′ [x]. The image correction filter is composed of, for example, 9 × 1 multidimensional vector filter coefficients (f1,..., F9), and is calculated in advance according to the image height.

しかしながら、像ぶれ補正による光像の移動に従い像修正フィルタの対応像高も移動するため、換算係数と同様に、像ぶれ補正量に応じて幾何変換をかけてマップを補正しなければならない。像ぶれ補正を考慮した、像修正処理を測距演算処理のフローチャートの一例を図10に示す。   However, since the corresponding image height of the image correction filter also moves in accordance with the movement of the optical image due to the image blur correction, the map must be corrected by performing a geometric transformation according to the image blur correction amount, similarly to the conversion coefficient. FIG. 10 shows an example of a flowchart of the distance measurement calculation process in the image correction process in consideration of the image blur correction.

ステップS701の画素選択処理およびステップS702の防振補正量取得処理は、実施形態1のステップS501およびステップS503と同様であるため、説明を省略する。   The pixel selection processing in step S701 and the image stabilization correction amount acquisition processing in step S702 are the same as steps S501 and S503 in the first embodiment, and a description thereof will not be repeated.

ステップS703の換算係数・像修正係数取得処理では、実施形態1のステップS504もしくは実施形態2のステップS604とほぼ同等な処理により換算係数を取得する。本実施形態では、さらに像ぶれ補正量に基づき像高について関連付けられた像修正フィルタ係数マップに幾何変形を行い、変換後の像修正フィルタ係数マップから選択画素に対応した像修正フィルタ係数を取得する。メモリへの保存容量を減らすため、像ぶれ補正量に応じたフィルタ係数の変化を多項式係数等で別途保存し、この多項式を用いた演算によりフィルタ係数を取得しても良い。これにより、像ぶれ補正量に対応する像修正フィルタ係数マップの保存数を限定できる。   In the conversion coefficient / image correction coefficient acquisition processing in step S703, the conversion coefficient is acquired by processing that is substantially the same as step S504 in the first embodiment or step S604 in the second embodiment. In the present embodiment, the image correction filter coefficient map associated with the image height is further geometrically deformed based on the image blur correction amount, and the image correction filter coefficient corresponding to the selected pixel is obtained from the converted image correction filter coefficient map. . In order to reduce the storage capacity in the memory, a change in the filter coefficient according to the image blur correction amount may be separately stored as a polynomial coefficient or the like, and the filter coefficient may be obtained by an operation using this polynomial. Thus, the number of saved image correction filter coefficient maps corresponding to the amount of image blur correction can be limited.

なお、メモリ105にはあらかじめ、像ぶれ補正量が0のときの換算係数とフィルタ係数が、結像光学系101の撮影条件(F値、射出瞳距離)ごとに格納される。図11は、換算係数とフィルタ係数が画素位置に応じた2次元テーブルとしてメモリ105に格納される様子を示す図である。ここで、T1=(f1,…,fn)はフィルタ係数のベクトルを表し、T2=(K,M)は換算係数のベクトルを表す。ステップS703においては、画素位置に応じた2次元テーブルが、実施形態2と同様に、像ぶれ補正量に応じて幾何変形される。   The conversion coefficient and the filter coefficient when the image blur correction amount is 0 are stored in advance in the memory 105 for each imaging condition (F value, exit pupil distance) of the imaging optical system 101. FIG. 11 is a diagram showing how the conversion coefficient and the filter coefficient are stored in the memory 105 as a two-dimensional table corresponding to the pixel position. Here, T1 = (f1,..., Fn) represents a filter coefficient vector, and T2 = (K, M) represents a conversion coefficient vector. In step S703, the two-dimensional table corresponding to the pixel position is geometrically deformed according to the image blur correction amount, as in the second embodiment.

ステップS704の像修正処理は、ステップS703で得られる像修正フィルタを用いて、A像とB像を修正した像であるA´像とB´像が作成される。像修正フィルタは像修正関数を元に作成される。像修正関数は、例えば、第1の瞳領域あるいは第2の瞳領域に対応する線像分布関数とする。A像およびB像と、像修正フィルタLa´、Lb´を用いて、像形状を修正したA´像およびB´像を作成する。A像の一次元信号A[x]に、像修正フィルタLb´[x]を、畳み込み積分することで、A´[x]を作成する。B像についても同様に、B像の一次元信号B[x]に像修正フィルタLa´(x)を、畳み込み積分することで、B´[x]を作成する。   In the image correction processing in step S704, the A ′ image and the B ′ image, which are images obtained by correcting the A image and the B image, are created using the image correction filter obtained in step S703. The image correction filter is created based on the image correction function. The image correction function is, for example, a line image distribution function corresponding to the first pupil region or the second pupil region. Using the A image and the B image and the image correction filters La ′ and Lb ′, an A ′ image and a B ′ image whose image shapes are corrected are created. The image correction filter Lb '[x] is convolution-integrated with the one-dimensional signal A [x] of the A image, thereby creating A' [x]. Similarly, for the B image, the image correction filter La ′ (x) is convolution-integrated with the one-dimensional signal B [x] of the B image to create B ′ [x].

ステップS705の像ズレ量算出処理は、像修正処理後のA像およびB像(すなわちA´像およびB´像)を用いる点を除けば、実施形態1のステップS502と同等である。ステップS706の距離算出処理は、実施形態1のステップS505もしくは実施形態2のS605の距離算出処理と同等であり、ステップS705の換算係数取得処理で取得した換算係数の値を用いて式(2)あるいは式(5)による測距演算処理が行われる。   The image shift amount calculation processing in step S705 is the same as step S502 in the first embodiment except that the A and B images after the image correction processing (that is, the A ′ image and the B ′ image) are used. The distance calculation processing in step S706 is the same as the distance calculation processing in step S505 in the first embodiment or S605 in the second embodiment, and uses the conversion coefficient value acquired in the conversion coefficient acquisition processing in step S705 to obtain the equation (2). Alternatively, the distance measurement calculation processing according to the equation (5) is performed.

像ぶれ補正量が0の状態に対応する換算係数マップ(K,M)は、例えば、以下のように決定できる。まず、結像光学系の状態(焦点距離や絞り、フォーカス距離、デフォーカス量)や撮像素子103上の測距画素の位置(像高)などの所定の測距条件において、既知の距離にある様々な被写体を撮影する。各被写体から取得した信号から、像ズレ量と所定の算出式により換算係数マップ(K,M)を算出する。各被写体の実際の距離と、像ズレ量及び換算係数(K,M)から求まる距離が近くなるように、換算係数(K,M)の調整を行う。あるいは、同様の手法を結像光学系101や距離測定装置102の設計値を元にした数値シミュレーションで行うことにより、換算係数マップ(K,M)を決定してもよい。   The conversion coefficient map (K, M) corresponding to the state where the image blur correction amount is 0 can be determined as follows, for example. First, a predetermined distance measurement condition such as the state of the imaging optical system (focal length, aperture, focus distance, defocus amount) and the position (image height) of a distance measurement pixel on the image sensor 103 is at a known distance. Shoot various subjects. A conversion coefficient map (K, M) is calculated from a signal acquired from each subject by an image shift amount and a predetermined calculation formula. The conversion coefficients (K, M) are adjusted so that the actual distance of each subject and the distance obtained from the image shift amount and the conversion coefficients (K, M) become shorter. Alternatively, the conversion coefficient map (K, M) may be determined by performing a similar method by numerical simulation based on the design values of the imaging optical system 101 and the distance measuring device 102.

像ぶれ補正量が0の状態に対応する像修正フィルタは、結像光学系101や距離測定装置102の設計値を元にした数値シミュレーションによりあらかじめ作成できる。結像光学系の状態(焦点距離や絞り、フォーカス距離、デフォーカス量)や撮像素子103上の測距画素の位置(像高)などの所定の測距条件において、あらかじめ像修正フィルタを作成すればよい。   The image correction filter corresponding to the state where the image blur correction amount is 0 can be created in advance by a numerical simulation based on design values of the imaging optical system 101 and the distance measurement device 102. It is necessary to create an image correction filter in advance under predetermined ranging conditions such as the state of the imaging optical system (focal length, aperture, focus distance, defocus amount) and the position of a ranging pixel on the image sensor 103 (image height). Just fine.

像修正フィルタの一例を図12に示す。図12(A)において、フィルタFy1301(第1のフィルタ)は、x方向に1、y方向にAy(Ayは2以上の整数)のセル数を有し、セル1303はセル値(フィルタ値)を有する。図12(B)において、フィルタFx1302(第2のフィルタ)は、x方向にAx、y方向に1(Axは2以上の整数)のセル数を有し、セル1304はセル値(フィルタ値)を有する。各セルが画像信号(S101又はS102)の1画素に対応する。   FIG. 12 shows an example of the image correction filter. In FIG. 12A, a filter Fy1301 (first filter) has one cell number in the x direction and Ay (Ay is an integer of 2 or more) in the y direction, and a cell 1303 has a cell value (filter value). Having. 12B, a filter Fx1302 (second filter) has Ax in the x direction and 1 (Ax is an integer of 2 or more) in the y direction, and a cell 1304 has a cell value (filter value). Having. Each cell corresponds to one pixel of the image signal (S101 or S102).

(実施形態4)
上記の第1から第3の実施形態では、換算係数が像ぶれ補正量に応じて補正される。本実施形態では、換算係数ではなく像ズレ量が像ぶれ補正量に応じて補正される。デフォーカス量が像ズレ量と換算係数から求められるので、像ぶれ補正量に応じて換算係数を補正
する代わりに、像ぶれ補正量に応じて像ズレ量を補正しても同様の効果が得られる。
(Embodiment 4)
In the first to third embodiments, the conversion coefficient is corrected according to the image blur correction amount. In the present embodiment, not the conversion coefficient but the image shift amount is corrected according to the image blur correction amount. Since the defocus amount is obtained from the image shift amount and the conversion coefficient, the same effect can be obtained by correcting the image shift amount according to the image blur correction amount instead of correcting the conversion coefficient according to the image blur correction amount. Can be

本実施形態に係る距離測定装置102は、像ズレ量を補正するための補正係数を画素位置ごとに記憶した補正係数マップをメモリ105に保持する。   The distance measuring apparatus 102 according to the present embodiment stores a correction coefficient map in which a correction coefficient for correcting an image shift amount is stored for each pixel position in the memory 105.

本実施形態における測距演算処理の基本的な流れは第1の実施形態と同様である。そこで本実施形態における測距演算処理を、第1の実施形態(図5(B)のフローチャート)と比較して説明する。画素選択処理(S501)および像ぶれ補正量取得処理(S502)は第1の実施形態と同様である。換算係数取得処理(S503)においては、あらかじめ用意された換算係数マップに含まれる換算係数の値がそのまま利用される。像ズレ量算出処理(S504)では、まず、第1の実施形態と同様に相関値S(k)を最小とするシフト量として像ズレ量が求められる。その後、像ぶれ補正量に応じて補正係数マップを調整し、調整後の補正係数マップに含まれる補正係数を用いて、像ズレ量が補正される。補正係数マップの調整処理は、第1の実施形態における換算係数マップの調整処理と同様である。距離算出処理(S505)では、ステップS503で取得された換算係数と、ステップS504で取得された補正済み像ズレ量とを用いて、式(2)あるいは(3)にしたがってデフォーカス量が算出される。   The basic flow of the distance measurement calculation processing in the present embodiment is the same as in the first embodiment. Therefore, the distance measurement calculation processing according to the present embodiment will be described in comparison with the first embodiment (the flowchart of FIG. 5B). The pixel selection processing (S501) and the image blur correction amount acquisition processing (S502) are the same as in the first embodiment. In the conversion coefficient acquisition process (S503), the value of the conversion coefficient included in the conversion coefficient map prepared in advance is used as it is. In the image shift amount calculation process (S504), first, an image shift amount is obtained as a shift amount that minimizes the correlation value S (k), as in the first embodiment. Thereafter, the correction coefficient map is adjusted according to the image blur correction amount, and the image shift amount is corrected using the correction coefficient included in the adjusted correction coefficient map. The adjustment processing of the correction coefficient map is the same as the adjustment processing of the conversion coefficient map in the first embodiment. In the distance calculation process (S505), the defocus amount is calculated according to the equation (2) or (3) using the conversion coefficient obtained in step S503 and the corrected image shift amount obtained in step S504. You.

(その他の実施形態)
本発明の目的は、以下の実施形態によって達成することもできる。即ち、前述した実施形態の機能(演算手段などの機能)を実現するソフトウェアのプログラムコードを格納した記憶ないし記録媒体を、距離測定装置に供給する。そして、その演算部のコンピュータ(またはCPU、MPUなど)が記憶媒体に格納されたプログラムコードを読み出し上記機能を実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラム、これを格納した記憶媒体は本発明を構成することになる。
(Other embodiments)
The object of the present invention can also be achieved by the following embodiments. That is, a storage or recording medium storing a program code of software for realizing the functions of the above-described embodiment (functions of the calculation means and the like) is supplied to the distance measuring device. Then, the computer (or CPU, MPU, or the like) of the arithmetic unit reads out the program code stored in the storage medium and executes the above function. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the program and the storage medium storing the program constitute the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も本発明に含まれる。更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれる。本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the computer executes the readout program code, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instructions of the program code. The case where the functions of the above-described embodiments are realized by the processing is also included in the present invention. Further, it is assumed that the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instructions of the program code, the CPU or the like provided in the function expansion card or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Included in the invention. When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.

デジタルカメラなどへの適用を考えると、本発明は、距離検出を専用で行う距離測定装置(一眼レフカメラ等で用いられる)としてよりも、撮像装置の撮像部を用いて距離検出も行ういわゆる撮像面測距に好適な装置と捉えることができる。上述した様に、本発明の距離測定装置における演算部は、半導体素子を集積化した集積回路を用いて構成することができ、IC、LSI、システムLSI、マイクロ処理ユニット(MPU)、中央演算装置(CPU)等で構成することができる。演算部をマイクロ処理ユニットや中央演算装置(CPU)等で構成する場合には、演算部は、コンピュータとして捉えることが可能である。本発明のプログラムは、所定の結像光学系と、所定の撮像部、コンピュータと、を備えた撮像装置のコンピュータにインストールすることによって、撮像装置を高精度の距離検出が可能なものとなすことができる。本発明のプログラムは、記録媒体の他、インターネットを通じて頒布することも可能である。   Considering an application to a digital camera or the like, the present invention provides a so-called image pickup device that also performs distance detection using an image pickup unit of an image pickup device, rather than a distance measurement device dedicated to distance detection (used in a single-lens reflex camera or the like). It can be regarded as a device suitable for surface ranging. As described above, the arithmetic unit in the distance measuring apparatus of the present invention can be configured using an integrated circuit in which semiconductor elements are integrated, and includes an IC, an LSI, a system LSI, a micro processing unit (MPU), a central processing unit (CPU) or the like. When the arithmetic unit is configured by a micro processing unit, a central processing unit (CPU), or the like, the arithmetic unit can be regarded as a computer. The program of the present invention is installed in a computer of an imaging device including a predetermined imaging optical system, a predetermined imaging unit, and a computer, so that the imaging device can detect a distance with high accuracy. Can be. The program of the present invention can be distributed via the Internet in addition to the recording medium.

本発明により検出される距離を用いて、撮像装置にて得られる画像と対応する距離分布(距離マップ)を生成することができる。また、画像内の被写体のボケ量はデフォーカス量に依存するので、得られた画像に対して距離分布に基づく処理を行うことで、任意のボケ付加処理、撮影後のリフォーカス処理(任意の位置にピントを合わせる処理)等の画像処理などを適切に行うことができる。   Using the distance detected by the present invention, a distance distribution (distance map) corresponding to an image obtained by the imaging device can be generated. Also, since the blur amount of the subject in the image depends on the defocus amount, by performing a process based on the distance distribution on the obtained image, an arbitrary blur adding process, a refocusing process after shooting (an arbitrary Image processing such as processing for focusing on the position) can be appropriately performed.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

14・・変換係数算出部
15・・距離算出部
102・・距離測定装置

14. Conversion coefficient calculator 15 Distance calculator 102 Distance measuring device

Claims (13)

像ぶれ補正手段と、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得手段と、
前記像ぶれ補正手段による像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正手段と、
を備え
前記距離情報取得手段は、前記第一の像と前記第二の像との像ズレ量を取得する第一の取得手段と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得手段と、を含み、
前記距離情報補正手段は、前記像ぶれ補正量に基づいて前記換算係数を取得する第三の取得手段を含み、
前記第三の取得手段は前記像ぶれ補正量の大きさに応じて前記換算係数を取得する方法を変更することを特徴とする、
距離測定装置。
Image blur correction means,
Based on a first image based on a light beam that has passed through a first pupil region of the imaging optical system and a second image based on a light beam that has passed through a second pupil region of the imaging optical system, a distance Distance information acquisition means for acquiring information;
A distance information correcting unit that corrects the distance information based on an image blur correction amount by the image blur correcting unit;
Equipped with a,
The distance information obtaining unit is configured to obtain an image shift amount between the first image and the second image, and the image shift amount from the image shift amount using a conversion coefficient corresponding to a pixel position. Second acquisition means for acquiring distance information,
The distance information correcting unit includes a third obtaining unit that obtains the conversion coefficient based on the image blur correction amount,
The third obtaining unit changes a method of obtaining the conversion coefficient according to the magnitude of the image blur correction amount,
Distance measuring device.
前記第三の取得手段は前記像ぶれ補正量が所定の閾値よりも大きい場合に前記換算係数を取得する方法を変更することを特徴とする、
請求項1に記載の距離測定装置。
The third obtaining unit changes a method of obtaining the conversion coefficient when the image blur correction amount is larger than a predetermined threshold,
The distance measuring device according to claim 1.
所定の像ぶれ補正量に対する、像面内の位置に応じた換算係数マップを記憶する記憶手段をさらに備え、
前記第三の取得手段は、前記換算係数マップを前記像ぶれ補正量に応じて幾何変換することによって、前記換算係数を取得する、
請求項1または2に記載の距離測定装置。
A storage unit that stores a conversion coefficient map corresponding to a position in an image plane for a predetermined image blur correction amount,
The third obtaining unit obtains the conversion coefficient by geometrically converting the conversion coefficient map according to the image blur correction amount,
The distance measuring device according to claim 1 .
前記第三の取得手段は、前記像ぶれ補正量が第1の閾値より小さいときは、前記換算係数マップを平行移動し、前記像ぶれ補正量が前記第1の閾値より大きいときは、前記換算係数マップに射影変換を施す、
請求項3に記載の距離測定装置。
The third obtaining means translates the conversion coefficient map when the image blur correction amount is smaller than a first threshold, and converts the conversion when the image blur correction amount is larger than the first threshold. Apply a projective transformation to the coefficient map,
The distance measuring device according to claim 3.
像ズレ量をr、距離情報をΔLとしたときに、前記第二の取得手段はΔL=K×rにより距離情報を取得し、
前記換算係数は、画素の位置に応じた係数Kである、
請求項から4のいずれか1項に記載の距離測定装置。
When the image shift amount is r and the distance information is ΔL, the second obtaining unit obtains the distance information by ΔL = K × r,
The conversion coefficient is a coefficient K corresponding to a position of a pixel.
The distance measuring device according to claim 1 .
像ズレ量をr、距離情報をΔLとしたときに、前記第二の取得手段はΔL=K×r+Mにより距離情報を取得し、
前記換算係数は、画素の位置に応じた係数Kと係数Mからなる、
請求項から4のいずれか1項に記載の距離測定装置。
When the image shift amount is r and the distance information is ΔL, the second obtaining unit obtains the distance information by ΔL = K × r + M,
The conversion coefficient includes a coefficient K and a coefficient M corresponding to the position of a pixel.
The distance measuring device according to claim 1 .
像ぶれ補正手段と、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得手段と、
前記像ぶれ補正手段による像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正手段と、
前記像ぶれ補正手段による像ぶれ補正量に基づいて像修正フィルタを決定して、前記像修正フィルタを用いて前記第一の像および前記第二の像の像修正処理を行う像修正手段と、
を備え、
前記距離情報取得手段は、前記第一の像と前記第二の像との像ズレ量を取得する第一の取得手段と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得手段と、を含み、
前記第二の取得手段は、前記像修正手段による像修正処理後の第一の像および第二の像から前記距離情報を取得する
離測定装置。
Image blur correction means,
Based on a first image based on a light beam that has passed through a first pupil region of the imaging optical system and a second image based on a light beam that has passed through a second pupil region of the imaging optical system, a distance Distance information acquisition means for acquiring information;
A distance information correcting unit that corrects the distance information based on an image blur correction amount by the image blur correcting unit;
Image correction means for determining an image correction filter based on the amount of image blur correction by the image blur correction means, and performing image correction processing of the first image and the second image using the image correction filter ,
Bei to give a,
The distance information obtaining unit is configured to obtain an image shift amount between the first image and the second image, and the image shift amount from the image shift amount using a conversion coefficient corresponding to a pixel position. Second acquisition means for acquiring distance information,
The second obtaining means obtains the distance information from the first image and the second image after the image correction processing by the image correcting means ,
Distance measuring device.
所定の像ぶれ補正量に対する、像面内の位置に応じた像修正フィルタのフィルタ係数マップを記憶する記憶手段をさらに備え、
前記像修正手段は、前記フィルタ係数マップを前記像ぶれ補正量に応じて幾何変換し、変換後のフィルタ係数マップから得られる像修正フィルタを用いて前記像修正処理を行う、
請求項7に記載の距離測定装置。
A storage unit that stores a filter coefficient map of an image correction filter according to a position in an image plane for a predetermined image blur correction amount,
The image correction unit geometrically transforms the filter coefficient map according to the image blur correction amount, and performs the image correction processing using an image correction filter obtained from the converted filter coefficient map.
A distance measuring device according to claim 7.
前記像ぶれ補正手段は、結像光学系の一部のレンズまたは撮像素子を移動させるものであり、
前記像ぶれ補正量は、前記像ぶれ補正手段による前記一部のレンズまたは前記撮像素子の移動量である、
請求項1から8のいずれか1項に記載の距離測定装置。
The image blur correction means is to move a part of the lens or the imaging device of the imaging optical system,
The image blur correction amount is a movement amount of the part of the lenses or the image sensor by the image blur correction unit.
The distance measuring device according to claim 1.
撮像素子と、
請求項1から9のいずれか1項に記載の距離測定装置と、
を備える、撮像装置。
An image sensor;
A distance measuring device according to any one of claims 1 to 9,
An imaging device comprising:
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得ステップと、
像ぶれ補正手段による像ぶれ補正量を取得する取得ステップと、
前記像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正ステップと、
を含み、
前記距離情報取得ステップは、前記第一の像と前記第二の像との像ズレ量を取得する第一の取得工程と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得工程と、を含み、
前記距離情報補正ステップは、前記像ぶれ補正量に基づいて前記換算係数を取得する第三の取得工程を含み、
前記第三の取得工程では、前記像ぶれ補正量の大きさに応じて前記換算係数を取得する方法を変更することを特徴とする、
距離測定方法。
Based on a first image based on a light beam that has passed through a first pupil region of the imaging optical system and a second image based on a light beam that has passed through a second pupil region of the imaging optical system, a distance A distance information obtaining step of obtaining information;
An obtaining step of obtaining an image blur correction amount by the image blur correcting means,
A distance information correction step of correcting the distance information based on the image blur correction amount,
Only including,
The distance information obtaining step is a first obtaining step of obtaining an image shift amount between the first image and the second image, and the image shift amount is calculated from the image shift amount using a conversion coefficient corresponding to a pixel position. A second acquisition step of acquiring distance information,
The distance information correcting step includes a third obtaining step of obtaining the conversion coefficient based on the image blur correction amount,
In the third obtaining step, a method of obtaining the conversion coefficient is changed according to the magnitude of the image blur correction amount,
Distance measurement method.
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得ステップと、Based on a first image based on a light beam that has passed through a first pupil region of the imaging optical system and a second image based on a light beam that has passed through a second pupil region of the imaging optical system, a distance A distance information obtaining step of obtaining information;
像ぶれ補正手段による像ぶれ補正量を取得する取得ステップと、An obtaining step of obtaining an image blur correction amount by the image blur correcting means,
前記像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正ステップと、A distance information correction step of correcting the distance information based on the image blur correction amount,
前記像ぶれ補正量に基づいて像修正フィルタを決定して、前記像修正フィルタを用いて前記第一の像および前記第二の像の像修正処理を行う像修正ステップと、Determine an image correction filter based on the image blur correction amount, an image correction step of performing image correction processing of the first image and the second image using the image correction filter,
を含み、Including
前記距離情報取得ステップは、前記第一の像と前記第二の像との像ズレ量を取得する第一の取得工程と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得工程と、を含み、The distance information obtaining step is a first obtaining step of obtaining an image shift amount between the first image and the second image, and the image shift amount is calculated from the image shift amount using a conversion coefficient corresponding to a pixel position. A second acquisition step of acquiring distance information,
前記第二の取得工程では、前記像修正ステップによる像修正処理後の第一の像および第二の像から前記距離情報を取得する、In the second obtaining step, the distance information is obtained from the first image and the second image after the image correction processing by the image correction step,
距離測定方法。Distance measurement method.
請求項11または12に記載の方法の各ステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the method according to claim 11 .
JP2016085199A 2016-04-21 2016-04-21 Distance measuring device, imaging device, and distance measuring method Active JP6628678B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016085199A JP6628678B2 (en) 2016-04-21 2016-04-21 Distance measuring device, imaging device, and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016085199A JP6628678B2 (en) 2016-04-21 2016-04-21 Distance measuring device, imaging device, and distance measuring method

Publications (2)

Publication Number Publication Date
JP2017194591A JP2017194591A (en) 2017-10-26
JP6628678B2 true JP6628678B2 (en) 2020-01-15

Family

ID=60156433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016085199A Active JP6628678B2 (en) 2016-04-21 2016-04-21 Distance measuring device, imaging device, and distance measuring method

Country Status (1)

Country Link
JP (1) JP6628678B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7130473B2 (en) * 2018-07-09 2022-09-05 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP7147846B2 (en) * 2018-07-20 2022-10-05 株式会社ニコン Imaging device
KR20210036574A (en) * 2019-09-26 2021-04-05 삼성전자주식회사 Method and apparatus for estimating pose

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3728608B2 (en) * 1995-04-28 2005-12-21 株式会社ニコン Blur correction optical device
JP2012231262A (en) * 2011-04-25 2012-11-22 Olympus Corp Imaging apparatus, blur correction method, control program, and recording medium for recording control program
JP5963514B2 (en) * 2012-04-19 2016-08-03 キヤノン株式会社 Ranging device, ranging method, and imaging system
JP6210824B2 (en) * 2013-10-02 2017-10-11 オリンパス株式会社 Focus adjustment device and focus adjustment method
JP6335589B2 (en) * 2014-03-31 2018-05-30 キヤノン株式会社 Distance detection device, imaging device, distance detection method, and parallax amount detection device
JP6438671B2 (en) * 2014-04-10 2018-12-19 オリンパス株式会社 Focus adjustment apparatus, camera system, and focus adjustment method of imaging apparatus
JP2015212772A (en) * 2014-05-02 2015-11-26 キヤノン株式会社 Range-finding device, imaging apparatus, range-finding method, and range-finding parameter calculation method
JP6298362B2 (en) * 2014-06-02 2018-03-20 キヤノン株式会社 Imaging apparatus, control method therefor, and imaging system

Also Published As

Publication number Publication date
JP2017194591A (en) 2017-10-26

Similar Documents

Publication Publication Date Title
US9712755B2 (en) Information processing method, apparatus, and program for correcting light field data
US9832432B2 (en) Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium
JP6585006B2 (en) Imaging device and vehicle
CN109255810B (en) Image processing apparatus and image processing method
JP6489932B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5841844B2 (en) Image processing apparatus and image processing method
JP2008085697A (en) Image pickup device and its manufacturing device and method
EP3276955A1 (en) Image processing apparatus, image processing method, and image processing program
JP6429444B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US10237485B2 (en) Image processing apparatus, imaging apparatus, and image processing method
WO2014171304A1 (en) Imaging device, imaging device drive method, and imaging device control program
JP6628678B2 (en) Distance measuring device, imaging device, and distance measuring method
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
JP2008298589A (en) Device and method for detecting positions
EP3276944A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and image processing program
JP6153318B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP6642998B2 (en) Image shift amount calculating apparatus, imaging apparatus, and image shift amount calculating method
KR20200014204A (en) Control apparatus, imaging apparatus, and storage medium
KR20200117507A (en) Camera module and image operating method performed therein
JP6576114B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP7246961B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5197784B2 (en) Imaging device
JP2017011571A (en) Image processor, image processing system, imaging apparatus, camera system, and image processing method
JP2019134431A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP7137433B2 (en) Blur correction device, imaging device, blur correction method, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R151 Written notification of patent or utility model registration

Ref document number: 6628678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151