JP2017194591A - Distance measurement device, imaging apparatus, and distance measurement method - Google Patents

Distance measurement device, imaging apparatus, and distance measurement method Download PDF

Info

Publication number
JP2017194591A
JP2017194591A JP2016085199A JP2016085199A JP2017194591A JP 2017194591 A JP2017194591 A JP 2017194591A JP 2016085199 A JP2016085199 A JP 2016085199A JP 2016085199 A JP2016085199 A JP 2016085199A JP 2017194591 A JP2017194591 A JP 2017194591A
Authority
JP
Japan
Prior art keywords
image
blur correction
distance
image blur
conversion coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016085199A
Other languages
Japanese (ja)
Other versions
JP6628678B2 (en
Inventor
秀敏 椿
Hidetoshi Tsubaki
秀敏 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016085199A priority Critical patent/JP6628678B2/en
Publication of JP2017194591A publication Critical patent/JP2017194591A/en
Application granted granted Critical
Publication of JP6628678B2 publication Critical patent/JP6628678B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a distance measurement device for an imaging apparatus having an anti-vibration mechanism capable of accurately obtaining distance information.SOLUTION: The distance measurement device includes: image blur correction means; distance information acquisition means that acquires a piece of distance information based on a first image formed by a light flux passing through a first pupil area in a focusing optical system and a second image which is formed on the basis of a light flux passing through a second pupil area of the focusing optical system; and distance information correction means that corrects the distance information on the basis of an image blur correction amount calculated by the image blur correction means.SELECTED DRAWING: Figure 5

Description

本発明は距離測定技術に関し、特にデジタルスチルカメラやデジタルビデオなどに用いられる距離測定技術に関するものである。   The present invention relates to a distance measurement technique, and more particularly to a distance measurement technique used for a digital still camera, a digital video, or the like.

デジタルスチルカメラやビデオカメラに適応可能な距離検出技術として、位相差方式による距離検出技術が知られている。この方式は異なる瞳領域を通過した光束により形成される光像(以下、それぞれ「A像」、「B像」という)を取得する。このA像とB像の相対的な位置ズレ量である像ズレ量(視差ともいう)を算出し、レンズ瞳上でのA像とB像を形成する重心間隔である基線長をもとにした換算係数を介してデフォーカス量に変換することで、被写体までの距離を算出することができる。   As a distance detection technique applicable to a digital still camera or a video camera, a distance detection technique based on a phase difference method is known. This method acquires optical images (hereinafter referred to as “A image” and “B image”, respectively) formed by light beams that have passed through different pupil regions. The image displacement amount (also called parallax), which is the relative positional displacement amount between the A and B images, is calculated, and based on the baseline length, which is the center of gravity interval that forms the A and B images on the lens pupil. The distance to the subject can be calculated by converting the defocus amount through the conversion factor.

このとき、周辺画角では種々の要因によって前記換算係数が変化することが知られている。変化の要因は、たとえば、結像光学系のレンズ枠等のケラレにより発生する口径食(「ビネッティング」ともいう)の影響による瞳形状の変化や色収差特性、測距画素の入射角度に対する分光感度特性、カメラの製造誤差などである。また、そもそもデフォーカス量自体に応じて換算係数も変化する。特許文献1には、換算係数の変動を補正する手法が記載されている。   At this time, it is known that the conversion coefficient changes due to various factors in the peripheral angle of view. Causes of changes include, for example, pupil shape changes and chromatic aberration characteristics due to the effects of vignetting (also referred to as “vignetting”) caused by vignetting of the lens frame of the imaging optical system, and spectral sensitivity to the incident angle of the ranging pixels. Characteristics, camera manufacturing errors, etc. In the first place, the conversion coefficient also changes in accordance with the defocus amount itself. Japanese Patent Application Laid-Open No. H10-228561 describes a method for correcting fluctuations in a conversion coefficient.

また近年、デジタルスチルカメラやビデオカメラに手ぶれなどで発生する像ブレを防ぐためにさまざまな防振機能が搭載されるにようになっている。例えば特許文献2は、レンズ系の一部をシフトさせて像ブレを抑制する手法を開示する。具体的には、レンズ系のシフトにより光量や歪曲収差の状態が変化するため、特許文献2では、像ぶれ補正光学系の位置情報に応じた歪曲収差補正を行う。   In recent years, various image stabilization functions have been installed in digital still cameras and video cameras in order to prevent image blur caused by camera shake. For example, Patent Document 2 discloses a technique for suppressing image blur by shifting a part of a lens system. Specifically, since the amount of light and the state of distortion change due to the shift of the lens system, Patent Document 2 performs distortion correction according to position information of the image blur correction optical system.

特開2015−212772号公報JP2015-212772A 特開2012−231262号公報JP 2012-231262 A 特開2013−222183号公報JP 2013-222183 A

測距装置を備えた撮像装置(デジタルスチルカメラやビデオカメラ)は、持ち運び可能なことが好ましい。カメラの持ち運びおよび適切な位置からの撮影により、意図した構図の距離マップが得られる。また、近くからの撮影により、幾何学的な原理やデジタルシステムの特性上、高密度で高精度な距離マップが得られる。   An imaging device (digital still camera or video camera) provided with a distance measuring device is preferably portable. The distance map of the intended composition can be obtained by carrying the camera and photographing from an appropriate position. In addition, by photographing from near, a high-density and high-precision distance map can be obtained due to the geometric principle and the characteristics of the digital system.

持ち運び可能なカメラは手ぶれに弱く、したがって、防振機構を搭載することが望ましい。しかしながら、特許文献2に記載されるような方法で変動する光量や像の歪曲に合わせて像補正を実施すると、像の明るさや歪等の変動は抑えることができるようになる一方、測距に関係する換算係数が変動してしまう。すなわち、測距に誤差が生じてしまうという課題があった。   Portable cameras are vulnerable to camera shake, so it is desirable to have a vibration isolation mechanism. However, if image correction is performed in accordance with the amount of light and image distortion that vary according to the method described in Patent Document 2, fluctuations in image brightness, distortion, and the like can be suppressed, while ranging is possible. The conversion factor concerned will fluctuate. That is, there is a problem that an error occurs in distance measurement.

本発明は上記の課題を考慮してなされたものであり、その目的は、撮像装置において防振機構が有効な場合でも精度の良い距離測定が可能な技術を提供することである。   The present invention has been made in consideration of the above-described problems, and an object of the present invention is to provide a technique that enables accurate distance measurement even when a vibration isolation mechanism is effective in an imaging apparatus.

本発明の第一の態様は、
像ぶれ補正手段と、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得手段と、
前記像ぶれ補正手段による像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正手段と、
を備える、距離測定装置である。
The first aspect of the present invention is:
Image blur correction means;
Based on the first image based on the light beam passing through the first pupil region of the imaging optical system and the second image based on the light beam passing through the second pupil region of the imaging optical system, the distance Distance information acquisition means for acquiring information;
Distance information correction means for correcting the distance information based on an image blur correction amount by the image blur correction means;
It is a distance measuring device provided with.

本発明の第二の態様は、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得ステップと、
像ぶれ補正手段による像ぶれ補正量を取得する取得ステップと、
前記像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正ステップと、
を含む、距離測定方法である。
The second aspect of the present invention is:
Based on the first image based on the light beam passing through the first pupil region of the imaging optical system and the second image based on the light beam passing through the second pupil region of the imaging optical system, the distance A distance information acquisition step for acquiring information;
An acquisition step of acquiring an image blur correction amount by the image blur correction means;
A distance information correction step of correcting the distance information based on the image blur correction amount;
Is a distance measuring method.

本発明によれば、防振機構を有効にした撮像装置においても距離測定を精度良く行える。   According to the present invention, distance measurement can be performed with high accuracy even in an imaging apparatus in which a vibration isolation mechanism is effective.

実施例1に係る距離測定装置の概要構成図である1 is a schematic configuration diagram of a distance measuring device according to Embodiment 1. FIG. 実施例1における基本処理を示す図であるIt is a figure which shows the basic processing in Example 1. 実施例1に係る距離測定装置の防振機能を説明する図であるIt is a figure explaining the anti-vibration function of the distance measuring device which concerns on Example 1. FIG. 実施例1における換算係数マップの幾何変形を説明する図であるIt is a figure explaining the geometric deformation | transformation of the conversion factor map in Example 1. FIG. 実施例1における演算処理部の測距処理を示す図であるIt is a figure which shows the ranging process of the arithmetic processing part in Example 1. 実施例2におけるベクトル要素の換算係数マップを説明する図であるIt is a figure explaining the conversion factor map of the vector element in Example 2. FIG. 実施例2における演算処理部の測距処理を示す図であるIt is a figure which shows the ranging process of the arithmetic processing part in Example 2. 撮像素子103の要部上面図である3 is a top view of the main part of the image sensor 103. FIG. 実施例3におけるケラレによる瞳透過率分布の変化を説明する図であるIt is a figure explaining the change of the pupil transmittance distribution by the vignetting in Example 3. 実施例3における演算処理部の測距処理を示す図であるIt is a figure which shows the ranging process of the arithmetic processing part in Example 3. 実施例3における換算係数および像修正係数マップを説明する図であるIt is a figure explaining the conversion coefficient in Example 3, and an image correction coefficient map. 実施例3における像修正フィルタ係数を説明する図であるIt is a figure explaining the image correction filter coefficient in Example 3. FIG.

(実施形態1)
本実施形態は距離情報を求める距離測定装置を備える撮像装置である。距離情報は、ある基準点と被写体とのあいだの距離に応じた値である。典型的には、距離測定装置と被写体とのあいだの距離(絶対距離)が距離情報に相当する。距離情報は、一般には、撮像装置と被写体のあいだの距離から求められるその他の値であってもよい。距離情報のその他の例は、1画像のフォーカス位置と被写体のあいだの距離、2画像のフォーカス位置の中間位置と被写体のあいだの距離である。また、距離情報は、像面側での距離、物体側での距離のどちらであっても良い。また、距離情報は、実空間の距離で表されてもよいし、デフォーカス量や視差量など実空間距離に換算できる量で表されてもよい。このように距離情報は、撮像装置と被写体のあいだの距離(絶対距離)に依存して変化する値である。したがって、距離情報は距離依存値と称することもできる。
(Embodiment 1)
The present embodiment is an imaging apparatus including a distance measuring device that obtains distance information. The distance information is a value corresponding to the distance between a certain reference point and the subject. Typically, the distance (absolute distance) between the distance measuring device and the subject corresponds to the distance information. In general, the distance information may be another value obtained from the distance between the imaging device and the subject. Another example of the distance information is a distance between the focus position of one image and the subject, and a distance between the intermediate position of the focus position of two images and the subject. The distance information may be either a distance on the image plane side or a distance on the object side. The distance information may be represented by a distance in real space, or may be represented by an amount that can be converted into a real space distance, such as a defocus amount or a parallax amount. Thus, the distance information is a value that changes depending on the distance (absolute distance) between the imaging device and the subject. Therefore, the distance information can also be referred to as a distance dependent value.

以下、図を用いて本実施形態を詳細に説明する。   Hereinafter, this embodiment will be described in detail with reference to the drawings.

<距離測定装置の構成>
図1(A)は、本発明に係る距離測定装置を備えた撮像装置100を示す模式図である。撮像装置100は、結像光学系101と、距離測定装置102、姿勢センサ140、像ぶれ補正部150を備えて構成されている。距離測定装置102は、演算処理部104とメモリ105を有している。結像光学系101は、像ぶれ補正部材1011(図1(A)では不図示)を含む。
<Configuration of distance measuring device>
FIG. 1A is a schematic diagram illustrating an imaging device 100 including a distance measuring device according to the present invention. The imaging apparatus 100 includes an imaging optical system 101, a distance measuring device 102, an attitude sensor 140, and an image blur correction unit 150. The distance measuring device 102 includes an arithmetic processing unit 104 and a memory 105. The imaging optical system 101 includes an image blur correction member 1011 (not shown in FIG. 1A).

演算処理部104は、ASIC(Application Specific Integrated Circuit)のよう
な論理回路により構成される。他の実施形態では、演算処理部104は、CPU(Central Processing Unit)のような汎用プロセッサとプログラムを記憶するメモリとから構成
され、汎用プロセッサがプログラムを実行することにより下記の処理を実行する。演算処理部104は、全体として、距離情報取得部および距離情報補正部として機能する。より具体的には、演算処理部104は、図5(A)に示すように、画像取得部11、像ズレ量算出部(第一の取得部)12、像ぶれ補正量取得部13、変換係数算出部(第三の取得部)14、および距離算出部(第二の取得部)15をその機能部として有する。これらの各機能部の具体的な説明は後述する。
The arithmetic processing unit 104 is configured by a logic circuit such as an ASIC (Application Specific Integrated Circuit). In another embodiment, the arithmetic processing unit 104 includes a general-purpose processor such as a CPU (Central Processing Unit) and a memory that stores a program, and the general-purpose processor executes the following process by executing the program. The arithmetic processing unit 104 functions as a distance information acquisition unit and a distance information correction unit as a whole. More specifically, as shown in FIG. 5A, the arithmetic processing unit 104 includes an image acquisition unit 11, an image shift amount calculation unit (first acquisition unit) 12, an image blur correction amount acquisition unit 13, and a conversion unit. A coefficient calculation unit (third acquisition unit) 14 and a distance calculation unit (second acquisition unit) 15 are provided as functional units. Specific descriptions of these functional units will be described later.

図1(B)は、撮像素子103の構成を示す図である。撮像素子103は、xy平面上に配列された多数の測距画素(以降、単に「画素」とも呼ぶ)110R、110G、110Bが並置されて構成されている。   FIG. 1B is a diagram illustrating a configuration of the imaging element 103. The image sensor 103 is configured by juxtaposing a large number of ranging pixels (hereinafter also simply referred to as “pixels”) 110R, 110G, and 110B arranged on the xy plane.

図1(C)は、測距画素110R、110G、110Bの断面構成図を示す。測距画素は、マイクロレンズ111、カラーフィルタ122R、122G、122B、光電変換部110Ra、110Rb、110Ga、110Gb、110Ba、110Bb、導波路113を備える。以下、光電変換部110Ra、110Ga、110Baを光電変換部110aと総称し、光電変換部110Rb、110Gb、110Bbを光電変換部110bと総称することがある。   FIG. 1C shows a cross-sectional configuration diagram of the ranging pixels 110R, 110G, and 110B. The ranging pixel includes a micro lens 111, color filters 122R, 122G, 122B, photoelectric conversion units 110Ra, 110Rb, 110Ga, 110Gb, 110Ba, 110Bb, and a waveguide 113. Hereinafter, the photoelectric conversion units 110Ra, 110Ga, and 110Ba may be collectively referred to as the photoelectric conversion unit 110a, and the photoelectric conversion units 110Rb, 110Gb, and 110Bb may be collectively referred to as the photoelectric conversion unit 110b.

撮像素子103の各画素は、検出する波長帯域に応じた分光特性がカラーフィルタ122R、122G、122Bによって与えられ、それぞれ、主として赤光、緑光、青光を取得する。測距画素110R,110G,110Bは、図示しない公知の配色パターン(たとえば、ベイヤ配列)によってxy平面上に配置されている。基板124は、検出する波長帯域を吸収する材料、例えばSiからなる。基板124には、イオン打ち込みなどで、内部の少なくとも一部の領域に光電変換部が形成される。各画素は、図示しない配線を備えている。   Each pixel of the image sensor 103 is given spectral characteristics according to the wavelength band to be detected by the color filters 122R, 122G, and 122B, and mainly acquires red light, green light, and blue light, respectively. The ranging pixels 110R, 110G, and 110B are arranged on the xy plane by a known color arrangement pattern (for example, a Bayer array) (not shown). The substrate 124 is made of a material that absorbs a wavelength band to be detected, such as Si. A photoelectric conversion portion is formed in at least a partial region of the substrate 124 by ion implantation or the like. Each pixel includes a wiring (not shown).

光電変換部110aおよび光電変換部110bには、それぞれ射出瞳130中の異なる領域である第1の瞳領域131aおよび第2の瞳領域131bを通過した光束が入射し、それぞれ第1の信号および第2の信号を出力する。A像を形成する第1の信号を取得する光電変換部をA画素と呼び、B像を形成する第2の信号を取得する光電変換部をB画素と呼ぶ。各光電変換部で取得された信号は、演算処理部104に伝送され測距演算処理が行われる。   The light fluxes that have passed through the first pupil region 131a and the second pupil region 131b, which are different regions in the exit pupil 130, are incident on the photoelectric conversion unit 110a and the photoelectric conversion unit 110b, respectively. 2 signal is output. A photoelectric conversion unit that acquires a first signal that forms an A image is referred to as an A pixel, and a photoelectric conversion unit that acquires a second signal that forms a B image is referred to as a B pixel. A signal acquired by each photoelectric conversion unit is transmitted to the calculation processing unit 104, and distance measurement calculation processing is performed.

<測距演算基本フロー>
測距演算処理の基本フローチャートの一例を図2に示す。
<Ranging calculation basic flow>
An example of a basic flowchart of the distance measurement calculation process is shown in FIG.

[像ズレ量算出]
ステップS201の像ズレ量算出処理では、画像取得部11がA像(第1の信号の像)とB像(第2の信号の像)をメモリから読み出し、像ズレ量算出部12がA像とB像の間
の相対的な位置ズレ量である像ズレ量の算出する。像ズレ量の算出は公知の手法を用いることができる。相関値S(k)は例えば、A像とB像の像信号データA(i)、B(i)から式(1)を用いて算出される。

Figure 2017194591
[Image shift amount calculation]
In the image shift amount calculation processing in step S201, the image acquisition unit 11 reads the A image (first signal image) and the B image (second signal image) from the memory, and the image shift amount calculation unit 12 reads the A image. An image shift amount that is a relative positional shift amount between the image B and the B image is calculated. A known method can be used to calculate the image shift amount. The correlation value S (k) is calculated from the image signal data A (i) and B (i) of the A image and the B image using the equation (1), for example.
Figure 2017194591

式(1)において、S(j)は像シフト量jにおける2つの像の間の相関度を示す相関値、iは画素番号、jは2つの像の相対的な像シフト量である。p及びqは、相関値S(j)の算出に用いる対象画素範囲を示している。相関値S(j)は値が低いほど相関が高いことを意味する。   In Expression (1), S (j) is a correlation value indicating the degree of correlation between two images in the image shift amount j, i is a pixel number, and j is a relative image shift amount of the two images. p and q indicate the target pixel range used for calculating the correlation value S (j). The correlation value S (j) means that the lower the value, the higher the correlation.

像ズレ量算出部12は、所定範囲のjについて相関値S(j)を求め、極小値を与える像シフト量jを位置iにおけるA像とB像のあいだの像ズレ量として決定する。なお、像ズレ量の算出方法は、本実施例の方法に限定されるものではなく、他の公知の手法を用いてもよい。   The image shift amount calculation unit 12 calculates a correlation value S (j) for a predetermined range j, and determines an image shift amount j that gives a minimum value as an image shift amount between the A image and the B image at the position i. Note that the method of calculating the image shift amount is not limited to the method of this embodiment, and other known methods may be used.

[デフォーカス量算出]
ステップS202の距離算出処理では、距離算出部15が、像ズレ量からデフォーカス量を算出する。被写体106の像は、結像光学系101を介して撮像素子103に結像される。図1(A)は射出瞳130を通過した光束が撮像面とは異なる結像面107で焦点を結ぶ状態、すなわちデフォーカスした状態を示している。尚、デフォーカスとは結像面107が、撮像面(受光面)と一致せず、光軸108方向にズレた状態のことをいう。デフォーカス量は、撮像素子103の撮像面と結像面107との間の距離を示す。本実施形態に係る距離測定装置は、このデフォーカス量に基づいて被写体106の距離を検出する。
[Defocus amount calculation]
In the distance calculation process in step S202, the distance calculation unit 15 calculates the defocus amount from the image shift amount. An image of the subject 106 is formed on the image sensor 103 via the imaging optical system 101. FIG. 1A shows a state in which a light beam that has passed through the exit pupil 130 is focused on an image plane 107 that is different from the imaging surface, that is, a defocused state. Note that defocusing refers to a state in which the imaging surface 107 does not coincide with the imaging surface (light receiving surface) and is displaced in the direction of the optical axis 108. The defocus amount indicates the distance between the imaging surface of the image sensor 103 and the imaging surface 107. The distance measuring device according to the present embodiment detects the distance of the subject 106 based on the defocus amount.

画素110の各光電変換部110a、110bで取得した第1の信号および第2の信号に依拠するA像およびB像との相対的位置ズレを示す像ズレ量rと、デフォーカス量ΔLとは、式(2)の関係を有している。

Figure 2017194591
The image shift amount r indicating the relative positional shift between the A image and the B image that depends on the first signal and the second signal acquired by the photoelectric conversion units 110a and 110b of the pixel 110, and the defocus amount ΔL , Formula (2).
Figure 2017194591

式(2)において、Wは基線長、Lは撮像素子(撮像面)103から射出瞳130までの距離である。基線長Wは後述する画素の入射角に対する感度分布を射出瞳130面上に投影した瞳感度分布の重心間隔に相当する。   In Expression (2), W is the base line length, and L is the distance from the image sensor (imaging surface) 103 to the exit pupil 130. The baseline length W corresponds to the center-of-gravity interval of the pupil sensitivity distribution obtained by projecting the sensitivity distribution with respect to the incident angle of the pixel, which will be described later, onto the exit pupil 130 plane.

式(2)は、換算係数Kを用いて、式(3)のように書くことができる。

Figure 2017194591
Expression (2) can be written as Expression (3) using the conversion coefficient K.
Figure 2017194591

像ズレ量をデフォーカス量に変換する係数を以下「換算係数」と呼ぶ。換算係数は、例えば基線長Wのことを言う。以降、基線長Wの補正は換算係数の補正と等価である。本実施形態においては、換算係数は換算係数算出部14によって算出されるものが距離算出に利用される。換算係数の決定(補正)方法は後述する。   A coefficient for converting the image shift amount into the defocus amount is hereinafter referred to as a “conversion coefficient”. The conversion coefficient refers to, for example, the baseline length W. Thereafter, the correction of the baseline length W is equivalent to the correction of the conversion coefficient. In the present embodiment, the conversion coefficient calculated by the conversion coefficient calculation unit 14 is used for distance calculation. A method for determining (correcting) the conversion coefficient will be described later.

なお、デフォーカス量の算出方法は、上記の方法に限定されるものではなく、他の公知の手法を用いてもよい。   Note that the defocus amount calculation method is not limited to the above method, and other known methods may be used.

撮影レンズがズームレンズの場合、ズームステートの変化により射出瞳位置とセンサ瞳位置が変化すると、射出瞳上の透過率分布(受光量分布)形状が変化する。この変化は、像高に依存する。したがって、瞳上での透過率分布の重心間隔である基線長Wの値、および基線長Wに関連する換算係数Kも像高に応じて異なる値となる。透過率分布の変化に対応する基線長Wもしくは換算係数Kを、図4(A)のように画素位置に応じた2次元テーブルとしてメモリ105に蓄えておく。   When the photographic lens is a zoom lens, when the exit pupil position and the sensor pupil position change due to a change in zoom state, the shape of the transmittance distribution (received light amount distribution) on the exit pupil changes. This change depends on the image height. Therefore, the value of the base line length W, which is the distance between the centers of gravity of the transmittance distribution on the pupil, and the conversion coefficient K related to the base line length W are also different values depending on the image height. The base line length W or the conversion coefficient K corresponding to the change in the transmittance distribution is stored in the memory 105 as a two-dimensional table corresponding to the pixel position as shown in FIG.

<防振機構の構成>
像ぶれ補正部材1011による像ぶれの抑制について説明する。本実施形態においては像ぶれ補正部150が、カメラの揺れに応じて、図3(A)に示すように結像光学系101の一部のレンズ(補正部材1011)を平行移動させる。これにより、撮像素子上の光学像の位置が平行移動し、カメラの揺れによる映像の揺れ、いわゆるぶれを抑制できる。
<Configuration of vibration isolation mechanism>
The suppression of image blur by the image blur correction member 1011 will be described. In the present embodiment, the image blur correction unit 150 translates a part of the lenses (correction member 1011) of the imaging optical system 101 as shown in FIG. As a result, the position of the optical image on the image sensor moves in parallel, and image shake due to camera shake, so-called shake, can be suppressed.

結像光学系101内に補正部材1011を設ける代わりに、撮像素子103を結像光学系101の光軸に垂直な面内で平行移動させるピエゾ素子等の機械的駆動部品(補正部材に相当)を設けて像ぶれを抑制しても良い。また例えば撮像素子103から画像信号として出力される像の範囲を制御し、電子的に手ぶれによる振動を防振する防振機構を代替的に備えても良い。   Instead of providing the correction member 1011 in the imaging optical system 101, a mechanical drive component such as a piezo element that translates the imaging element 103 in a plane perpendicular to the optical axis of the imaging optical system 101 (corresponding to a correction member) May be provided to suppress image blurring. Alternatively, for example, an image stabilization mechanism that controls the range of an image output as an image signal from the image sensor 103 and electronically prevents vibration due to camera shake may be provided.

カメラの揺れは姿勢センサ140によって検出される。姿勢センサ140は、例えばジャイロ等により構成され、光学系の光軸に直交する任意の軸に取り付けられる。姿勢センサ140は姿勢変化の情報を計測し、計測した情報を像ぶれ補正部150に伝える。例えば姿勢センサ140が回転センサの場合、姿勢センサ140は、撮像装置のヨー方向、ピッチ方向の各軸に取り付けられ、各軸周りの回転による姿勢変化を計測する。姿勢センサ140は、加速度センサ等の撮像装置の平行移動を計測するセンサ、あるいは撮像装置の平行移動による像ぶれ量を算出するセンサであっても良い。また、姿勢センサ140は、画像ベクトルから撮像装置の相対的な回転・平行移動による像ぶれ量を算出するセンサであっても良い。   The camera shake is detected by the attitude sensor 140. The attitude sensor 140 is constituted by a gyro, for example, and is attached to an arbitrary axis orthogonal to the optical axis of the optical system. The posture sensor 140 measures posture change information and transmits the measured information to the image blur correction unit 150. For example, when the attitude sensor 140 is a rotation sensor, the attitude sensor 140 is attached to each axis in the yaw direction and the pitch direction of the imaging apparatus, and measures an attitude change due to rotation around each axis. The posture sensor 140 may be a sensor that measures the parallel movement of the imaging device such as an acceleration sensor, or a sensor that calculates the amount of image blur due to the parallel movement of the imaging device. In addition, the posture sensor 140 may be a sensor that calculates the amount of image blur due to relative rotation and parallel movement of the imaging device from the image vector.

像ぶれ補正部150は、像ぶれを打ち消すように補正部材1011の位置や姿勢を制御する。補正部材1011の移動量は、姿勢センサ140により計測された撮像装置の姿勢及び/または位置変化、または当該姿勢及び/または位置変化により生じる像ぶれに基づいて算出される。補正部材1011の移動は、電磁コイル等により補正部材1011を含むユニットを駆動することにより行われる。また像ぶれ補正部150は、補正部材1011の位置姿勢情報を検出する機能を持つ。像ぶれ補正部150は、ホール素子またはエンコーダ等を構成に含み、光学防振を行うレンズアセンブリユニットの軌道上の位置に基づいて補正部材1011の位置および姿勢情報を計測する。具体的には、像ぶれ補正部150は、補正部材1011の平行移動により移動した画像中心の位置を監視する。画像中心とは、レンズの光軸が無偏心な状態でカメラの光軸上を通る光線が撮像素子面と交わる画像上の点である。撮像素子面における画像中心位置は、補正部材1011の移動に伴って移動する。また、光学像の平行移動量と画像中心の平行移動量は当然等価である。高い精度を必要としない場合には、像ぶれ補正部150は補正部材1011の制御情報を直接出力しても良い。   The image blur correction unit 150 controls the position and posture of the correction member 1011 so as to cancel the image blur. The movement amount of the correction member 1011 is calculated based on the posture and / or position change of the imaging apparatus measured by the posture sensor 140 or image blur caused by the posture and / or position change. The correction member 1011 is moved by driving a unit including the correction member 1011 with an electromagnetic coil or the like. The image blur correction unit 150 has a function of detecting position and orientation information of the correction member 1011. The image blur correction unit 150 includes a Hall element, an encoder, or the like in the configuration, and measures position and orientation information of the correction member 1011 based on the position of the lens assembly unit that performs optical image stabilization. Specifically, the image blur correction unit 150 monitors the position of the image center moved by the parallel movement of the correction member 1011. The image center is a point on the image where a light beam passing on the optical axis of the camera intersects the imaging element surface in a state where the optical axis of the lens is not decentered. The image center position on the image sensor surface moves as the correction member 1011 moves. In addition, the parallel movement amount of the optical image and the parallel movement amount of the image center are naturally equivalent. When high accuracy is not required, the image blur correction unit 150 may directly output control information of the correction member 1011.

<防振>
まず、光学系のレンズ部の平行移動による光学防振の様子を図3(A)に図示する。被写体106からの光学像が光学系101により撮像素子103面上に結像される。破線は
補正部材1011が像ぶれ補正なしの場合の光路を示す。一方、実線は、像ぶれ補正により補正部材1011が上方へ移動した場合の光路を示す。像ぶれ補正により、被写体像は撮像素子103の中央部に結像する。詳細に言い換えれば、図3(A)の実線で示す状態は、図3(B)に示すように、像ぶれ補正がなければ撮像素子の下方周辺部に結像される被写体の像(点線)を、像ぶれ補正(補正部材の移動)により撮像素子の中央部に結像させた状態である。図3(B)は、像ぶれ補正による光学像の撮像素子上での位置変化を示す。破線のイラストが像ぶれ補正前の像の位置、実線のイラストが像ぶれ補正後の像の位置である。また、×印301は像ぶれ補正前の画像中心の位置、黒丸302が像ぶれ補正後の画像中心の位置である。画像中心とはレンズの光軸が無偏心な状態でカメラの光軸上を通る光線が撮像素子面と交わる画像上の点である。画像中心は、補正部材1011の移動時応じて移動する。つまり画像中心は、像ぶれ補正を行わない場合に仮に画像の中央座標と一致していたとしても、像ぶれ補正による像の移動に応じて移動する。
<Anti-Vibration>
First, FIG. 3A shows the state of optical image stabilization by the parallel movement of the lens portion of the optical system. An optical image from the subject 106 is formed on the surface of the image sensor 103 by the optical system 101. A broken line indicates an optical path when the correction member 1011 does not perform image blur correction. On the other hand, a solid line indicates an optical path when the correction member 1011 moves upward by image blur correction. The subject image is formed at the center of the image sensor 103 by image blur correction. In other words, the state shown by the solid line in FIG. 3A is the image of the subject (dotted line) formed on the lower peripheral portion of the image sensor without image blur correction, as shown in FIG. 3B. Is formed in the center of the image sensor by image blur correction (movement of the correction member). FIG. 3B shows a change in the position of the optical image on the image sensor due to image blur correction. The broken line illustration is the position of the image before image blur correction, and the solid line illustration is the position of the image after image blur correction. Further, the x mark 301 is the position of the image center before image blur correction, and the black circle 302 is the position of the image center after image blur correction. The center of the image is a point on the image where a light beam passing on the optical axis of the camera intersects with the imaging element surface in a state where the optical axis of the lens is not decentered. The image center moves according to the movement of the correction member 1011. In other words, the image center moves in accordance with the movement of the image by the image blur correction even if it matches the center coordinates of the image when the image blur correction is not performed.

また図3(C)は、補正部材1011が撮像素子103に含まれる場合(補正部材1011が撮像素子103を移動させる場合)を示す。像ぶれ補正により補正部材1011が移動し、それにより図3(B)と同様に光学像が撮像領域の中央に移動する。図3(D)は図3(C)に示す状況における撮影像303を表す。×印304が像ぶれ補正なしの時の画像中心の位置、黒丸印305が像ぶれ補正時の画像中心の位置を表す。図3(A)の場合とは逆方向に補正部材1011を移動することになるが、図3(D)に示すように得られる効果は図3(C)と同じである。すなわち、補正部材1011が結像光学系101に含まれるか撮像素子103に含まれるかは、補正効果に実質的な相違をもたらさない。したがって以下の説明では、補正部材1011が結像光学系101に含まれるか撮像素子103に含まれるかを区別しない。   FIG. 3C illustrates a case where the correction member 1011 is included in the image sensor 103 (when the correction member 1011 moves the image sensor 103). The correction member 1011 is moved by the image blur correction, and thereby the optical image is moved to the center of the imaging region as in FIG. FIG. 3D shows a captured image 303 in the situation shown in FIG. A cross mark 304 indicates the position of the image center when no image blur correction is performed, and a black circle mark 305 indicates the position of the image center when image blur correction is performed. Although the correction member 1011 is moved in the opposite direction to the case of FIG. 3A, the effect obtained as shown in FIG. 3D is the same as that of FIG. That is, whether the correction member 1011 is included in the imaging optical system 101 or the image sensor 103 does not cause a substantial difference in the correction effect. Therefore, in the following description, it is not distinguished whether the correction member 1011 is included in the imaging optical system 101 or the imaging element 103.

撮像素子103に対する光学像の移動は、画素と換算係数の対応関係の変化を招く。すなわち、像ぶれ補正があると、図4(A)に示すような像ぶれ補正がない場合の換算係数マップをそのまま利用することはできない。そこで、変換係数算出部14は、像ぶれ補正量(光学像の移動量)に基づき、換算係数マップを変化させ、デフォーカス量を算出する画素に適切な換算係数を取得する。   The movement of the optical image with respect to the image sensor 103 causes a change in the correspondence between the pixel and the conversion coefficient. That is, if there is image blur correction, the conversion coefficient map in the case where there is no image blur correction as shown in FIG. 4A cannot be used as it is. Therefore, the conversion coefficient calculation unit 14 changes the conversion coefficient map based on the image blur correction amount (the movement amount of the optical image), and acquires an appropriate conversion coefficient for the pixel for calculating the defocus amount.

<換算係数決定処理>
上述のように像ぶれ補正(防振機構)を用いる場合には、距離演算処理において換算係数マップを調整することが必要となる。以下、像ぶれ補正を考慮した場合の測距演算処理(距離情報取得処理)を、図5(A)に示すフローチャートを参照して説明する。
<Conversion factor determination process>
When the image blur correction (anti-vibration mechanism) is used as described above, it is necessary to adjust the conversion coefficient map in the distance calculation process. Hereinafter, distance calculation processing (distance information acquisition processing) in consideration of image blur correction will be described with reference to a flowchart shown in FIG.

ステップS501(画素選択処理)において、演算処理部104は、距離算出を行う画素の撮像素子上の位置を選択する。以下の説明では、ステップS501において選択された画素を、対象画素と称する。   In step S501 (pixel selection processing), the arithmetic processing unit 104 selects the position on the image sensor of the pixel for which the distance is calculated. In the following description, the pixel selected in step S501 is referred to as a target pixel.

ステップS502(像ぶれ補正量取得処理)において、像ぶれ補正量取得部13は、像ぶれ補正部150から像ぶれ補正量を取得する。像ぶれ補正量は、上述したように、撮像素子に対する像の移動量に関連する情報である。像ぶれ補正量は、補正部材1011の移動量であってもよい。   In step S <b> 502 (image blur correction amount acquisition processing), the image blur correction amount acquisition unit 13 acquires the image blur correction amount from the image blur correction unit 150. As described above, the image blur correction amount is information related to the amount of image movement with respect to the image sensor. The image blur correction amount may be a movement amount of the correction member 1011.

ステップS503(換算係数決定処理)において、変換係数算出部14は、対象画素の変換係数(式(3)に示すように像ズレ量をデフォーカス量に変換するための係数)を決定する。変換係数算出部14は、像ぶれ補正量に基づいて、像ぶれ補正により移動した光学像に応じて換算係数マップを補正する。変換係数算出部14は、補正後の換算係数マップから対象画素の換算係数を決定する。ステップS503の処理は、換算係数を補正する換算係数補正処理と捉えることもできるし、デフォーカス量(距離情報)を補正する距離
情報補正処理と捉えることもできる。
In step S503 (conversion coefficient determination process), the conversion coefficient calculation unit 14 determines a conversion coefficient (a coefficient for converting an image shift amount into a defocus amount as shown in Expression (3)) for the target pixel. The conversion coefficient calculation unit 14 corrects the conversion coefficient map according to the optical image moved by the image blur correction based on the image blur correction amount. The conversion coefficient calculation unit 14 determines the conversion coefficient of the target pixel from the corrected conversion coefficient map. The process of step S503 can be regarded as a conversion coefficient correction process for correcting the conversion coefficient, or can be regarded as a distance information correction process for correcting the defocus amount (distance information).

換算係数マップの補正方法は、像ぶれ補正量の大きさに応じて異ならせることが好ましい。本実施形態では、像ぶれ補正量が(1)小さい場合、(2)やや大きい場合、(3)大きい場合ごとに処理を異ならせる。以下では、まず、それぞれの場合の処理について説明し、その後に場合分けの基準となる像ぶれ補正量の閾値について説明する。   It is preferable that the conversion coefficient map correction method varies depending on the amount of image blur correction. In the present embodiment, the processing is different for each case where the image blur correction amount is (1) small, (2) slightly large, and (3) large. In the following, the processing in each case will be described first, and then the threshold value of the image blur correction amount serving as a reference for case classification will be described.

[1.像ぶれ補正量が小さい場合]
像ぶれ補正量が小さい場合には、像ぶれ補正量が0の状態に関する換算係数マップを撮像面上の画素の移動量に基づいて平行移動すればよい。図4(A)は、像ぶれ補正量が0の状態に関する換算係数マップを示し、図4(B)は補正後の換算係数マップを示す。この例では、像ぶれ補正量(x,y)=(1,0)としている。この場合、補正後の換算係数マップをK'(x,y)とすると、K'(x,y)=K(x+1, y)となる。
[1. When image blur correction amount is small]
When the image blur correction amount is small, the conversion coefficient map relating to the state where the image blur correction amount is 0 may be translated based on the movement amount of the pixel on the imaging surface. FIG. 4A shows a conversion coefficient map for a state where the image blur correction amount is 0, and FIG. 4B shows a corrected conversion coefficient map. In this example, the image blur correction amount (x, y) = (1,0). In this case, if the corrected conversion coefficient map is K ′ (x, y), K ′ (x, y) = K (x + 1, y).

像ぶれ補正量は連続的に変化するため、換算係数マップの移動量はサブピクセル値となりうる。その際は補間を用いて換算係数マップを再作成すればよい。この際、変換係数算出部14は、出力マップのデータに欠陥が生じないよう、出力マップ座標に基づき入力マップデータのサンプリング及び補間を行うバックワードマッピングによりマップの再作成を実現する。補間手法は特に限定されない。変換係数算出部14は、補間手法に応じて、演算した入力マップ上のサンプリング座標の近傍の画素値を用いて補間処理をおこなう。補間処理には例えば4近傍を用いて線形補間を行うバイリニア補間処理、16近傍を用いて3次補間をおこなうバイキュービック補間処理などが利用可能である。   Since the image blur correction amount changes continuously, the movement amount of the conversion coefficient map can be a subpixel value. In that case, the conversion coefficient map may be recreated using interpolation. At this time, the transform coefficient calculation unit 14 realizes re-creation of the map by backward mapping that samples and interpolates the input map data based on the output map coordinates so that the output map data is not defective. The interpolation method is not particularly limited. The conversion coefficient calculation unit 14 performs an interpolation process using pixel values in the vicinity of the calculated sampling coordinates on the input map according to the interpolation method. As the interpolation processing, for example, bilinear interpolation processing that performs linear interpolation using 4 neighborhoods, bicubic interpolation processing that performs cubic interpolation using 16 neighborhoods, and the like can be used.

図5(C)を用いて、典型的な例としてバイリニア補間を説明する。黒丸601は、出力マップ上の或る画素の、入力マップ上での対応点(サンプリング点)を示す。サンプリング点のx座標およびy座標は、一般に非整数である。変換係数算出部14は、サンプリング座標を中心とする周辺の4つの入力マップデータ(白丸で示すデータ)を用いて、バイリニア補間により出力マップのデータを求める。具体的には、変換係数算出部14は、メモリから4近傍すなわち([x],[y]),([x+1],[y]),([x],[y+1]),([x+1],[y+1])の4点の入力マップデータを読み出す。なお、[x]は値xの整数部分を表す。そして、変換係数算出部14は、以下の式にしたがって、出力マップのマップ値を計算する。

Figure 2017194591
Bilinear interpolation will be described as a typical example with reference to FIG. A black circle 601 indicates a corresponding point (sampling point) of a certain pixel on the output map on the input map. The x and y coordinates of sampling points are generally non-integer. The conversion coefficient calculation unit 14 obtains output map data by bilinear interpolation using peripheral four input map data (data indicated by white circles) around the sampling coordinates. More specifically, the transform coefficient calculation unit 14 has four neighbors from the memory, that is, ([x], [y]), ([x + 1], [y]), ([x], [y + 1]), ([x + 1 ], [Y + 1]) are read out. [X] represents the integer part of the value x. Then, the conversion coefficient calculation unit 14 calculates a map value of the output map according to the following formula.
Figure 2017194591

ここで、K(x,y)は入力マップ(すなわち、像ぶれ補正量が0の換算係数マップ)であり、K'(x,y)は出力マップ(すなわち、像ぶれ補正を考慮した換算係数マップ)である。   Here, K (x, y) is an input map (that is, a conversion coefficient map with an image blur correction amount of 0), and K ′ (x, y) is an output map (that is, a conversion coefficient considering image blur correction). Map).

上記処理を順次行うことにより換算係数マップを補間できる。ただし、実際には、換算係数マップ全体を再作成する必要はなく、ステップS501(画素選択処理)において取得した対象画素の位置の換算係数のみを求めれば十分である。   The conversion coefficient map can be interpolated by sequentially performing the above processing. However, actually, it is not necessary to recreate the entire conversion coefficient map, and it is sufficient to obtain only the conversion coefficient of the position of the target pixel acquired in step S501 (pixel selection processing).

[2.像ぶれ補正量がやや大きい場合]
像ぶれ補正量が少し大きくなると、補正部材1011の移動により光学像の平行移動に偏心歪曲収差の影響が加わる。したがって、像は単に平行移動するではなく、拡大縮小や
あおりのような幾何変形も生じる。ただし、像ぶれ補正による光学像の移動がそれほど大きくない場合、光量の変化は小さいため、近似的には換算係数マップの幾何変換(一般には射影変換)により、光学像の移動に対応する換算係数マップの再作成を行うことができる。つまり、変換係数算出部14は、光学像の並進移動や拡大縮小・あおりの動きに合わせて、像ぶれ補正量が0の場合の換算係数マップを変形させる。
[2. When image blur correction amount is slightly large]
When the image blur correction amount is slightly increased, the movement of the correction member 1011 causes the influence of the eccentric distortion on the parallel movement of the optical image. Therefore, the image does not simply move in parallel, but geometric deformation such as enlargement / reduction or tilting also occurs. However, if the movement of the optical image due to image blur correction is not so large, the change in the amount of light is small. Therefore, the conversion coefficient corresponding to the movement of the optical image is approximated by geometric conversion (generally projective conversion) of the conversion coefficient map. You can recreate the map. That is, the conversion coefficient calculation unit 14 deforms the conversion coefficient map when the image blur correction amount is 0 in accordance with the translational movement or enlargement / reduction / tilting movement of the optical image.

[3.像ぶれ補正量が大きい場合]
像ぶれ補正量がさらに大きい場合は、光学像の幾何学的な変形による光量の変化が無視できなくなる。この場合には、光学系101のズームステート、被写体距離、絞り値のみならず、像ぶれ補正量のx,yのパラメータ毎に像高に対する換算係数マップを事前に作成
し保持しておけば対応可能である。変換係数算出部14は、条件が一致する換算係数マップを取得して、対象画素に適用する換算係数を決定すればよい。
[3. When image blur correction amount is large]
When the amount of image blur correction is larger, the change in the amount of light due to geometric deformation of the optical image cannot be ignored. In this case, a conversion coefficient map for the image height is created and held in advance for each of the x and y parameters of the image blur correction amount as well as the zoom state, subject distance, and aperture value of the optical system 101. Is possible. The conversion coefficient calculation unit 14 may acquire a conversion coefficient map that matches the conditions and determine a conversion coefficient to be applied to the target pixel.

もしくは、換算係数マップを像ぶれ補正量に応じて変形させても良い。そのために、例えば像ぶれ補正量の変化に伴う各像位置における換算係数の変化を、超平面のフィッティング関数の係数(フィッティングパラメータ)として保持しておく。変換係数算出部14は、換算係数マップにフィッティング関数を適用して変形することで像ぶれ補正量に対応した換算係数マップを取得することもできる。   Alternatively, the conversion coefficient map may be deformed according to the image blur correction amount. For this purpose, for example, the change in the conversion coefficient at each image position accompanying the change in the image blur correction amount is held as a coefficient (fitting parameter) of the hyperplane fitting function. The conversion coefficient calculation unit 14 can also obtain a conversion coefficient map corresponding to the image blur correction amount by applying a fitting function to the conversion coefficient map and deforming it.

また、複数の像ぶれ補正量について換算係数マップを事前に作成・格納しておき、実際の像ぶれ補正量に最も近い換算係数マップに基づいて、上記(1)または(2)の処理を施して、対象画素に適用する換算係数を決定してもよい。すなわち、複数の所定の像ぶれ補正量に対して像面内の位置に応じた換算係数マップをメモリに保持しておき、変換係数算出部14は、実際の像ぶれ補正量に最も近い換算係数マップを平行移動または射影変換して対象画素に適用する換算係数を決定してもよい。   In addition, a conversion coefficient map is created and stored in advance for a plurality of image blur correction amounts, and the above processing (1) or (2) is performed based on the conversion coefficient map closest to the actual image blur correction amount. Thus, the conversion coefficient applied to the target pixel may be determined. That is, a conversion coefficient map corresponding to the position in the image plane is stored in the memory for a plurality of predetermined image blur correction amounts, and the conversion coefficient calculation unit 14 converts the conversion coefficient closest to the actual image blur correction amount. A conversion coefficient to be applied to the target pixel may be determined by translating or projecting the map.

[場合分けの基準について]
以上のように、像ぶれ補正量の大きさに応じて処理を異ならせることが好ましい。ここで、場合分けの基準となる像ぶれ量の閾値は、結像光学系101によって異なるので、適当な手法で決定すればよい。たとえば、距離が既知の種々の被写体を対象として、種々の像ぶれ補正量を適用した場合に、上記3つの処理により距離情報を求める。第1の手法による測距誤差が許容範囲以上となる像ぶれ補正量を、「像ぶれ補正量が小さい」場合と「像ぶれ補正量がやや大きい」場合を区別する第1の閾値として決定できる。同様に、第2の手法よる測距誤差が許容範囲以上となる像ぶれ補正量を、「像ぶれ補正量がやや大きい」場合と「像ぶれ補正量が大きい」場合を区別する第2の閾値として決定できる。
[Case classification criteria]
As described above, it is preferable to change the processing according to the magnitude of the image blur correction amount. Here, the threshold value of the amount of image blur, which is a criterion for classification, differs depending on the imaging optical system 101, and may be determined by an appropriate method. For example, when various image blur correction amounts are applied to various subjects with known distances, the distance information is obtained by the above three processes. The image blur correction amount at which the distance measurement error by the first method is greater than or equal to the allowable range can be determined as a first threshold value that distinguishes between the case where the image blur correction amount is small and the case where the image blur correction amount is slightly large. . Similarly, an image blur correction amount at which the distance measurement error according to the second method is greater than or equal to an allowable range is set to a second threshold value that distinguishes between “a little image blur correction amount” and “a large image blur correction amount”. Can be determined as

変換係数算出部14は、像ぶれ補正量が第1の閾値以下のときは第1の手法を、第1の閾値よりも大きく第2の閾値以下のときは第2の手法を、第2の閾値よりも大きいときは第3の手法に従って換算係数を取得する。像ぶれ補正量が閾値以下のときと閾値より大きい場合で処理を変えることと、像ぶれ補正量が閾値より小さいときと閾値以上の場合で処理を変えることは技術的に同義である。したがって、像ぶれ補正量が閾値以下か否かを判定する代わりに、像ぶれ補正量が閾値より小さいか否かを判定してもよい。   The conversion coefficient calculation unit 14 uses the first method when the image blur correction amount is equal to or smaller than the first threshold, the second method when the image blur correction amount is larger than the first threshold and equal to or smaller than the second threshold, and the second method. When it is larger than the threshold value, the conversion coefficient is acquired according to the third method. It is technically synonymous to change the process when the image blur correction amount is equal to or smaller than the threshold value and when the image blur correction amount is smaller than the threshold value and when the image blur correction amount is equal to or greater than the threshold value. Accordingly, instead of determining whether or not the image blur correction amount is equal to or smaller than the threshold value, it may be determined whether or not the image blur correction amount is smaller than the threshold value.

ステップS504の像ズレ量算出処理は、図2におけるステップS201と同様の処理であるため、説明を省略する。ステップS505(距離算出処理)では、距離算出部15は、ステップS503にて取得した換算係数の値を用いて式(3)により、像ズレ量からデフォーカス量を算出する。   The image shift amount calculation process in step S504 is the same process as step S201 in FIG. In step S505 (distance calculation processing), the distance calculation unit 15 calculates a defocus amount from the image shift amount by using the value of the conversion coefficient acquired in step S503, using equation (3).

像ぶれ補正量が0の状態に対する換算係数マップは、例えば、以下のように決定できる。まず、結像光学系の状態(焦点距離や絞り、フォーカス距離、デフォーカス量)や撮像
素子103上の測距画素の位置(像高)などの所定の測距条件において、既知の距離にある様々な被写体を撮影する。各被写体から取得した信号から、像ズレ量と所定の算出式により換算係数マップを算出する。さらに、各被写体の実際の距離と、像ズレ量及び換算係数から求まる距離が近くなるように、換算係数の調整を行う。あるいは、同様の手法を結像光学系101や距離測定装置102の設計値を元にした数値シミュレーションで行うことにより、換算係数マップを決定してもよい。
The conversion coefficient map for the state where the image blur correction amount is 0 can be determined as follows, for example. First, it is at a known distance in a predetermined distance measurement condition such as the state of the imaging optical system (focal length, aperture, focus distance, defocus amount) and the position of the distance measurement pixel on the image sensor 103 (image height). Shoot various subjects. A conversion coefficient map is calculated from a signal acquired from each subject using an image shift amount and a predetermined calculation formula. Further, the conversion coefficient is adjusted so that the actual distance of each subject is close to the distance obtained from the image shift amount and the conversion coefficient. Alternatively, the conversion coefficient map may be determined by performing a similar method by numerical simulation based on the design values of the imaging optical system 101 and the distance measuring device 102.

(実施形態2)
撮像素子面の倒れや球面収差、軸上色収差などの影響を受け、デフォーカス量がゼロになるべきベストピント位置でも像ズレ量はゼロとはならないことがある。また、ベストピント位置はRGB画素や像高によって異なることもある。測距演算処理においては、式(5)のように係数Mを採用することで、この影響を補正できる。

Figure 2017194591
(Embodiment 2)
The image shift amount may not be zero even at the best focus position where the defocus amount should be zero due to the influence of the tilt of the image sensor surface, spherical aberration, axial chromatic aberration, and the like. Further, the best focus position may vary depending on the RGB pixel and the image height. In the distance calculation processing, this influence can be corrected by adopting the coefficient M as shown in Equation (5).
Figure 2017194591

この場合、補正値Mも像高に応じて異なる値となる。つまり、像高によるベストピント位置のずれを考慮して、デフォーカス量を誤差を小さく求めるためには、基線長に関連する係数Kとベストピント位置の補正量Mをメモリ105に蓄えておく必要がある。本実施形態では、メモリ105に、係数Kと係数Mからなる2要素のベクトルパラメータを、図6のように画素位置に応じた2次元テーブルとしてメモリ105に蓄える。すなわち、本実施形態では、ベクトルパラメータ(K,M)が換算係数に相当し、係数Kおよび係数Mを画素位置ごとに格納したテーブルT(x,y)=(K(x,y),M(x,y))が換算係数マップに相当する。   In this case, the correction value M also varies depending on the image height. That is, in order to obtain the defocus amount with a small error in consideration of the shift of the best focus position due to the image height, it is necessary to store the coefficient K related to the baseline length and the correction amount M of the best focus position in the memory 105. There is. In this embodiment, the two-element vector parameter composed of the coefficient K and the coefficient M is stored in the memory 105 as a two-dimensional table corresponding to the pixel position as shown in FIG. That is, in this embodiment, the vector parameter (K, M) corresponds to the conversion coefficient, and the table T (x, y) = (K (x, y), M) in which the coefficient K and the coefficient M are stored for each pixel position. (X, y)) corresponds to the conversion coefficient map.

本実施形態における測距演算処理のフローチャートを図7に示す。図7に示すように、処理内容は実施形態1と同様である。   FIG. 7 shows a flowchart of the distance measurement calculation process in this embodiment. As shown in FIG. 7, the processing content is the same as that of the first embodiment.

本実施形態では、ステップS603(換算係数決定処理)において、ステップS501で選択した対象画素に対応する換算係数(K,M)を決定する処理を行う。具体的な処理は、実施形態1と実質的に同様である。すなわち、像ぶれ補正量が0の場合の換算係数マップを、ステップS502に取得した像ぶれ補正量に応じて補正すればよい。この場合も、実施形態1と同様に、像ぶれ補正量の大きさに応じて異なる処理により換算係数マップを補正することが好ましい。   In the present embodiment, in step S603 (conversion coefficient determination process), a process for determining the conversion coefficient (K, M) corresponding to the target pixel selected in step S501 is performed. Specific processing is substantially the same as that of the first embodiment. That is, the conversion coefficient map when the image blur correction amount is 0 may be corrected according to the image blur correction amount acquired in step S502. Also in this case, as in the first embodiment, it is preferable to correct the conversion coefficient map by different processing depending on the magnitude of the image blur correction amount.

ステップS605(距離算出処理)では、距離算出部15は、ステップS603にて取得した換算係数の値を用いて式(5)により、像ズレ量からデフォーカス量を算出する。   In step S605 (distance calculation processing), the distance calculation unit 15 calculates the defocus amount from the image shift amount by the equation (5) using the value of the conversion coefficient acquired in step S603.

像ぶれ補正量が0の状態に対応する換算係数マップ(K,M)は、例えば、以下のように決定できる。まず、結像光学系の状態(焦点距離や絞り、フォーカス距離、デフォーカス量)や撮像素子103上の測距画素の位置(像高)などの所定の測距条件において、既知の距離にある様々な被写体を撮影する。各被写体から取得した信号から、像ズレ量と所定の算出式により換算係数マップ(K,M)を算出する。各被写体の実際の距離と、像ズレ量及び換算係数(K,M)から求まる距離が近くなるように、換算係数(K,M)の調整を行う。あるいは、同様の手法を結像光学系101や距離測定装置102の設計値を元にした数値シミュレーションで行うことにより、換算係数マップ(K,M)を決定してもよい。   The conversion coefficient map (K, M) corresponding to the state in which the image blur correction amount is 0 can be determined as follows, for example. First, it is at a known distance in a predetermined distance measurement condition such as the state of the imaging optical system (focal length, aperture, focus distance, defocus amount) and the position of the distance measurement pixel on the image sensor 103 (image height). Shoot various subjects. A conversion coefficient map (K, M) is calculated from a signal acquired from each subject using an image shift amount and a predetermined calculation formula. The conversion coefficient (K, M) is adjusted so that the actual distance of each subject is close to the distance obtained from the image shift amount and the conversion coefficient (K, M). Alternatively, the conversion coefficient map (K, M) may be determined by performing a similar method by numerical simulation based on the design values of the imaging optical system 101 and the distance measuring device 102.

(実施形態3)
実施形態1,2においては、鏡筒枠によるケラレや収差がない場合を基本的に想定して
いる。しかし、撮像レンズの小型化の要請から通常の撮像用の光学系ではレンズ枠で光束がけられるいわゆる口径食が発生し,絞り内を通過した光束が全て撮像素子に導かれることはない。この影響により、瞳上での透過率分布の重心間隔である基線長Wの値および関連する換算係数Kも像高に応じて異なる値となる。加えて、デフォーカス算出画素が周辺画素になるにつれA像・B像間の像の違いが大きくなり、これを考慮する必要性が高まる。
(Embodiment 3)
In the first and second embodiments, it is basically assumed that there is no vignetting or aberration caused by the lens barrel. However, because of the demand for downsizing of the imaging lens, so-called vignetting occurs in the normal imaging optical system so that the luminous flux is generated by the lens frame, and all the luminous flux that has passed through the aperture is not guided to the imaging device. Due to this influence, the value of the baseline length W, which is the distance between the centers of gravity of the transmittance distribution on the pupil, and the associated conversion coefficient K also become different values depending on the image height. In addition, as the defocus calculation pixel becomes a peripheral pixel, the image difference between the A image and the B image increases, and the necessity to consider this increases.

図8は撮像素子103の要部上面図である。ここでは撮像素子103の中心を通り、光電変換部1101と光電変換部1102の各中心点を結ぶ方向に垂直な線分1031を境界として、撮像素子領域1032と撮像素子領域1033とする。撮像素子領域1032(第二の撮像素子領域)では、第二の瞳領域を通過した光束を受光する光電変換部1102を第一の光電変換部とし、光電変換部1101を第二の光電変換部としている。一方、領域1033(第一の撮像素子領域)では、第一の瞳領域を通過した光束を受光する光電変換部1101を第一の光電変換部とし、光電変換部1102を第二の光電変換部とする。   FIG. 8 is a top view of the main part of the image sensor 103. Here, an imaging element region 1032 and an imaging element region 1033 are defined with a line segment 1031 passing through the center of the imaging element 103 and perpendicular to the direction connecting the central points of the photoelectric conversion unit 1101 and the photoelectric conversion unit 1102 as a boundary. In the imaging element region 1032 (second imaging element region), the photoelectric conversion unit 1102 that receives the light beam that has passed through the second pupil region is the first photoelectric conversion unit, and the photoelectric conversion unit 1101 is the second photoelectric conversion unit. It is said. On the other hand, in the region 1033 (first image sensor region), the photoelectric conversion unit 1101 that receives the light beam that has passed through the first pupil region is the first photoelectric conversion unit, and the photoelectric conversion unit 1102 is the second photoelectric conversion unit. And

図9(A)は、撮像素子103の中心付近に配置された測距画素110における光電変換部1102に対応する射出瞳130上での瞳透過率分布を表わし、第二の瞳領域に対応する.黒いほど透過率が高く、白いほど透過率が低い。同様に、図9(B)は撮像素子103の中心付近に配置された測距画素110における光電変換部1101に対応する射出瞳130上での瞳透過率分布を表わす。   FIG. 9A shows a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1102 in the ranging pixel 110 arranged in the vicinity of the center of the image sensor 103, and corresponds to the second pupil region. . The blacker the transmittance is higher, and the whiter the transmittance is lower. Similarly, FIG. 9B shows a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1101 in the ranging pixel 110 arranged in the vicinity of the center of the image sensor 103.

図9(C)は、撮像素子103の中心付近の測距画素110について、x軸断面における透過率分布を表わしたもので、横軸がx軸座標、縦軸が透過率である。実線が光電変換部1102に対応する透過率分布(第二の瞳領域に対応)、点線が光電変換部1101に対応する透過率分布(第一の瞳領域に対応)である。瞳透過率分布は、光電変換部、マイクロレンズと射出瞳の位置関係およびマイクロレンズの収差・回折・撮像素子の入射面から光電変換部に至る光路中の光散乱・吸収などの光伝播状態により決まる。   FIG. 9C shows the transmittance distribution in the x-axis cross section of the ranging pixel 110 near the center of the image sensor 103, where the horizontal axis is the x-axis coordinate and the vertical axis is the transmittance. A solid line is a transmittance distribution corresponding to the photoelectric conversion unit 1102 (corresponding to the second pupil region), and a dotted line is a transmittance distribution corresponding to the photoelectric conversion unit 1101 (corresponding to the first pupil region). The pupil transmittance distribution depends on the positional relationship between the photoelectric conversion unit, the microlens and the exit pupil, and the light propagation state such as aberration, diffraction, and light scattering / absorption in the optical path from the incident surface of the image sensor to the photoelectric conversion unit. Determined.

図9(D)は撮像素子領域1032の測距画素110における光電変換部1102に対応する射出瞳130上での瞳透過率分布を表わし、第二の瞳領域に対応する。図9(E)は撮像素子領域1032の測距画素110における光電変換部1101に対応する射出瞳130上での瞳透過率分布を表わし、第一の瞳領域に対応する。図9(F)は撮像素子領域1032の測距画素110についてx軸断面における透過率分布を表わしたものである。   FIG. 9D shows the pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1102 in the distance measuring pixel 110 in the imaging element region 1032 and corresponds to the second pupil region. FIG. 9E shows a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1101 in the ranging pixel 110 in the imaging element region 1032 and corresponds to the first pupil region. FIG. 9F shows the transmittance distribution in the x-axis cross section of the ranging pixel 110 in the imaging element region 1032.

一般に、周辺像高では、撮像レンズの小型化の要請からレンズ枠で光束がけられるいわゆる口径食が発生し、絞り内を通過した光束が全て撮像素子に導かれることはない。瞳上で片側から口径食が発生するため、元の透過率分布の形状に応じて、透過効率の変化量が異なる。図9(D)に示すように、口径食が発生する領域130aが、元の透過率が高い領域の場合は透過効率の低下量が大きい。一方、図9(E)に示すように、口径食が発生する領域130aが、元の透過率が低い領域の場合は透過効率の低下量は小さい。よって、撮像素子領域1032の測距画素110においては、像高が高くなるに従い、第二の瞳領域の透過率分布は第一の瞳領域の透過率分布と比べ、けれられがない場合に対して形状が欠損により大きく変化する。したがって、重心位置が変わり、基線長が短くなる方向に変化してしまう。   In general, at the peripheral image height, so-called vignetting occurs where the light flux is generated by the lens frame due to a demand for downsizing the imaging lens, and all the light flux that has passed through the aperture is not guided to the imaging device. Since vignetting occurs from one side on the pupil, the amount of change in transmission efficiency varies depending on the shape of the original transmittance distribution. As shown in FIG. 9D, when the region 130a where vignetting occurs is a region where the original transmittance is high, the amount of decrease in transmission efficiency is large. On the other hand, as shown in FIG. 9E, when the region 130a where vignetting occurs is a region where the original transmittance is low, the amount of decrease in transmission efficiency is small. Therefore, in the ranging pixel 110 of the imaging element region 1032, as the image height increases, the transmittance distribution of the second pupil region is less than that of the first pupil region. The shape changes greatly due to defects. Therefore, the position of the center of gravity changes, and the base line length changes in the direction of shortening.

図9(G)は撮像素子領域1033の測距画素110における光電変換部1102に対応する射出瞳130上での瞳透過率分布を表わし、第二の瞳領域に対応する。図9(H)は撮像素子領域1033の測距画素110における光電変換部1101に対応する射出瞳
130上での瞳透過率分布を表わし、第一の瞳領域に対応する。図9(I)は撮像素子領域1033の測距画素についてx軸断面における透過率分布を表わしたものである。
FIG. 9G represents a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1102 in the distance measuring pixel 110 in the imaging element region 1033, and corresponds to the second pupil region. FIG. 9H represents a pupil transmittance distribution on the exit pupil 130 corresponding to the photoelectric conversion unit 1101 in the distance measuring pixel 110 in the imaging element region 1033, and corresponds to the first pupil region. FIG. 9I illustrates the transmittance distribution in the x-axis cross section for the distance measuring pixels in the image sensor region 1033.

撮像素子領域1032と同様に、撮像素子領域1033の測距画素110においては、像高が高くなるに従い、第一の瞳領域の透過率分布は第二の瞳領域の透過率分布と比べ、けれられがない場合に対して形状が欠損により大きく変化する。したがって、重心位置が変わり、基線長が短くなる方向に変化してしまう。   Similar to the image sensor region 1032, in the ranging pixel 110 of the image sensor region 1033, as the image height increases, the transmittance distribution of the first pupil region is compared with the transmittance distribution of the second pupil region. In contrast to the case where there is no failure, the shape changes greatly due to the defect. Therefore, the position of the center of gravity changes, and the base line length changes in the direction of shortening.

以上のように、各光電変換部の瞳感度分布の重心位置間の長さである重心間隔は像高(画素位置)に応じて異なり、基線長Wの値も像高に応じて異なる値となる。そのため、精度の高い測距を行うためには式(2)または式(5)を用いた距離算出処理において、像高に応じた基線長の値を用いる必要がある。   As described above, the center-of-gravity interval, which is the length between the center-of-gravity positions of the pupil sensitivity distribution of each photoelectric conversion unit, varies depending on the image height (pixel position), and the value of the baseline length W also varies depending on the image height. Become. Therefore, in order to perform distance measurement with high accuracy, it is necessary to use the value of the base line length corresponding to the image height in the distance calculation processing using Expression (2) or Expression (5).

このように、撮像素子上の画素の位置に応じた受光量分布の値の変化量と、基線長W、もしくは関連する換算係数には対応がある。   Thus, there is a correspondence between the amount of change in the received light amount distribution value according to the position of the pixel on the image sensor, the baseline length W, or a related conversion factor.

<像修正>
撮像レンズの枠などによる光束のケラレがあると、A像とB像を各々形成する光学系の開口関数が異なってくるため、A像とB像は互いに異なる形状となり、測距精度が悪化する。そこで、公知の手法を用いて像修正処理を行う。像ぶれ補正がOFFのときの基本的な像修正処理を用いた測距方法については特開2013−222183号公報(特許文献3)に公開されている。
<Image correction>
If there is vignetting of the light beam due to the frame of the imaging lens or the like, the aperture functions of the optical systems that respectively form the A image and the B image are different, so the A image and the B image have different shapes, and the ranging accuracy deteriorates. . Therefore, image correction processing is performed using a known method. A distance measuring method using basic image correction processing when image blur correction is OFF is disclosed in Japanese Patent Laid-Open No. 2013-222183 (Patent Document 3).

像修正フィルタは像修正関数を元に作成される。像修正関数は、例えば、第1の瞳領域あるいは第2の瞳領域に対応する線像分布関数とする。A像およびB像と、像修正フィルタLa´、Lb´を用いて、像形状を修正したA´像およびB´像を作成する。A像の一次元信号A[x]に、像修正フィルタLb´[x]を、畳み込み積分することで、A´[x]を作成する。B像についても同様に、B像の一次元信号B[x]に像修正フィルタLa´(x)を、畳み込み積分することで、B´[x]を作成する。像修正フィルタは、例えば9×1の多次元ベクトルのフィルタ係数(f1,…,f9)から構成され、像高に応じて事前計算されている。   The image correction filter is created based on an image correction function. For example, the image correction function is a line image distribution function corresponding to the first pupil region or the second pupil region. Using the A and B images and the image correction filters La ′ and Lb ′, an A ′ image and a B ′ image whose image shapes are corrected are created. A ′ [x] is created by convolution integration of the image correction filter Lb ′ [x] with the one-dimensional signal A [x] of the A image. Similarly, for the B image, B ′ [x] is created by convolution integration of the image correction filter La ′ (x) with the one-dimensional signal B [x] of the B image. The image correction filter is composed of, for example, filter coefficients (f1,..., F9) of 9 × 1 multidimensional vectors, and is pre-calculated according to the image height.

しかしながら、像ぶれ補正による光像の移動に従い像修正フィルタの対応像高も移動するため、換算係数と同様に、像ぶれ補正量に応じて幾何変換をかけてマップを補正しなければならない。像ぶれ補正を考慮した、像修正処理を測距演算処理のフローチャートの一例を図10に示す。   However, since the corresponding image height of the image correction filter also moves with the movement of the optical image by image blur correction, the map must be corrected by performing geometric transformation according to the image blur correction amount in the same manner as the conversion coefficient. FIG. 10 shows an example of a flowchart of the distance measurement calculation process for the image correction process in consideration of the image blur correction.

ステップS701の画素選択処理およびステップS702の防振補正量取得処理は、実施形態1のステップS501およびステップS503と同様であるため、説明を省略する。   The pixel selection process in step S701 and the image stabilization correction amount acquisition process in step S702 are the same as those in step S501 and step S503 in the first embodiment, and thus description thereof is omitted.

ステップS703の換算係数・像修正係数取得処理では、実施形態1のステップS504もしくは実施形態2のステップS604とほぼ同等な処理により換算係数を取得する。本実施形態では、さらに像ぶれ補正量に基づき像高について関連付けられた像修正フィルタ係数マップに幾何変形を行い、変換後の像修正フィルタ係数マップから選択画素に対応した像修正フィルタ係数を取得する。メモリへの保存容量を減らすため、像ぶれ補正量に応じたフィルタ係数の変化を多項式係数等で別途保存し、この多項式を用いた演算によりフィルタ係数を取得しても良い。これにより、像ぶれ補正量に対応する像修正フィルタ係数マップの保存数を限定できる。   In the conversion coefficient / image correction coefficient acquisition process in step S703, the conversion coefficient is acquired by a process substantially equivalent to step S504 in the first embodiment or step S604 in the second embodiment. In the present embodiment, the image correction filter coefficient map associated with the image height is further geometrically deformed based on the image blur correction amount, and the image correction filter coefficient corresponding to the selected pixel is acquired from the converted image correction filter coefficient map. . In order to reduce the storage capacity in the memory, a change in the filter coefficient corresponding to the image blur correction amount may be separately stored as a polynomial coefficient or the like, and the filter coefficient may be obtained by calculation using this polynomial. Thereby, the number of stored image correction filter coefficient maps corresponding to the image blur correction amount can be limited.

なお、メモリ105にはあらかじめ、像ぶれ補正量が0のときの換算係数とフィルタ係数が、結像光学系101の撮影条件(F値、射出瞳距離)ごとに格納される。図11は、換算係数とフィルタ係数が画素位置に応じた2次元テーブルとしてメモリ105に格納される様子を示す図である。ここで、T1=(f1,…,fn)はフィルタ係数のベクトルを表し、T2=(K,M)は換算係数のベクトルを表す。ステップS703においては、画素位置に応じた2次元テーブルが、実施形態2と同様に、像ぶれ補正量に応じて幾何変形される。   It should be noted that the conversion coefficient and the filter coefficient when the image blur correction amount is 0 are stored in the memory 105 in advance for each imaging condition (F value, exit pupil distance) of the imaging optical system 101. FIG. 11 is a diagram showing how the conversion coefficient and the filter coefficient are stored in the memory 105 as a two-dimensional table corresponding to the pixel position. Here, T1 = (f1,..., Fn) represents a vector of filter coefficients, and T2 = (K, M) represents a vector of conversion coefficients. In step S703, the two-dimensional table corresponding to the pixel position is geometrically deformed according to the image blur correction amount, as in the second embodiment.

ステップS704の像修正処理は、ステップS703で得られる像修正フィルタを用いて、A像とB像を修正した像であるA´像とB´像が作成される。像修正フィルタは像修正関数を元に作成される。像修正関数は、例えば、第1の瞳領域あるいは第2の瞳領域に対応する線像分布関数とする。A像およびB像と、像修正フィルタLa´、Lb´を用いて、像形状を修正したA´像およびB´像を作成する。A像の一次元信号A[x]に、像修正フィルタLb´[x]を、畳み込み積分することで、A´[x]を作成する。B像についても同様に、B像の一次元信号B[x]に像修正フィルタLa´(x)を、畳み込み積分することで、B´[x]を作成する。   In the image correction process in step S704, an A ′ image and a B ′ image, which are images obtained by correcting the A image and the B image, are created using the image correction filter obtained in step S703. The image correction filter is created based on an image correction function. For example, the image correction function is a line image distribution function corresponding to the first pupil region or the second pupil region. Using the A and B images and the image correction filters La ′ and Lb ′, an A ′ image and a B ′ image whose image shapes are corrected are created. A ′ [x] is created by convolution integration of the image correction filter Lb ′ [x] with the one-dimensional signal A [x] of the A image. Similarly, for the B image, B ′ [x] is created by convolution integration of the image correction filter La ′ (x) with the one-dimensional signal B [x] of the B image.

ステップS705の像ズレ量算出処理は、像修正処理後のA像およびB像(すなわちA´像およびB´像)を用いる点を除けば、実施形態1のステップS502と同等である。ステップS706の距離算出処理は、実施形態1のステップS505もしくは実施形態2のS605の距離算出処理と同等であり、ステップS705の換算係数取得処理で取得した換算係数の値を用いて式(2)あるいは式(5)による測距演算処理が行われる。   The image shift amount calculation process in step S705 is the same as step S502 in the first embodiment except that the A image and the B image (that is, the A ′ image and the B ′ image) after the image correction process are used. The distance calculation process in step S706 is equivalent to the distance calculation process in step S505 of the first embodiment or S605 of the second embodiment, and the value of the conversion coefficient acquired in the conversion coefficient acquisition process in step S705 is used to calculate the equation (2). Alternatively, the ranging calculation process according to the equation (5) is performed.

像ぶれ補正量が0の状態に対応する換算係数マップ(K,M)は、例えば、以下のように決定できる。まず、結像光学系の状態(焦点距離や絞り、フォーカス距離、デフォーカス量)や撮像素子103上の測距画素の位置(像高)などの所定の測距条件において、既知の距離にある様々な被写体を撮影する。各被写体から取得した信号から、像ズレ量と所定の算出式により換算係数マップ(K,M)を算出する。各被写体の実際の距離と、像ズレ量及び換算係数(K,M)から求まる距離が近くなるように、換算係数(K,M)の調整を行う。あるいは、同様の手法を結像光学系101や距離測定装置102の設計値を元にした数値シミュレーションで行うことにより、換算係数マップ(K,M)を決定してもよい。   The conversion coefficient map (K, M) corresponding to the state in which the image blur correction amount is 0 can be determined as follows, for example. First, it is at a known distance in a predetermined distance measurement condition such as the state of the imaging optical system (focal length, aperture, focus distance, defocus amount) and the position of the distance measurement pixel on the image sensor 103 (image height). Shoot various subjects. A conversion coefficient map (K, M) is calculated from a signal acquired from each subject using an image shift amount and a predetermined calculation formula. The conversion coefficient (K, M) is adjusted so that the actual distance of each subject is close to the distance obtained from the image shift amount and the conversion coefficient (K, M). Alternatively, the conversion coefficient map (K, M) may be determined by performing a similar method by numerical simulation based on the design values of the imaging optical system 101 and the distance measuring device 102.

像ぶれ補正量が0の状態に対応する像修正フィルタは、結像光学系101や距離測定装置102の設計値を元にした数値シミュレーションによりあらかじめ作成できる。結像光学系の状態(焦点距離や絞り、フォーカス距離、デフォーカス量)や撮像素子103上の測距画素の位置(像高)などの所定の測距条件において、あらかじめ像修正フィルタを作成すればよい。   An image correction filter corresponding to a state where the image blur correction amount is 0 can be created in advance by numerical simulation based on the design values of the imaging optical system 101 and the distance measuring device 102. An image correction filter is created in advance under predetermined distance measurement conditions such as the state of the imaging optical system (focal length, aperture, focus distance, defocus amount) and the position of the distance measurement pixel on the image sensor 103 (image height). That's fine.

像修正フィルタの一例を図12に示す。図12(A)において、フィルタFy1301(第1のフィルタ)は、x方向に1、y方向にAy(Ayは2以上の整数)のセル数を有し、セル1303はセル値(フィルタ値)を有する。図12(B)において、フィルタFx1302(第2のフィルタ)は、x方向にAx、y方向に1(Axは2以上の整数)のセル数を有し、セル1304はセル値(フィルタ値)を有する。各セルが画像信号(S101又はS102)の1画素に対応する。   An example of the image correction filter is shown in FIG. In FIG. 12A, a filter Fy1301 (first filter) has a cell number of 1 in the x direction and Ay in the y direction (Ay is an integer of 2 or more), and a cell 1303 has a cell value (filter value). Have In FIG. 12B, the filter Fx1302 (second filter) has the number of cells Ax in the x direction and 1 (Ax is an integer of 2 or more) in the y direction, and the cell 1304 has a cell value (filter value). Have Each cell corresponds to one pixel of the image signal (S101 or S102).

(実施形態4)
上記の第1から第3の実施形態では、換算係数が像ぶれ補正量に応じて補正される。本実施形態では、換算係数ではなく像ズレ量が像ぶれ補正量に応じて補正される。デフォーカス量が像ズレ量と換算係数から求められるので、像ぶれ補正量に応じて換算係数を補正
する代わりに、像ぶれ補正量に応じて像ズレ量を補正しても同様の効果が得られる。
(Embodiment 4)
In the first to third embodiments, the conversion coefficient is corrected according to the image blur correction amount. In this embodiment, not the conversion coefficient but the image shift amount is corrected according to the image blur correction amount. Since the defocus amount is obtained from the image shift amount and the conversion coefficient, the same effect can be obtained by correcting the image shift amount according to the image blur correction amount instead of correcting the conversion coefficient according to the image blur correction amount. It is done.

本実施形態に係る距離測定装置102は、像ズレ量を補正するための補正係数を画素位置ごとに記憶した補正係数マップをメモリ105に保持する。   The distance measuring apparatus 102 according to the present embodiment holds a correction coefficient map in which the correction coefficient for correcting the image shift amount is stored for each pixel position in the memory 105.

本実施形態における測距演算処理の基本的な流れは第1の実施形態と同様である。そこで本実施形態における測距演算処理を、第1の実施形態(図5(B)のフローチャート)と比較して説明する。画素選択処理(S501)および像ぶれ補正量取得処理(S502)は第1の実施形態と同様である。換算係数取得処理(S503)においては、あらかじめ用意された換算係数マップに含まれる換算係数の値がそのまま利用される。像ズレ量算出処理(S504)では、まず、第1の実施形態と同様に相関値S(k)を最小とするシフト量として像ズレ量が求められる。その後、像ぶれ補正量に応じて補正係数マップを調整し、調整後の補正係数マップに含まれる補正係数を用いて、像ズレ量が補正される。補正係数マップの調整処理は、第1の実施形態における換算係数マップの調整処理と同様である。距離算出処理(S505)では、ステップS503で取得された換算係数と、ステップS504で取得された補正済み像ズレ量とを用いて、式(2)あるいは(3)にしたがってデフォーカス量が算出される。   The basic flow of ranging calculation processing in the present embodiment is the same as that in the first embodiment. Therefore, the distance measurement processing in the present embodiment will be described in comparison with the first embodiment (the flowchart in FIG. 5B). The pixel selection process (S501) and the image blur correction amount acquisition process (S502) are the same as those in the first embodiment. In the conversion coefficient acquisition process (S503), the value of the conversion coefficient included in the conversion coefficient map prepared in advance is used as it is. In the image shift amount calculation process (S504), first, as in the first embodiment, the image shift amount is obtained as a shift amount that minimizes the correlation value S (k). Thereafter, the correction coefficient map is adjusted according to the image blur correction amount, and the image shift amount is corrected using the correction coefficient included in the adjusted correction coefficient map. The adjustment process of the correction coefficient map is the same as the adjustment process of the conversion coefficient map in the first embodiment. In the distance calculation process (S505), the defocus amount is calculated according to the equation (2) or (3) using the conversion coefficient acquired in step S503 and the corrected image shift amount acquired in step S504. The

(その他の実施形態)
本発明の目的は、以下の実施形態によって達成することもできる。即ち、前述した実施形態の機能(演算手段などの機能)を実現するソフトウェアのプログラムコードを格納した記憶ないし記録媒体を、距離測定装置に供給する。そして、その演算部のコンピュータ(またはCPU、MPUなど)が記憶媒体に格納されたプログラムコードを読み出し上記機能を実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラム、これを格納した記憶媒体は本発明を構成することになる。
(Other embodiments)
The object of the present invention can also be achieved by the following embodiments. That is, a storage or recording medium storing software program codes for realizing the functions of the above-described embodiment (functions of arithmetic means, etc.) is supplied to the distance measuring device. The computer (or CPU, MPU, etc.) of the calculation unit reads the program code stored in the storage medium and executes the above function. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the program and the storage medium storing the program constitute the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も本発明に含まれる。更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれる。本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. The case where the functions of the above-described embodiment are realized by the processing is also included in the present invention. Furthermore, it is assumed that the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Included in the invention. When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.

デジタルカメラなどへの適用を考えると、本発明は、距離検出を専用で行う距離測定装置(一眼レフカメラ等で用いられる)としてよりも、撮像装置の撮像部を用いて距離検出も行ういわゆる撮像面測距に好適な装置と捉えることができる。上述した様に、本発明の距離測定装置における演算部は、半導体素子を集積化した集積回路を用いて構成することができ、IC、LSI、システムLSI、マイクロ処理ユニット(MPU)、中央演算装置(CPU)等で構成することができる。演算部をマイクロ処理ユニットや中央演算装置(CPU)等で構成する場合には、演算部は、コンピュータとして捉えることが可能である。本発明のプログラムは、所定の結像光学系と、所定の撮像部、コンピュータと、を備えた撮像装置のコンピュータにインストールすることによって、撮像装置を高精度の距離検出が可能なものとなすことができる。本発明のプログラムは、記録媒体の他、インターネットを通じて頒布することも可能である。   Considering application to a digital camera or the like, the present invention is a so-called imaging that performs distance detection using an imaging unit of an imaging device rather than a distance measurement device (used in a single-lens reflex camera or the like) that performs distance detection exclusively. It can be regarded as a device suitable for surface distance measurement. As described above, the arithmetic unit in the distance measuring device of the present invention can be configured using an integrated circuit in which semiconductor elements are integrated, and includes an IC, LSI, system LSI, micro processing unit (MPU), central processing unit. (CPU) or the like. When the arithmetic unit is configured by a micro processing unit, a central processing unit (CPU) or the like, the arithmetic unit can be regarded as a computer. By installing the program of the present invention in a computer of an imaging apparatus including a predetermined imaging optical system, a predetermined imaging unit, and a computer, the imaging apparatus can detect a distance with high accuracy. Can do. The program of the present invention can be distributed through the Internet in addition to the recording medium.

本発明により検出される距離を用いて、撮像装置にて得られる画像と対応する距離分布(距離マップ)を生成することができる。また、画像内の被写体のボケ量はデフォーカス量に依存するので、得られた画像に対して距離分布に基づく処理を行うことで、任意のボケ付加処理、撮影後のリフォーカス処理(任意の位置にピントを合わせる処理)等の画像処理などを適切に行うことができる。   Using the distance detected by the present invention, a distance distribution (distance map) corresponding to an image obtained by the imaging apparatus can be generated. Also, since the amount of blur of the subject in the image depends on the defocus amount, by performing processing based on the distance distribution on the obtained image, arbitrary blur addition processing and post-shooting refocus processing (optional Image processing such as processing for focusing on the position can be appropriately performed.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

14・・変換係数算出部
15・・距離算出部
102・・距離測定装置

14. Conversion coefficient calculation unit 15 Distance calculation unit 102 Distance measuring device

Claims (12)

像ぶれ補正手段と、
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得手段と、
前記像ぶれ補正手段による像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正手段と、
を備える、距離測定装置。
Image blur correction means;
Based on the first image based on the light beam passing through the first pupil region of the imaging optical system and the second image based on the light beam passing through the second pupil region of the imaging optical system, the distance Distance information acquisition means for acquiring information;
Distance information correction means for correcting the distance information based on an image blur correction amount by the image blur correction means;
A distance measuring device comprising:
前記距離情報取得手段は、前記第一の像と前記第二の像との像ズレ量を取得する第一の取得手段と、画素の位置に応じた換算係数を用いて前記像ズレ量から前記距離情報を取得する第二の取得手段と、を有し、
前記距離情報補正手段は、前記像ぶれ補正量に基づいて前記換算係数を取得する第三の取得手段を有する、
請求項1に記載の距離測定装置。
The distance information acquisition means uses first acquisition means for acquiring an image shift amount between the first image and the second image, and the image shift amount from the image shift amount using a conversion coefficient corresponding to a pixel position. Second acquisition means for acquiring distance information;
The distance information correction unit includes a third acquisition unit that acquires the conversion coefficient based on the image blur correction amount.
The distance measuring device according to claim 1.
所定の像ぶれ補正量に対する、像面内の位置に応じた換算係数マップを記憶する記憶手段をさらに備え、
前記第三の取得手段は、前記換算係数マップを前記像ぶれ補正量に応じて幾何変換することによって、前記換算係数を取得する、
請求項2に記載の距離測定装置。
Storage means for storing a conversion coefficient map corresponding to a position in the image plane for a predetermined image blur correction amount;
The third acquisition means acquires the conversion coefficient by geometrically converting the conversion coefficient map according to the image blur correction amount.
The distance measuring device according to claim 2.
前記第三の取得手段は、前記像ぶれ補正量が第1の閾値より小さいときは、前記換算係数マップを平行移動し、前記像ぶれ補正量が前記第1の閾値より大きいときは、前記換算係数マップに射影変換を施す、
請求項3に記載の距離測定装置。
The third acquisition means translates the conversion coefficient map when the image blur correction amount is smaller than the first threshold, and converts the conversion coefficient map when the image blur correction amount is larger than the first threshold. Perform projective transformation on the coefficient map,
The distance measuring device according to claim 3.
像ズレ量をr、距離情報をΔLとしたときに、前記第二の取得手段はΔL=K×rにより距離情報を取得し、
前記換算係数は、画素の位置に応じた係数Kである、
請求項2から4のいずれか1項に記載の距離測定装置。
When the image shift amount is r and the distance information is ΔL, the second acquisition unit acquires the distance information by ΔL = K × r,
The conversion coefficient is a coefficient K corresponding to the position of the pixel.
The distance measuring device according to any one of claims 2 to 4.
像ズレ量をr、距離情報をΔLとしたときに、前記第二の取得手段はΔL=K×r+Mにより距離情報を取得し、
前記換算係数は、画素の位置に応じた係数Kと係数Mからなる、
請求項2から4のいずれか1項に記載の距離測定装置。
When the image shift amount is r and the distance information is ΔL, the second acquisition unit acquires the distance information by ΔL = K × r + M,
The conversion coefficient includes a coefficient K and a coefficient M according to the position of the pixel.
The distance measuring device according to any one of claims 2 to 4.
前記像ぶれ補正手段による像ぶれ補正量に基づいて像修正フィルタを決定して、前記像修正フィルタを用いて前記第一の像および前記第二の像の像修正処理を行う像修正手段をさらに備え、
前記第二の取得手段は、前記像修正手段による像修正処理後の第一の像および第二の像から前記距離情報を取得する、
請求項2から6のいずれか1項に記載の距離測定装置。
Image correction means for determining an image correction filter based on an image blur correction amount by the image blur correction means and performing image correction processing of the first image and the second image using the image correction filter; Prepared,
The second acquisition unit acquires the distance information from the first image and the second image after the image correction processing by the image correction unit.
The distance measuring device according to any one of claims 2 to 6.
所定の像ぶれ補正量に対する、像面内の位置に応じた像修正フィルタのフィルタ係数マップを記憶する記憶手段をさらに備え、
前記像修正手段は、前記フィルタ係数マップを前記像ぶれ補正量に応じて幾何変換し、変換後のフィルタ係数マップから得られる像修正フィルタを用いて前記像修正処理を行う、
請求項7に記載の距離測定装置。
Storage means for storing a filter coefficient map of an image correction filter corresponding to a position in the image plane with respect to a predetermined image blur correction amount;
The image correction means geometrically transforms the filter coefficient map according to the image blur correction amount, and performs the image correction process using an image correction filter obtained from the converted filter coefficient map.
The distance measuring device according to claim 7.
前記像ぶれ補正手段は、結像光学系の一部のレンズまたは撮像素子を移動させるものであり、
前記像ぶれ補正量は、前記像ぶれ補正手段による前記一部のレンズまたは前記撮像素子の移動量である、
請求項1から8のいずれか1項に記載の距離測定装置。
The image blur correcting means moves a part of the lens or imaging element of the imaging optical system,
The image blur correction amount is a movement amount of the partial lens or the image sensor by the image blur correction unit.
The distance measuring device according to any one of claims 1 to 8.
撮像素子と、
請求項1から9のいずれか1項に記載の距離測定装置と、
を備える、撮像装置。
An image sensor;
The distance measuring device according to any one of claims 1 to 9,
An imaging apparatus comprising:
結像光学系の第一の瞳領域を通過した光束に基づく第一の像と、前記結像光学系の第二の瞳領域を通過した光束に基づく第二の像と、に基づいて、距離情報を取得する距離情報取得ステップと、
像ぶれ補正手段による像ぶれ補正量を取得する取得ステップと、
前記像ぶれ補正量に基づいて、前記距離情報を補正する距離情報補正ステップと、
を含む、距離測定方法。
Based on the first image based on the light beam passing through the first pupil region of the imaging optical system and the second image based on the light beam passing through the second pupil region of the imaging optical system, the distance A distance information acquisition step for acquiring information;
An acquisition step of acquiring an image blur correction amount by the image blur correction means;
A distance information correction step of correcting the distance information based on the image blur correction amount;
A distance measuring method including:
請求項11に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
The program for making a computer perform each step of the method of Claim 11.
JP2016085199A 2016-04-21 2016-04-21 Distance measuring device, imaging device, and distance measuring method Active JP6628678B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016085199A JP6628678B2 (en) 2016-04-21 2016-04-21 Distance measuring device, imaging device, and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016085199A JP6628678B2 (en) 2016-04-21 2016-04-21 Distance measuring device, imaging device, and distance measuring method

Publications (2)

Publication Number Publication Date
JP2017194591A true JP2017194591A (en) 2017-10-26
JP6628678B2 JP6628678B2 (en) 2020-01-15

Family

ID=60156433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016085199A Active JP6628678B2 (en) 2016-04-21 2016-04-21 Distance measuring device, imaging device, and distance measuring method

Country Status (1)

Country Link
JP (1) JP6628678B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008739A (en) * 2018-07-09 2020-01-16 キヤノン株式会社 Imaging device and imaging device control device as well as program
WO2020017654A1 (en) * 2018-07-20 2020-01-23 株式会社ニコン Image capture device
EP3798981A1 (en) * 2019-09-26 2021-03-31 Samsung Electronics Co., Ltd. Method and apparatus for estimating pose

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915670A (en) * 1995-04-28 1997-01-17 Nikon Corp Blurring correction optical device
JP2012231262A (en) * 2011-04-25 2012-11-22 Olympus Corp Imaging apparatus, blur correction method, control program, and recording medium for recording control program
JP2013222183A (en) * 2012-04-19 2013-10-28 Canon Inc Range-finding device, range-finding method, and imaging system
JP2015072357A (en) * 2013-10-02 2015-04-16 オリンパス株式会社 Focus adjustment device
JP2015197511A (en) * 2014-03-31 2015-11-09 キヤノン株式会社 Range detection device, image capturing device, range detection method, and parallax amount detection device
JP2015200847A (en) * 2014-04-10 2015-11-12 オリンパス株式会社 Focus adjustment device, camera system, and focus adjustment method for imaging device
JP2015212772A (en) * 2014-05-02 2015-11-26 キヤノン株式会社 Range-finding device, imaging apparatus, range-finding method, and range-finding parameter calculation method
JP2015227995A (en) * 2014-06-02 2015-12-17 キヤノン株式会社 Imaging device and control method of the same, and imaging system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915670A (en) * 1995-04-28 1997-01-17 Nikon Corp Blurring correction optical device
JP2012231262A (en) * 2011-04-25 2012-11-22 Olympus Corp Imaging apparatus, blur correction method, control program, and recording medium for recording control program
JP2013222183A (en) * 2012-04-19 2013-10-28 Canon Inc Range-finding device, range-finding method, and imaging system
JP2015072357A (en) * 2013-10-02 2015-04-16 オリンパス株式会社 Focus adjustment device
JP2015197511A (en) * 2014-03-31 2015-11-09 キヤノン株式会社 Range detection device, image capturing device, range detection method, and parallax amount detection device
JP2015200847A (en) * 2014-04-10 2015-11-12 オリンパス株式会社 Focus adjustment device, camera system, and focus adjustment method for imaging device
JP2015212772A (en) * 2014-05-02 2015-11-26 キヤノン株式会社 Range-finding device, imaging apparatus, range-finding method, and range-finding parameter calculation method
JP2015227995A (en) * 2014-06-02 2015-12-17 キヤノン株式会社 Imaging device and control method of the same, and imaging system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008739A (en) * 2018-07-09 2020-01-16 キヤノン株式会社 Imaging device and imaging device control device as well as program
JP7130473B2 (en) 2018-07-09 2022-09-05 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
WO2020017654A1 (en) * 2018-07-20 2020-01-23 株式会社ニコン Image capture device
JPWO2020017654A1 (en) * 2018-07-20 2021-08-02 株式会社ニコン Imaging device
JP7147846B2 (en) 2018-07-20 2022-10-05 株式会社ニコン Imaging device
JP2022184997A (en) * 2018-07-20 2022-12-13 株式会社ニコン Imaging apparatus
EP3798981A1 (en) * 2019-09-26 2021-03-31 Samsung Electronics Co., Ltd. Method and apparatus for estimating pose

Also Published As

Publication number Publication date
JP6628678B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
US10491799B2 (en) Focus detection apparatus, focus control apparatus, image capturing apparatus, focus detection method, and storage medium
US9712755B2 (en) Information processing method, apparatus, and program for correcting light field data
US20090002574A1 (en) Method and a system for optical design and an imaging device using an optical element with optical aberrations
JP5841844B2 (en) Image processing apparatus and image processing method
JP6411115B2 (en) Method for calibrating a digital optical imaging system having a zoom system, a method for correcting aberrations in a digital optical imaging system having a zoom system, and a digital optical imaging system
EP3276955A1 (en) Image processing apparatus, image processing method, and image processing program
US10237485B2 (en) Image processing apparatus, imaging apparatus, and image processing method
WO2014171304A1 (en) Imaging device, imaging device drive method, and imaging device control program
JP2014006388A (en) Imaging apparatus, and its control method and program
JP6628678B2 (en) Distance measuring device, imaging device, and distance measuring method
JP6381422B2 (en) Distance detection device, imaging device, and distance detection method
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
JP2008298589A (en) Device and method for detecting positions
JP6153318B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
EP3276944A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and image processing program
JP6642998B2 (en) Image shift amount calculating apparatus, imaging apparatus, and image shift amount calculating method
JP6755737B2 (en) Distance measuring device, imaging device, and distance measuring method
JP6576114B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5197784B2 (en) Imaging device
JP2017011571A (en) Image processor, image processing system, imaging apparatus, camera system, and image processing method
JP6214713B1 (en) Image processing apparatus, imaging apparatus, lens apparatus, image processing method, program, storage medium, and information processing method
JP6907040B2 (en) Image processing equipment, imaging equipment, lens equipment, image processing methods, programs, and storage media
JP2012080363A (en) Imaging module, imaging device, and manufacturing method
JP7051580B2 (en) Image processing device, image pickup device, image processing method and image processing program
JP2022112125A (en) Distance measurement device, computer program, and distance measurement method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R151 Written notification of patent or utility model registration

Ref document number: 6628678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151