JP7137433B2 - Blur correction device, imaging device, blur correction method, and program - Google Patents

Blur correction device, imaging device, blur correction method, and program Download PDF

Info

Publication number
JP7137433B2
JP7137433B2 JP2018192808A JP2018192808A JP7137433B2 JP 7137433 B2 JP7137433 B2 JP 7137433B2 JP 2018192808 A JP2018192808 A JP 2018192808A JP 2018192808 A JP2018192808 A JP 2018192808A JP 7137433 B2 JP7137433 B2 JP 7137433B2
Authority
JP
Japan
Prior art keywords
image
blur
correction
residual
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018192808A
Other languages
Japanese (ja)
Other versions
JP2020061687A (en
Inventor
明 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018192808A priority Critical patent/JP7137433B2/en
Publication of JP2020061687A publication Critical patent/JP2020061687A/en
Application granted granted Critical
Publication of JP7137433B2 publication Critical patent/JP7137433B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ブレ補正装置、撮像装置、ブレ補正方法、及びプログラムに関する。 The present invention relates to a blur correction device, an imaging device, a blur correction method, and a program.

近年、撮像装置の高性能化に伴い、多くの撮像装置及び撮影レンズに手ブレ補正機構が搭載されている。撮像装置で手ブレ補正を行う場合は、加速度、角加速度、角速度などを検出する手ブレ検出センサ(例えばジャイロセンサ)を用い、このセンサの出力信号に基づいて、撮像素子を駆動させる。また、撮影レンズで手ブレ補正を行う場合は、同様の手ブレ検出センサの出力信号に基づいて、撮影レンズを構成するレンズの一部を駆動させる。このように、手ブレによるブレを打ち消すように撮像素子やレンズを駆動させることで、手ブレ補正を行うことが可能である。 2. Description of the Related Art In recent years, as the performance of imaging devices has improved, many imaging devices and imaging lenses are equipped with an image stabilization mechanism. When camera shake correction is performed in an image pickup apparatus, a camera shake detection sensor (for example, a gyro sensor) that detects acceleration, angular acceleration, angular velocity, etc. is used, and the image sensor is driven based on the output signal of this sensor. Further, when camera shake correction is performed with the photographing lens, part of the lenses constituting the photographing lens is driven based on the output signal of the similar camera shake detection sensor. In this way, it is possible to perform camera shake correction by driving the imaging device and the lens so as to cancel camera shake.

一方で、撮像装置及び撮影レンズに手ブレ補正機構を搭載せず、撮影した画像に対して画像処理を行うことによりブレ画像を復元する画像復元方法がある。多数存在する画像復元方法の中でも、ブレ方向やブレ量等のブレ情報から想定した劣化関数を用いてブレ画像を復元する手法が、一般的に知られている。 On the other hand, there is an image restoration method that restores a blurred image by performing image processing on a photographed image without installing a camera shake correction mechanism in the imaging device and the photographing lens. Among many image restoration methods, a method of restoring a blurred image using a deterioration function assumed from blur information such as a blur direction and a blur amount is generally known.

以下に、ブレ画像を復元する手法で用いる劣化関数について説明する。f(x,y)を理想画像、g(x,y)を劣化画像とするとき、
g(x,y)=∬h(x,y,x',y')f(x',y')dx'dy'+v(x,y) …(1)
の関係があると仮定する。ここで、h(x,y,x’,y’)は劣化関数、v(x,y)は出力画像におけるランダム雑音を表す。
平行移動を除いて、点の劣化した像がその点の位置に依存しないならば、点像分布関数(PSF:Point Spread Function)は、h(x-x’,y-y’)の形となり、式(1)は、
g(x,y)=∬h(x-x',y-y')f(x',y')dx'dy'+v(x,y) …(2)
となる。雑音がないとき、式(2)の両辺のフーリエ変換を行うと、畳み込み定理より、
G(u,v)=H(u,v)F(u,v) …(3)
となる。ここで、G(u,v)、H(u,v)、F(u,v)はそれぞれ、g(x,y)、h(x,y)、f(x,y)のフーリエ変換を表す。また、H(u,v)は、理想画像f(x,y)を劣化画像g(x,y)に変換するシステムの伝達関数である。
The deterioration function used in the method of restoring a blurred image will be described below. When f(x, y) is an ideal image and g(x, y) is a degraded image,
g(x,y)=∬h(x,y,x',y')f(x',y')dx'dy'+v(x,y) …(1)
We assume that there is a relationship where h(x, y, x', y') is the degradation function and v(x, y) is random noise in the output image.
If the degraded image of a point does not depend on the position of the point, except for translation, then the Point Spread Function (PSF) will be of the form h(xx', yy') , equation (1) is
g(x,y)=∬h(x-x',y-y')f(x',y')dx'dy'+v(x,y) …(2)
becomes. When there is no noise, performing the Fourier transform on both sides of equation (2) yields from the convolution theorem:
G(u,v)=H(u,v)F(u,v) …(3)
becomes. where G(u,v), H(u,v) and F(u,v) are the Fourier transforms of g(x,y), h(x,y) and f(x,y), respectively. show. Also, H(u, v) is the transfer function of the system that transforms the ideal image f(x, y) into the degraded image g(x, y).

ここでは、カメラと被写体との相対的な運動による劣化(いわゆるブレ画像)についてのみ取り上げるため、その劣化モデルについて以下に説明する。運動を除いて画像は時間的に不変であると仮定する。もし、相対運動が平面内における記録用フィルムの運動によるものと近似的に等しいならば、フィルム上の点における露光量の総計は、瞬時的な露光量をシャッタが開いている時間だけ積分することによって求められる。この場合、シャッタの開閉に要する時間は無視できるものとする。α(t)、β(t)をそれぞれ変位のx方向、y方向の成分であるとすると、

Figure 0007137433000001
という式が得られる。この場合、Tは露光時間であり、便宜的に-T/2からT/2までであるとした。式(4)の両辺をフーリエ変換すると、
Figure 0007137433000002
となる。x-α(t)=ξ、y-β(t)=ηと置くと、式(4f)は、
Figure 0007137433000003
となる。この式(5)から、劣化は式(3)又はこれに等しい式(2)でモデル化されることがわかる。この劣化の伝達関数H(u,v)は、
Figure 0007137433000004
という式で与えられる。 Here, since only degradation due to relative motion between the camera and the subject (so-called blurred image) will be considered, the degradation model will be described below. We assume that the image is temporally invariant except for motion. If the relative motion is approximately equal to that due to motion of the recording film in the plane, then the total exposure at a point on the film is the integral of the instantaneous exposure over the time the shutter is open. sought by In this case, the time required for opening and closing the shutter is negligible. Assuming that α(t) and β(t) are the x- and y-direction components of the displacement, respectively,
Figure 0007137433000001
is obtained. In this case, T is the exposure time, which is assumed to be from -T/2 to T/2 for the sake of convenience. Fourier transforming both sides of equation (4) yields
Figure 0007137433000002
becomes. Putting x−α(t)=ξ and y−β(t)=η, equation (4f) becomes
Figure 0007137433000003
becomes. From this equation (5) it can be seen that the degradation is modeled by equation (3) or the equivalent equation (2). The transfer function H(u,v) of this degradation is
Figure 0007137433000004
is given by the formula

従って、X軸に対して、角度θ、一定の速度Vで時間Tだけブレた場合の点応答関数は、
H(u,v)=sinπωT/πω …(7)
で与えられる。ここで、
ω=(u-u0)Vcosθ+(v-v0)Vsinθ …(8)
であり、u0、v0は画像の中心座標である。なお、ωが微小な場合、H(u、v)=Tと近似する。
Therefore, the point response function when the X-axis is shaken at an angle θ and a constant speed V for a time T is
H(u,v)=sinπωT/πω …(7)
is given by here,
ω=(u-u0)Vcosθ+(v-v0)Vsinθ …(8)
and u0 and v0 are the center coordinates of the image. When ω is very small, it is approximated as H(u, v)=T.

点像分布関数h(x-x’,y-y’)は、一般に画像(PSF画像)として表現される。 The point spread function h(x-x', y-y') is generally expressed as an image (PSF image).

ここで、上述した劣化関数を用いた画像復元方法の一例として、基本的な画像復元アルゴリズムである逆フィルタを用いた画像復元方法について説明する。劣化画像g(x,y)と元画像f(x,y)が上記式(2)のモデルに従うと仮定する。 Here, an image restoration method using an inverse filter, which is a basic image restoration algorithm, will be described as an example of the image restoration method using the deterioration function described above. It is assumed that the degraded image g(x, y) and the original image f(x, y) follow the model of equation (2) above.

このとき、雑音が無いならば、g(x,y)、f(x,y)及びPSF、h(x、y)のフーリエ変換は上記式(3)を満たす。ここで、式(3)を変形すると、
F(u,v)=G(u,v)/H(u,v) …(9)
となる。この式(9)から、H(u,v)が既知であれば、劣化画像のフーリエ変換G(u,v)に1/H(u,v)をかけて逆フーリエ変換することによって、f(x,y)を復元できることがわかる。
At this time, if there is no noise, the Fourier transform of g(x, y), f(x, y) and PSF, h(x, y) satisfies the above equation (3). Here, transforming equation (3), we get
F(u,v)=G(u,v)/H(u,v) …(9)
becomes. From this equation (9), if H(u, v) is known, by inverse Fourier transforming the Fourier transform G(u, v) of the degraded image by 1/H(u, v), f It can be seen that (x, y) can be recovered.

ここで、式(9)の1/Hを逆フーリエ変換したものを復元フィルタRとすると、以下の式(10)のように実面での画像に対するコンボリューション処理を行うことで同様に元の画像を得ることができる。
f(x,y)=g(x,y)*R(x,y) …(10)
Here, assuming that the inverse Fourier transform of 1/H in Equation (9) is the restoration filter R, the original image can be similarly restored by performing convolution processing on the real image as shown in Equation (10) below. image can be obtained.
f(x,y)=g(x,y)*R(x,y) …(10)

しかし、実際の画像にはノイズ成分があるため、上記のようにブレ画像の点応答関数H(u,v)の完全な逆数をとって作成した復元フィルタを用いると、劣化画像とともにノイズ成分が増幅されてしまい、一般には良好な画像は得られない。この点については、例えばウィーナーフィルターのように画像信号とノイズ信号の強度比に応じて画像の高周波側の回復率を抑制する方法が知られている。このように、点応答関数H(u,v)の完全な逆数を用いることはできないため、画像処理による復元処理は手ブレの影響を低減することが可能であるが、完全な復元を行うことはできない。従って、一般的に画像処理による手ブレ補正は、撮像装置及び撮影レンズに搭載した手ブレ補正機構を用いる場合に比べて補正精度が劣る。 However, since an actual image has a noise component, if a restoration filter created by taking the complete inverse of the point response function H(u, v) of the blurred image is used as described above, the noise component will be generated along with the degraded image. It is amplified and generally does not give a good image. Regarding this point, there is known a method, such as a Wiener filter, for suppressing the recovery rate on the high frequency side of the image according to the intensity ratio between the image signal and the noise signal. As described above, since the complete reciprocal of the point response function H(u, v) cannot be used, restoration processing by image processing can reduce the effects of camera shake. can't. Therefore, in general, the correction accuracy of camera shake correction by image processing is inferior to the case of using the camera shake correction mechanism mounted on the imaging device and the photographing lens.

一方で、上述の撮像装置及び撮影レンズに搭載した手ブレ補正機構を用いる場合は、撮影に用いるレンズの歪曲収差が補正精度を低下させる問題がある。画像周辺部に写る被写体の大きさ及び形状は、レンズの歪曲収差の特性によって異なる。また、同一の被写体が画像中央部と周辺部にそれぞれ写る場合、画像上の被写体の大きさ及び形状は、歪曲収差によって画像中央部と周辺部で異なる。このように、撮影した画像における被写体の大きさ及び形状が歪曲収差によって異なるため、手ブレが発生した場合に画像上に見られるブレの大きさ及び形状も、歪曲収差の特性によって異なる。歪曲収差によって、画像中央部のブレと画像周辺部のブレの影響が異なるため、撮像素子又はレンズを駆動させても、適切な補正ができない。例えば、画像中央部は適切な補正がされるが、画像周辺部では補正不足、又は過補正が発生し、手ブレの影響が残存する。 On the other hand, in the case of using the camera shake correction mechanism mounted on the imaging apparatus and the photographing lens described above, there is a problem that the distortion aberration of the lens used for photographing lowers the correction accuracy. The size and shape of the subject appearing in the peripheral portion of the image differ depending on the distortion aberration characteristics of the lens. Further, when the same subject appears in the central portion and the peripheral portion of the image, the size and shape of the subject on the image differ between the central portion and the peripheral portion of the image due to distortion aberration. As described above, since the size and shape of a subject in a photographed image differ depending on the distortion aberration, the size and shape of the blur seen on the image when camera shake occurs also differ depending on the distortion aberration characteristics. Due to distortion aberration, the effects of blurring in the central portion of the image and blurring in the peripheral portion of the image are different. For example, the central portion of the image is appropriately corrected, but the peripheral portion of the image is undercorrected or overcorrected, and the effects of camera shake remain.

特許文献1では、歪曲収差補正を適用した画像に対して、画像処理による手ブレ補正を行うことで、手ブレの影響を軽減する方法が提案されている。また、特許文献2では、上述の歪曲収差の影響により発生する撮影画像の周辺部の伸び縮みの発生を抑えるため、歪曲補正の基準位置を変更する方法が提案されている。 Japanese Patent Application Laid-Open No. 2002-200001 proposes a method of reducing the effects of camera shake by performing camera shake correction through image processing on an image to which distortion aberration correction has been applied. Further, Japanese Patent Laid-Open No. 2002-200002 proposes a method of changing a reference position for distortion correction in order to suppress expansion and contraction of the peripheral portion of a photographed image caused by the above-described distortion aberration.

特開2006-33759号公報JP-A-2006-33759 特開2006-129175号公報JP 2006-129175 A

しかしながら、特許文献1の方法は、画像処理による手ブレ補正を行う方法であるため、上述の通り手ブレ補正の精度が低くなる問題がある。また、特許文献2の方法は、歪曲収差によって動画などのフレーム間で発生する画像周辺部の伸び縮みには対処できるが、1回の露光期間中に発生する手ブレを補正する場合において歪曲収差に起因する補正残りを低減させることができない。 However, since the method of Patent Document 1 corrects camera shake by image processing, there is a problem that the accuracy of camera shake correction is low as described above. In addition, the method of Patent Document 2 can cope with the expansion and contraction of the peripheral portion of an image that occurs between frames of a moving image due to distortion aberration. It is not possible to reduce the residual correction caused by

本発明はこのような状況に鑑みてなされたものであり、歪曲収差のある光学系を用いて撮影された画像の手ブレに起因する画像ブレを効果的に低減する技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for effectively reducing image blur caused by camera shake in an image shot using an optical system with distortion. and

上記課題を解決するために、本発明は、撮像装置のブレを検出する検出手段と、前記撮像装置による画像の撮影中に、前記撮像装置のブレに基づいて前記画像のブレを低減するように補正手段を駆動する駆動手段と、前記補正手段の駆動量、及び前記画像の撮影に用いられた光学系の歪曲収差に基づいて、前記画像のブレ残り成分を取得する取得手段と、前記画像の前記ブレ残り成分を低減する画像処理を行う画像処理手段と、を備えることを特徴とするブレ補正装置を提供する。 In order to solve the above-mentioned problems, the present invention provides detection means for detecting blurring of an image pickup device, and reducing blurring of the image based on the blurring of the image pickup device while the image is being captured by the image pickup device. driving means for driving a correcting means; acquisition means for acquiring a residual blur component of the image based on the driving amount of the correcting means and distortion aberration of an optical system used to capture the image; and image processing means for performing image processing for reducing the residual blur component.

本発明によれば、歪曲収差のある光学系を用いて撮影された画像の手ブレに起因する画像ブレを効果的に低減することが可能となる。 According to the present invention, it is possible to effectively reduce image blur caused by camera shake in an image shot using an optical system with distortion.

なお、本発明のその他の特徴及び利点は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。 Other features and advantages of the present invention will become more apparent from the accompanying drawings and the description in the following detailed description.

カメラシステムの中央断面図。Central cross-sectional view of the camera system. カメラシステムの電気的構成を示すブロック図。2 is a block diagram showing the electrical configuration of the camera system; FIG. 第1の実施形態に係る手ブレ補正処理のフローチャート。4 is a flowchart of camera shake correction processing according to the first embodiment; S102において取得される手ブレ補正駆動情報の例を示す図。FIG. 10 is a diagram showing an example of camera shake correction driving information acquired in S102; FIG. S103において取得される歪曲収差情報の例を示す図。FIG. 5 is a diagram showing an example of distortion aberration information acquired in S103; ブレ残りの発生原理を示した図。The figure which showed the generation|occurrence|production principle of a shake remainder. ブレ残り成分を示す図。FIG. 10 is a diagram showing blur remaining components; (a)撮像素子6の手ブレ補正駆動の変位を示した図、(b)手ブレ補正駆動の軌跡を、駆動する平面において示した図、(c)手ブレ補正駆動に対応するブレ残り成分m[t]、n[t]を示した図、(d)ブレ残りの軌跡を、駆動する平面において示した図。(a) A diagram showing the displacement of the camera shake correction drive of the image sensor 6, (b) A diagram showing the trajectory of the camera shake correction drive on the driving plane, (c) A blur residual component corresponding to the camera shake correction drive FIG. 12D shows m[t] and n[t], and (d) shows the trajectory of the remaining blur on the driving plane. 第2の実施形態に係る手ブレ補正処理のフローチャート。9 is a flowchart of camera shake correction processing according to the second embodiment; ブレ残り成分を算出する画面内の箇所を示した図。FIG. 10 is a view showing locations on a screen for calculating residual blur components; FIG. 第3の実施形態に係る画像処理部7の構成を示したブロック図。FIG. 8 is a block diagram showing the configuration of an image processing unit 7 according to the third embodiment; ある領域で歪曲収差の発生方向を不変と見なした場合のブレ残りの軌跡を示す図。FIG. 10 is a diagram showing a trajectory of residual blur when the direction in which distortion aberration occurs in a certain area is assumed to be constant; 第3の実施形態に係る手ブレ補正処理のフローチャート。10 is a flowchart of camera shake correction processing according to the third embodiment; 選択する復元フィルタを示したテーブルの一例を示す図。The figure which shows an example of the table which showed the restoration filter to select. (a)手ブレ補正駆動の軌跡と歪曲収差発生方向の例を示す図、(b)手ブレ補正駆動の歪曲収差発生方向での変位γ[t]の例を示す図。(a) A diagram showing an example of the trajectory of camera shake correction driving and the direction in which distortion aberration is generated. (b) A diagram showing an example of displacement γ[t] in the direction of distortion aberration generation in camera shake correction driving. 補正データとして予め算出したブレ残りの点応答関数を保持する構成における、手ブレ補正処理のフローチャート。6 is a flowchart of camera shake correction processing in a configuration that holds a pre-calculated point response function of remaining blur as correction data. 第4の実施形態に係る手ブレ補正処理のフローチャート。14 is a flowchart of camera shake correction processing according to the fourth embodiment;

以下、添付図面を参照して、本発明の実施形態を説明する。添付図面の全体を通じて、同一の参照符号が付与された要素は、同一又は同様の要素を表す。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。また、別々の実施形態の中で説明されている特徴を適宜組み合せることも可能である。 Embodiments of the present invention will be described below with reference to the accompanying drawings. Elements with the same reference numbers represent the same or similar elements throughout the drawings. It should be noted that the technical scope of the present invention is determined by the claims and is not limited by the following individual embodiments. Also, not all combinations of features described in the embodiments are essential to the present invention. It is also possible to combine features described in separate embodiments as appropriate.

[第1の実施形態]
図1Aは、カメラシステムの中央断面図である。図1Aにおいて、1は撮像装置を、2は撮像装置1に装着するレンズユニットを、3は複数のレンズからなる撮影光学系を、4は撮影光学系3の光軸を、6は撮像素子を、9aは背面表示装置を、9bはEVFを、それぞれ示す。また、11は撮像装置1とレンズユニット2の電気接点を、12はレンズユニット2に設けられたレンズ制御回路を、14はブレ補正部を、15はブレ検出部を、16はシャッタ機構をそれぞれ示す。撮像装置1は、ブレ補正装置としても機能する。
[First embodiment]
FIG. 1A is a central cross-sectional view of the camera system. In FIG. 1A, 1 is an imaging device, 2 is a lens unit attached to the imaging device 1, 3 is an imaging optical system consisting of a plurality of lenses, 4 is the optical axis of the imaging optical system 3, and 6 is an imaging element. , 9a denotes a rear display device, and 9b denotes an EVF, respectively. Reference numeral 11 denotes an electrical contact between the imaging device 1 and the lens unit 2, 12 denotes a lens control circuit provided in the lens unit 2, 14 denotes a blur correction section, 15 denotes a blur detection section, and 16 denotes a shutter mechanism. show. The imaging device 1 also functions as a blur correction device.

図1Bは、図1Aのカメラシステムの電気的構成を示すブロック図である。図1Bにおいて、5はカメラ制御回路を、7は画像処理部を、8はメモリ部を、9は表示部を、10は操作検出部を、13はレンズ駆動部を、それぞれ示す。表示部9は、図1Aの背面表示装置9a及びEVF9bを含む。レンズ駆動部13は、焦点レンズ、絞りなどを駆動することができる。ブレ検出部15は、撮像装置1のブレを検出可能である。例えば、ブレ検出部15として振動ジャイロなどを用いることができる。ブレ補正部14は、撮像素子6を光軸4に直交する平面内で並進させる機構である。 FIG. 1B is a block diagram showing the electrical configuration of the camera system of FIG. 1A. In FIG. 1B, 5 is a camera control circuit, 7 is an image processing section, 8 is a memory section, 9 is a display section, 10 is an operation detection section, and 13 is a lens driving section. The display unit 9 includes the rear display device 9a and the EVF 9b of FIG. 1A. The lens drive unit 13 can drive a focus lens, a diaphragm, and the like. The blur detection unit 15 can detect blur of the imaging device 1 . For example, a vibrating gyroscope or the like can be used as the shake detection unit 15 . The blur correction unit 14 is a mechanism that translates the imaging device 6 in a plane perpendicular to the optical axis 4 .

物体からの光は、撮影光学系3を介して撮像素子6の撮像面に結像する。撮像素子6からは、ピント評価量及び適当な露光量が得られる。撮像装置1は、この情報に基づいて適切に撮影光学系3を調整することで、適切な光量の物体光を撮像素子6に露光するとともに、撮像素子6近傍に被写体像を結像させることができる。また、シャッタ機構16は、シャッタ幕を走行させることで撮像素子6に被写体像が届くか否かを制御する。シャッタ機構16は、少なくとも被写体像を遮るための幕(メカ後幕)を備えており、露光の完了はシャッタ機構16によってなされる。 Light from an object forms an image on the imaging surface of the imaging device 6 via the imaging optical system 3 . A focus evaluation amount and an appropriate exposure amount are obtained from the imaging device 6 . By appropriately adjusting the imaging optical system 3 based on this information, the imaging apparatus 1 can expose the imaging element 6 to an appropriate amount of object light and form a subject image in the vicinity of the imaging element 6 . can. The shutter mechanism 16 also controls whether or not the subject image reaches the imaging element 6 by running the shutter curtain. The shutter mechanism 16 has at least a curtain (mechanical rear curtain) for blocking the subject image, and the shutter mechanism 16 completes the exposure.

画像処理部7は、A/D変換、ホワイトバランス調整、ガンマ補正、補間演算等を行い、記録用の画像を生成することができる。画像処理部7のその他画像処理部22は、A/D変換、ホワイトバランス調整、ガンマ補正、補間演算等を行い、記録用の画像を生成する。画像処理部7のブレ残り成分生成部20は、ブレ補正部14による撮像素子6の並進制御では補正できなかった後述のブレ残り成分を生成する。画像処理部7の画像復元部21は、画像処理部7でA/D変換された画像に対して、生成されたブレ残り成分に基づいて後述の画像処理を行うことにより、ブレ残りを補正する。 The image processing unit 7 can perform A/D conversion, white balance adjustment, gamma correction, interpolation calculation, etc., and generate an image for recording. The other image processing section 22 of the image processing section 7 performs A/D conversion, white balance adjustment, gamma correction, interpolation calculation, etc., and generates an image for recording. A blur residual component generation unit 20 of the image processing unit 7 generates a blur residual component described later that could not be corrected by the translational control of the imaging device 6 by the blur correction unit 14 . The image restoration unit 21 of the image processing unit 7 performs image processing, which will be described later, on the image A/D-converted by the image processing unit 7 based on the generated blur residue component, thereby correcting the blur residue. .

メモリ部8は、記録部を含む。カメラ制御回路5は、メモリ部8の記録部へ画像を出力する。また、カメラ制御回路5は、ユーザに提示する画像を表示部9に表示する。 The memory section 8 includes a recording section. The camera control circuit 5 outputs images to the recording section of the memory section 8 . The camera control circuit 5 also displays an image to be presented to the user on the display unit 9 .

カメラ制御回路5は、撮像の際のタイミング信号などを生成して出力する。カメラ制御回路5は、外部操作に従って撮像系、画像処理系、記録再生系をそれぞれ制御する。例えば、シャッターレリーズ釦(不図示)の押下を操作検出部10が検出すると、カメラ制御回路5は、撮像素子6の駆動制御や、画像処理部7の制御などを行う。また、カメラ制御回路5は、表示部9に含まれる情報表示を行うための情報表示装置の各セグメントの状態を制御する。背面表示装置9aはタッチパネルを含み、タッチパネルは操作検出部10に接続されている。 The camera control circuit 5 generates and outputs a timing signal and the like for imaging. The camera control circuit 5 controls the imaging system, the image processing system, and the recording/reproducing system in accordance with external operations. For example, when the operation detection unit 10 detects that a shutter release button (not shown) has been pressed, the camera control circuit 5 controls the driving of the imaging element 6, the image processing unit 7, and the like. The camera control circuit 5 also controls the state of each segment of the information display device for displaying information included in the display unit 9 . The rear display device 9 a includes a touch panel, and the touch panel is connected to the operation detection section 10 .

撮影光学系3の調整動作について説明する。カメラ制御回路5には画像処理部7が接続されており、カメラ制御回路5は、撮像素子6からの信号を基に適切な焦点位置、絞り値を求める。即ち、カメラ制御回路5は、撮像素子6からの信号を基に測光・測距動作を行い、露出条件(Fナンバーやシャッタ速度等)を決定する。操作検出部10へのユーザ操作に応じて、撮像装置1の各部の動作を制御することで、静止画及び動画の撮影が可能となっている。 An adjustment operation of the photographing optical system 3 will be described. An image processing unit 7 is connected to the camera control circuit 5 , and the camera control circuit 5 obtains an appropriate focus position and aperture value based on signals from the image sensor 6 . That is, the camera control circuit 5 performs photometry and distance measurement operations based on the signal from the image sensor 6, and determines exposure conditions (F number, shutter speed, etc.). Still images and moving images can be captured by controlling the operation of each unit of the imaging device 1 according to the user's operation to the operation detection unit 10 .

撮像装置1のブレ補正部14を制御するにあたっては、カメラ制御回路5は、ブレ検出部15からの信号に基づいてブレ補正部14を動作させる。カメラ制御回路5は、ブレ検出部15の出力に基づいて目標値を生成し、ブレ補正部14の駆動制御を行う。 In controlling the blur correction section 14 of the imaging device 1 , the camera control circuit 5 operates the blur correction section 14 based on the signal from the blur detection section 15 . The camera control circuit 5 generates a target value based on the output of the blur detection section 15 and controls the drive of the blur correction section 14 .

図2は、第1の実施形態に係る手ブレ補正処理のフローチャートである。例えば、シャッターレリーズ釦(不図示)の押下を操作検出部10が検出すると、本フローチャートの処理が開始する。 FIG. 2 is a flowchart of camera shake correction processing according to the first embodiment. For example, when the operation detection unit 10 detects pressing of a shutter release button (not shown), the processing of this flowchart starts.

S101で、カメラ制御回路5は、撮像素子6を用いて露光を行う。露光期間中(画像の撮影中)、カメラ制御回路5は、ブレ検出部15により検出された撮像装置1のブレに基づいて、ブレ補正部14を用いて手ブレ補正のために撮像素子6を駆動する。露光により得られた信号は、A/D変換されて画像データとして取得される。 In S<b>101 , the camera control circuit 5 performs exposure using the imaging device 6 . During an exposure period (while an image is being captured), the camera control circuit 5 uses the blur correction unit 14 based on the blurring of the imaging device 1 detected by the blurring detection unit 15 to operate the image sensor 6 for camera shake correction. drive. A signal obtained by exposure is A/D converted and acquired as image data.

S102で、ブレ残り成分生成部20は、撮像素子6の露光期間中に行われたブレ補正部14による撮像素子6の駆動情報を、カメラ制御回路5から取得する。 In S<b>102 , the residual blur component generation unit 20 acquires from the camera control circuit 5 drive information for the image sensor 6 by the blur correction unit 14 during the exposure period of the image sensor 6 .

図3は、S102において取得される手ブレ補正駆動情報の例を示す図である。図3(a)において、横軸は時刻を示し、縦軸は撮像素子6のx方向の変位α[t]を示す。図3(b)において、横軸は時刻を示し、縦軸は撮像素子6のy方向の変位β[t]を示す。図3(c)は、手ブレ補正駆動の軌跡を、駆動する平面において示した図である。変位α[t]、β[t]が直線の形状をしていることから分かるように、この例では、撮像素子6の駆動は等速で直線である。図3(c)におけるb0~b3は、それぞれ、図3(a)図3(b)で示した露光期間中の時刻t0~t3に対応している。 FIG. 3 is a diagram showing an example of camera shake correction drive information acquired in S102. In FIG. 3A, the horizontal axis indicates time, and the vertical axis indicates displacement α[t] of the image sensor 6 in the x direction. In FIG. 3B, the horizontal axis indicates time, and the vertical axis indicates displacement β[t] of the imaging element 6 in the y direction. FIG. 3(c) is a diagram showing the trajectory of camera shake correction driving on the driving plane. As can be seen from the linear shape of the displacements α[t] and β[t], in this example, the imaging element 6 is driven linearly at a constant speed. b0 to b3 in FIG. 3(c) respectively correspond to times t0 to t3 during the exposure period shown in FIGS. 3(a) and 3(b).

なお、この例では、取得される手ブレ補正駆動情報はブレ検出部15で検出した手ブレ情報に対応しており、ここで示した手ブレ補正駆動は、撮像素子6上の光軸4の近傍に結像する像の、手ブレに起因するブレと同等であるものとする。従って、ブレ残り成分生成部20は、手ブレ補正駆動情報を取得する代わりに、ブレ検出部15で検出した手ブレ情報を取得してもよい。この場合、ブレ残り成分生成部20は、手ブレ情報を手ブレ補正駆動情報として用いることができる。即ち、ブレ残り成分生成部20が手ブレ情報を取得することは、ブレ残り成分生成部20が手ブレ補正駆動情報を取得することと技術的に同等である。従って、本明細書において手ブレ補正駆動情報を用いる処理について言及する場合、その処理は、手ブレ情報を手ブレ補正駆動情報として用いる処理を含む。 In this example, the acquired camera shake correction drive information corresponds to the camera shake information detected by the shake detection unit 15, and the camera shake correction drive shown here is based on the optical axis 4 on the image sensor 6. It is assumed that this is equivalent to blur caused by camera shake of an image formed in the vicinity. Therefore, the residual blur component generator 20 may acquire the camera shake information detected by the shake detector 15 instead of acquiring the camera shake correction drive information. In this case, the residual blur component generator 20 can use the camera shake information as the camera shake correction drive information. That is, the acquisition of camera shake information by the residual blur component generation unit 20 is technically equivalent to the acquisition of camera shake correction driving information by the residual blur component generation unit 20 . Therefore, when reference is made in this specification to processing using camera shake correction driving information, the processing includes processing using camera shake information as camera shake correction driving information.

次に、S103で、ブレ残り成分生成部20は、撮影光学系3における撮影時の歪曲収差情報を取得する。例えば、ブレ残り成分生成部20は、予めメモリ部8に格納された歪曲収差情報から、撮影時の焦点位置などの撮影条件に応じた歪曲収差情報を読み込んでもよい。或いは、ブレ残り成分生成部20は、撮影時の歪曲収差情報を、レンズユニット2から電気接点11を経由してカメラ制御回路5から取得してもよい。 Next, in S<b>103 , the residual blur component generation unit 20 acquires distortion aberration information at the time of photographing in the photographing optical system 3 . For example, the blur residual component generation unit 20 may read distortion aberration information corresponding to shooting conditions such as the focal position at the time of shooting from the distortion aberration information stored in advance in the memory unit 8 . Alternatively, the blur residual component generation unit 20 may acquire the distortion aberration information at the time of shooting from the camera control circuit 5 via the electric contact 11 from the lens unit 2 .

図4は、S103において取得される歪曲収差情報の例を示す図である。図4において、横軸は光軸4からの距離を示す像高を示し、縦軸は歪曲収差による歪率を示す。この例では、歪率が負の値であり、更に像高が大きくなるに従って歪率は小さい値をとるため、樽型の歪曲収差を示している。 FIG. 4 is a diagram showing an example of distortion aberration information acquired in S103. In FIG. 4, the horizontal axis indicates the image height indicating the distance from the optical axis 4, and the vertical axis indicates the distortion factor due to distortion aberration. In this example, the distortion factor is a negative value, and since the distortion factor takes a smaller value as the image height increases, it exhibits barrel-shaped distortion.

次に、S104で、ブレ残り成分生成部20は、S102及びS103において取得した手ブレ補正駆動情報(撮像素子6の駆動量)と歪曲収差情報に基づいてブレ残り成分を算出する。 Next, in S104, the residual blur component generation unit 20 calculates the residual blur component based on the camera shake correction driving information (driving amount of the image sensor 6) and the distortion aberration information acquired in S102 and S103.

図5は、ブレ残りの発生原理を示した図であり、撮像素子6が駆動する平面上における座標を示している。ここでは着目位置S0について考える。位置S0’は、着目位置S0に結像している像が、歪曲収差が発生していない場合に結像する位置を示している。位置S0’は、S103で取得した歪曲収差情報に基づいて求めることができる。また、位置S1’は、位置S0’に対して、図3で示した時刻t1のときの撮像素子6の駆動変位を反映した位置である。即ち、歪曲収差が発生していなかった場合に位置S0’に結像する像が、手ブレによって時刻t1の時に位置S1’に結像していることを意味する。また、位置S1は、位置S1’の像が歪曲収差によって結像する位置を示している。つまり、露光開始時に着目位置S0に結像していた像は、時刻t1の時には手ブレによって位置S1に結像する。また、位置b1’は、着目位置S0に対して、図3で示した時刻t1のときの撮像素子6の位置変位を反映した位置である。手ブレによって着目位置S0に結像していた像が時刻t1の時に位置b1’に結像していれば、撮像素子6の手ブレ補正駆動により、手ブレの影響を相殺することができるが、実際には位置b1’ではなく位置S1に結像している。つまり、時刻t1の時は、この位置S1と位置b1’の差異が撮像素子6の手ブレ補正駆動では補正できず、ブレ残りとして発生する。時刻に対するブレ残り成分のx、y方向の変位をそれぞれm[t]、n[t]とすると、時刻t1の時のm[t1]、n[t1]はそれぞれ次式で算出される。
m[t1]=x1-(x0+α[t1]) …(11)
n[t1]=y1-(y0+β[t1]) …(12)
FIG. 5 is a diagram showing the principle of the occurrence of blur residue, and shows coordinates on a plane driven by the imaging device 6. As shown in FIG. Here, the position of interest S0 is considered. A position S0′ indicates a position where the image formed at the target position S0 is formed when no distortion aberration occurs. The position S0' can be obtained based on the distortion aberration information acquired in S103. The position S1' is a position reflecting the driving displacement of the imaging element 6 at the time t1 shown in FIG. 3 with respect to the position S0'. That is, it means that the image formed at the position S0' when no distortion aberration occurs is formed at the position S1' at the time t1 due to camera shake. A position S1 indicates a position where the image of the position S1' is formed due to distortion aberration. In other words, the image formed at the target position S0 at the start of exposure is formed at the position S1 due to camera shake at time t1. A position b1′ is a position reflecting the positional displacement of the imaging device 6 at time t1 shown in FIG. 3 with respect to the target position S0. If the image formed at the target position S0 due to camera shake is formed at the position b1′ at time t1, the camera shake correction drive of the image sensor 6 can cancel out the effects of the camera shake. , is actually imaged at position S1 instead of position b1′. That is, at the time t1, the difference between the position S1 and the position b1' cannot be corrected by the camera shake correction driving of the image sensor 6, and a blur residue occurs. Assuming that displacements in the x- and y-directions of the residual blur component with respect to time are m[t] and n[t], respectively, m[t1] and n[t1] at time t1 are calculated by the following equations.
m[t1]=x1-(x0+α[t1]) …(11)
n[t1]=y1-(y0+β[t1]) …(12)

ここでは、時刻t1の時のブレ残り成分の求め方について説明したが、時刻t2、t3についても同様の考え方で算出することができる。図6は、このように算出したm[t]、n[t]の例を示す図である。 Here, the method of obtaining the residual blur component at the time t1 has been described, but the calculations at the times t2 and t3 can be made in the same way. FIG. 6 is a diagram showing an example of m[t] and n[t] calculated in this way.

ここまでは手ブレ及び手ブレ補正駆動が等速で直線の場合の例を示したが、実際の手ブレはそうはならないことが多い。図7は、発生した手ブレが等速ではなく、また軌跡が曲線になった場合の手ブレ補正駆動と、ブレ残り成分を示した図である。図7(a)は、撮像素子6の手ブレ補正駆動の変位を示した図である。図7(a)において、横軸は時刻を示し、縦軸はx方向の変位α[t]及びy方向の変位β[t]をそれぞれ示す。図7(b)は、手ブレ補正駆動の軌跡を、駆動する平面において示した図である。図7(c)は、図7(a)及び図7(b)で示した手ブレ補正駆動に対応するブレ残り成分m[t]、n[t]を示した図である。図7(d)は、ブレ残りの軌跡を、駆動する平面において示した図である。 Up to this point, an example has been shown in which camera shake and camera shake correction driving are linear at a constant speed, but in many cases this is not the case with actual camera shake. FIG. 7 is a diagram showing camera shake correction driving when the camera shake that has occurred is not at a constant speed and has a curved trajectory, and the remaining components of the shake. FIG. 7A is a diagram showing the displacement of the camera shake correction driving of the imaging device 6. FIG. In FIG. 7A, the horizontal axis indicates time, and the vertical axis indicates displacement α[t] in the x direction and displacement β[t] in the y direction. FIG. 7B is a diagram showing the trajectory of camera shake correction driving on the driving plane. FIG. 7(c) is a diagram showing residual blur components m[t] and n[t] corresponding to the camera shake correction driving shown in FIGS. 7(a) and 7(b). FIG. 7D is a diagram showing the trajectory of the residual blur on the driving plane.

なお、ブレ残り成分生成部20は、算出によりブレ残り成分を取得する代わりに、他の方法によりブレ残り成分を取得してもよい。例えば、ブレ残り成分生成部20は、手ブレ補正駆動情報と歪曲収差情報とを入力として保持しブレ残り成分を出力として保持するルックアップテーブル(LUT)からブレ残り成分を取得してもよい。このLUTは、例えばメモリ部8に格納される。 Note that the blur remaining component generation unit 20 may acquire the blur remaining component by another method instead of acquiring the blur remaining component by calculation. For example, the residual blur component generation unit 20 may acquire residual blur components from a lookup table (LUT) that holds camera shake correction driving information and distortion aberration information as inputs and residual blur components as outputs. This LUT is stored in the memory unit 8, for example.

次に、S105で、画像復元部21は、S104において算出されたブレ残り成分m[t]、n[t]に基づき、ブレ残りの点像分布関数h(x,y)を生成する。点像分布関数の形状は、ブレ残りの軌跡に対応する形状となる。また、点像分布関数の強度は、ブレによって移動する点像が留まった時間が長い場所ほど高い値になるため、ブレ残り成分の時間に対する変化量に応じて設定する。 Next, in S105, the image restoration unit 21 generates a point spread function h(x, y) of residual blur based on residual blur components m[t] and n[t] calculated in S104. The shape of the point spread function corresponds to the trajectory of the remaining blur. In addition, the intensity of the point spread function is set according to the change amount of the remaining blur component with respect to time, because the longer the point image moving due to the blur stays, the higher the value becomes.

S106で、画像復元部21は、ブレ残りの点像分布関数に基づいて、ブレ残りを補正するための復元フィルタを生成する。点像分布関数から復元フィルタを生成する方法には複数の技術が知られているが、本実施形態ではウィーナーフィルターを使用する。画像復元部21は、点像分布関数h(x,y)をフーリエ変換した点応答関数H(u,v)を算出し、点応答関数から生成したウィーナーフィルターを逆フーリエ変換し、復元フィルタとする。 In S106, the image restoration unit 21 generates a restoration filter for correcting the residual blur based on the point spread function of the residual blur. A plurality of techniques are known for generating a restoration filter from a point spread function, but the Wiener filter is used in this embodiment. The image restoration unit 21 calculates a point response function H (u, v) by Fourier transforming the point spread function h (x, y), performs an inverse Fourier transform on the Wiener filter generated from the point response function, and restores the function as a restoration filter. do.

S107で、画像復元部21は、生成した復元フィルタをS101において取得した画像データに畳み込むことにより、ブレ残りを低減させる。 In S107, the image restoration unit 21 convolves the generated restoration filter with the image data acquired in S101, thereby reducing the residual blur.

このように、手ブレ補正駆動情報と歪曲収差情報から、手ブレ補正駆動により手ブレを補正した画像におけるブレ残り成分を算出し、算出したブレ残り成分に基づく画像処理によりブレ残りを低減させることが可能である。 In this way, from the camera shake correction drive information and the distortion aberration information, the residual blur component in the image corrected for camera shake by the camera shake correction drive is calculated, and the residual blur is reduced by image processing based on the calculated residual blur component. is possible.

上の説明では1つ着目位置のブレ残り成分について説明したが、歪曲収差は画像の位置によって異なるため、ブレ残り成分も画像の位置によって異なる。そのため、画像の位置に応じて上述の処理を行うことで画像全体のブレ残りを補正することが可能である。 In the above description, the residual blurring component at one position of interest has been described. However, since the distortion aberration differs depending on the position of the image, the residual blurring component also differs depending on the position of the image. Therefore, by performing the above-described processing according to the position of the image, it is possible to correct the residual blur of the entire image.

また、本実施形態では露光期間中に撮像素子6を駆動させる例について説明したが、ブレ補正のために撮影光学系3のブレ補正レンズを駆動させる場合に対しても同様に本実施形態を適用可能である。具体的には、撮影光学系3がブレ補正レンズを有し、レンズ制御回路12は、ブレ検出部15からの信号に基づいて、レンズ駆動部13を介してブレ補正レンズを適切に駆動させる。この場合、上の説明において、撮像素子6の駆動をブレ補正レンズの駆動による被写体の変位に置き換える。また、ブレ残り成分生成部20は、ブレ補正レンズが駆動された撮影光学系3に基づく歪曲収差情報を使用する。これにより、ブレ残り成分生成部20は、撮像素子6を駆動させる場合と同様にブレ残り成分を算出することができる。 Further, in the present embodiment, an example of driving the imaging element 6 during the exposure period has been described, but the present embodiment is similarly applied to the case of driving the blur correction lens of the photographing optical system 3 for blur correction. It is possible. Specifically, the photographic optical system 3 has a blur correction lens, and the lens control circuit 12 appropriately drives the blur correction lens via the lens driving section 13 based on the signal from the blur detection section 15 . In this case, in the above description, the driving of the imaging element 6 is replaced with the displacement of the subject by driving the blur correction lens. Further, the residual blur component generation unit 20 uses distortion aberration information based on the imaging optical system 3 in which the blur correction lens is driven. Thereby, the residual blur component generating section 20 can calculate the residual blur component in the same manner as in the case of driving the imaging element 6 .

以上説明したように、第1の実施形態によれば、撮像装置1は、手ブレ補正駆動情報と歪曲収差情報から、手ブレ補正駆動により手ブレを補正した画像におけるブレ残り成分を算出し、算出したブレ残り成分に基づく画像処理によりブレ残りを低減させる。これにより、歪曲収差のある光学系を用いて撮影された画像の手ブレに起因する画像ブレを効果的に低減することが可能となる。 As described above, according to the first embodiment, the image capturing apparatus 1 calculates residual blur components in an image corrected for camera shake by camera shake correction driving from camera shake correction drive information and distortion aberration information, Image processing based on the calculated blur residual component is performed to reduce blur residual. This makes it possible to effectively reduce image blur caused by camera shake in an image captured using an optical system with distortion.

[第2の実施形態]
第2の実施形態では、ブレ残り及び収差の両方を補正する構成について説明する。また、ブレ残り成分を算出する処理の負荷を低減する構成についても説明する。本実施形態において、カメラシステムの基本的な構成は第1の実施形態と同様である(図1参照)。以下、主に第1の実施形態と異なる点について説明する。
[Second embodiment]
In the second embodiment, a configuration for correcting both blur residuals and aberrations will be described. Also, a configuration for reducing the load of processing for calculating the remaining blur component will be described. In this embodiment, the basic configuration of the camera system is the same as in the first embodiment (see FIG. 1). Differences from the first embodiment will be mainly described below.

一般的に、撮像装置により被写体を撮像するとき、得られた画像は、特に撮影光学系の収差によって少なからず劣化している。劣化した画像のぼけ成分は、撮影光学系の球面収差、コマ収差、像面湾曲、非点収差等が原因である。これらの収差による画像のぼけ成分は、無収差で回折の影響もない場合に本来、被写体の1点から出た光束が撮像面上で再度1点に集まるべきものが広がりをもって像を結んでいるものを指している。これは、光学的には点像分布関数と呼ぶものである。画像のぼけと言うと、例えばピントがずれた画像もぼけているが、ここでは特に、ピントが合っていても上記の撮影光学系の収差の影響でぼけてしまうものを指すことにする。また、カラー画像での色にじみも撮影光学系の軸上色収差、色の球面収差、色のコマ収差が原因であるものに関しては、光の波長毎のぼけ方の相違と言うことができる。 In general, when an image of an object is captured by an image capturing apparatus, the obtained image is not a little degraded, especially due to the aberration of the image capturing optical system. The blur component of the degraded image is caused by spherical aberration, coma aberration, curvature of field, astigmatism, etc. of the imaging optical system. The blurring component of the image due to these aberrations is that the light beam emitted from one point on the subject should converge again at one point on the imaging surface, if there is no aberration and there is no effect of diffraction. pointing to something This is optically called a point spread function. Image blur means, for example, an out-of-focus image, but here it specifically refers to an image that is out of focus but is blurred due to the aberration of the photographing optical system. Color fringing in a color image, which is caused by longitudinal chromatic aberration, chromatic spherical aberration, and chromatic coma aberration of the imaging optical system, can also be said to be a difference in blurring for each wavelength of light.

このような収差による画質劣化を補正する場合は、収差に対応する点像分布関数をフーリエ変換した光学伝達関数を式(9)におけるH(u,v)とすれば、式(9)と式(10)で説明した方式で補正することが可能である。 When correcting image quality deterioration due to such aberration, if the optical transfer function obtained by Fourier transforming the point spread function corresponding to the aberration is H(u, v) in Equation (9), Equation (9) and Equation (9) and Equation (9) It is possible to correct by the method described in (10).

図8は、第2の実施形態に係る手ブレ補正処理のフローチャートである。例えば、シャッターレリーズ釦(不図示)の押下を操作検出部10が検出すると、本フローチャートの処理が開始する。 FIG. 8 is a flowchart of camera shake correction processing according to the second embodiment. For example, when the operation detection unit 10 detects pressing of a shutter release button (not shown), the processing of this flowchart starts.

S204で、ブレ残り成分生成部20は、S102及びS103において取得した手ブレ補正駆動情報と歪曲収差情報に基づいてブレ残り成分を算出する。本実施形態では、ブレ残り成分を算出する画面内の箇所を、処理負荷低減の観点から限定する。 In S204, the residual blur component generation unit 20 calculates the residual blur component based on the camera shake correction driving information and the distortion aberration information acquired in S102 and S103. In the present embodiment, the locations within the screen for which the remaining blurring components are calculated are limited from the viewpoint of reducing the processing load.

図9は、第2の実施形態におけるブレ残り成分を算出する画面内の箇所(対象位置)を示した図である。図9においてプロットした点で示すように、ブレ残り成分生成部20は、縦7箇所、横9箇所の全63箇所でのみブレ残り成分を計算するものとする。ブレ残り成分の算出は、第1の実施形態で説明した方法と同様の方法により、ブレ残り成分m[t]、n[t]を算出することのより行われる。 FIG. 9 is a diagram showing locations (target positions) in the screen for calculating residual blur components in the second embodiment. As indicated by the plotted points in FIG. 9, the residual blur component generation unit 20 calculates residual blur components only at 63 positions, ie, 7 vertical positions and 9 horizontal positions. The remaining blur components are calculated by calculating the remaining blur components m[t] and n[t] by a method similar to the method described in the first embodiment.

次に、S205で、画像復元部21は、S204において算出されたブレ残り成分m[t]、n[t]に基づき、63箇所のブレ残りの点像分布関数h(x,y)を生成する。 Next, in S205, the image restoration unit 21 generates a point spread function h(x, y) of 63 remaining blur components based on the remaining blur components m[t] and n[t] calculated in S204. do.

S206で、画像復元部21は、撮影時の撮影光学系3の収差に対応する点像分布関数を取得する。例えば、画像復元部21は、予めメモリ部8に格納された点像分布関数のデータから、撮影時の焦点位置などの撮影状態に応じた点像分布関数を読み込んでもよい。或いは、画像復元部21は、撮影時の点像分布関数を、レンズユニット2から電気接点11を経由してカメラ制御回路5から取得してもよい。このとき、画像復元部21は、取得した点像分布関数を必要に応じて補正しても構わない。この補正とは、予め用意しておく点像分布関数のデータ数を低減するために、離散的な撮影状態に対応するデータを用意しておいて、実際に処理を実行する際に点像分布関数を補正することである。収差の特性は画面内の位置によって異なるため、画像復元部21は、図9に示した63箇所に対応する点像分布関数を取得する。 In S206, the image restoration unit 21 acquires a point spread function corresponding to the aberration of the imaging optical system 3 at the time of imaging. For example, the image restoration unit 21 may read the point spread function corresponding to the photographing state such as the focus position at the time of photographing from data of the point spread function stored in advance in the memory unit 8 . Alternatively, the image restoration unit 21 may acquire the point spread function at the time of photographing from the camera control circuit 5 via the electric contact 11 from the lens unit 2 . At this time, the image restoration unit 21 may correct the acquired point spread function as necessary. This correction involves preparing data corresponding to discrete shooting conditions in order to reduce the number of point spread function data to be prepared in advance, and adjusting the point spread function when performing actual processing. It is to correct the function. Since the aberration characteristics differ depending on the position within the screen, the image restoration unit 21 acquires the point spread functions corresponding to the 63 locations shown in FIG.

S207で、画像復元部21は、ブレ残りに対応する点像分布関数と収差に対応する点像分布関数に基づいて、ブレ残りと収差によるボケを補正するための復元フィルタを生成する。画像復元部21は、ブレ残りに対応する点像分布関数h(x,y)をフーリエ変換した点応答関数H(u,v)を算出し、収差に対応する点像分布関数h’(x,y)をフーリエ変換した点応答関数H’(u,v)を算出する。そして、次式で示したI(u,v)を、ブレ残りと収差による劣化の伝達関数とする。
I(u,v)=H(u,v)H’(u,v) …(13)
In S207, the image restoration unit 21 generates a restoration filter for correcting blur due to blur residue and aberration based on the point spread function corresponding to blur residue and the point spread function corresponding to aberration. The image restoration unit 21 calculates a point response function H(u, v) by Fourier transforming the point spread function h(x, y) corresponding to the residual blur, and calculates the point spread function H(u, v) corresponding to the aberration. , y) is Fourier-transformed to calculate a point response function H′(u, v). Then, let I(u, v) shown in the following equation be the transfer function of deterioration due to blur residue and aberration.
I(u,v)=H(u,v)H'(u,v) …(13)

上述の通り、このIの逆数を使うことでブレ残りと収差による劣化を復元することが可能であるが、本実施形態ではIから生成したウィーナーフィルターを用い、ウィーナーフィルターを逆フーリエ変換した実空間上のフィルタを復元フィルタとする。 As described above, it is possible to restore blur residuals and deterioration due to aberration by using the reciprocal of I. In the present embodiment, a Wiener filter generated from I is used, and the Wiener filter is inverse Fourier transformed into real space Let the upper filter be the restoration filter.

なお、上の説明では、S206において画像復元部21が収差に対応する点像分布関数を取得するものとした。しかしながら、点像分布関数h’(x,y)をフーリエ変換した点応答関数H’(u,v)の状態で予めメモリ部8などに保持し、S206で画像復元部21がこの点応答関数H’(u,v)を取得してもよい。この場合、S207において復元フィルタを生成する際に収差に対応する点像分布関数h’(x,y)に対するフーリエ変換が不要になる。 In the above description, it is assumed that the image restoration unit 21 acquires the point spread function corresponding to the aberration in S206. However, the point spread function h'(x, y) is stored in advance in the memory unit 8 or the like in the state of the point response function H'(u, v) obtained by Fourier transform, and the image restoration unit 21 restores this point response function in S206. H'(u,v) may be obtained. In this case, the Fourier transform of the point spread function h'(x, y) corresponding to the aberration is not required when generating the restoration filter in S207.

次に、S208で、画像復元部21は、生成した復元フィルタをS101において取得した画像データに畳み込むことにより、ブレ残りと収差によるボケを低減させる。生成した復元フィルタは画面内の63箇所であるため、対応する復元フィルタが存在しない領域が画面内に存在する。そのような領域(ブレ残り成分の取得の対象位置以外の位置)については、画像復元部21は、復元フィルタが存在する周囲4箇所の復元フィルタ(近傍の対象位置の復元フィルタ)を補間することにより、対象画素に対応する復元フィルタを生成して使用する。補間方法としては、線形補間などの既存の方法によって復元フィルタの係数を補間生成する方法を用いることができる。 Next, in S<b>208 , the image restoration unit 21 convolves the generated restoration filter with the image data acquired in S<b>101 , thereby reducing residual blurring and blur due to aberration. Since there are 63 generated restoration filters in the screen, there are areas in the screen where there are no corresponding restoration filters. For such a region (positions other than the target position for acquiring the remaining blurring component), the image restoration unit 21 interpolates restoration filters (restoration filters for nearby target positions) at four locations around which restoration filters exist. generates and uses a restoration filter corresponding to the target pixel. As an interpolation method, a method of interpolating and generating restoration filter coefficients by an existing method such as linear interpolation can be used.

以上説明したように、第2の実施形態によれば、撮像装置1は、ブレ残り成分に加えて収差を考慮した復元フィルタを生成する。これにより、画像データに復元フィルタを畳み込む処理を1回行うだけで、ブレ残り成分と共に収差に起因するボケを低減することが可能となる。また、画面内で復元フィルタを生成する箇所を限定することで、処理負荷の低減が可能となる。 As described above, according to the second embodiment, the imaging apparatus 1 generates a restoration filter that considers aberration in addition to the residual blur component. As a result, it is possible to reduce blur remaining components as well as blurring caused by aberration by performing the process of convolving the restoration filter with the image data only once. Also, by limiting the locations in the screen where restoration filters are generated, it is possible to reduce the processing load.

[第3の実施形態]
第3の実施形態では、画像のブレ残り成分を低減するための補正データを用いてブレ残り成分を低減する構成について説明する。本実施形態において、カメラシステムの基本的な構成は第1の実施形態と同様である(図1参照)が、画像処理部7の構成が第1の実施形態とは異なる。以下、主に第1の実施形態と異なる点について説明する。
[Third embodiment]
In the third embodiment, a configuration for reducing the remaining blurring component using correction data for reducing the remaining blurring component of an image will be described. In this embodiment, the basic configuration of the camera system is the same as that of the first embodiment (see FIG. 1), but the configuration of the image processing section 7 is different from that of the first embodiment. Differences from the first embodiment will be mainly described below.

図10は、第3の実施形態に係る画像処理部7の構成を示したブロック図である。その他画像処理部22は、A/D変換、ホワイトバランス調整、ガンマ補正、補間演算等を行い、記録用の画像を生成する。ブレ残り補正データ選択部23は、ブレ補正部14による撮像素子6の並進制御では補正できなかったブレ残り成分を補正するためのデータを選択する。この処理については後述する。画像復元部21は、画像処理部7でA/D変換された画像に対して後述の画像処理を行うことにより、ブレ残りを補正する。 FIG. 10 is a block diagram showing the configuration of the image processing section 7 according to the third embodiment. In addition, the image processing unit 22 performs A/D conversion, white balance adjustment, gamma correction, interpolation calculation, etc., and generates an image for recording. The residual blur correction data selection unit 23 selects data for correcting residual blur components that could not be corrected by the translational control of the imaging element 6 by the blur correction unit 14 . This processing will be described later. The image restoration unit 21 performs image processing, which will be described later, on the image that has been A/D converted by the image processing unit 7, thereby correcting the residual blur.

第1の実施形態では、ブレ残り成分の生成方法について図5を用いて説明した。また、生成したブレ残りの軌跡情報を図7(d)に示した。本実施形態では、画像上の近傍の領域では歪曲収差の発生する方向は不変と見なして、ブレ残り成分の発生を考える。つまり、図5において、着目位置S0から位置S0’への方向と、位置S1からS1’への方向とが同じものとして考える。この場合、位置b1’から位置S1への方向も同じである。上述の通り、位置b1’と位置S1の差異が時刻t1におけるブレ残り成分であるが、同様に時刻t2、t3の時のブレ残り成分も同じ方向を示す。このように、ある領域で歪曲収差の発生方向を不変と見なした場合、ブレ残り成分の発生方向は各時刻において同じであり、ブレ残りの軌跡は図11で示したように直線として考えることが可能である。実際は位置によって歪曲収差の発生方向は異なるが、歪曲収差が大きくなり易い画像周辺部では近傍領域の歪曲収差発生方向は概ね似た傾向であるため、不変と見なすことでブレ残りの発生方向を直線として考える。 In the first embodiment, the method of generating the residual blur component has been described with reference to FIG. FIG. 7D shows the generated trajectory information of the remaining blur. In the present embodiment, it is assumed that the direction in which distortion aberration occurs is unchanged in a neighboring area on the image, and the occurrence of blur residual components is considered. That is, in FIG. 5, the direction from the position S0 of interest to the position S0' is considered to be the same as the direction from the position S1 to S1'. In this case, the direction from position b1' to position S1 is the same. As described above, the difference between the position b1' and the position S1 is the residual blur component at time t1, and similarly, the residual blur components at times t2 and t3 also point in the same direction. In this way, when the direction in which distortion aberration occurs in a certain region is assumed to be constant, the direction in which residual blur components are generated is the same at each time, and the trajectory of residual blur can be considered as a straight line as shown in FIG. is possible. In reality, the direction in which distortion aberration occurs differs depending on the position, but since the direction in which distortion aberration occurs in the vicinity of the image periphery, where distortion tends to increase, tends to be similar, it is assumed that the direction in which blurring occurs is straight. Think as

このブレ残り成分の大きさ(ブレ残りの軌跡の長さ)は、手ブレ補正機構(例えば撮像素子6)の駆動量と撮影光学系3の歪曲収差の特性によって異なることは図5で示したブレ残りの発生原理から明らかである。手ブレ補正機構の駆動範囲が大きいほど、また像高に対する歪曲収差歪率の変化が大きいほど、ブレ残り成分は大きくなる。また、ブレ残り成分の点像分布関数の強度は、手ブレ補正機構の駆動によって異なる。そのため、複数の大きさのブレ残りや代表的な強度の点像分布関数に対応する復元フィルタを予め用意しておけば、復元フィルタを選択することでブレ残りを低減することが可能である。 As shown in FIG. 5, the magnitude of the residual blur component (the length of the locus of the residual blur) varies depending on the drive amount of the camera shake correction mechanism (for example, the image pickup device 6) and the distortion aberration characteristics of the photographic optical system 3. It is clear from the principle of occurrence of blur residue. The larger the drive range of the camera shake correction mechanism and the larger the change in the distortion aberration distortion rate with respect to the image height, the larger the residual blur component. Also, the intensity of the point spread function of the residual blur component varies depending on the drive of the camera shake correction mechanism. Therefore, if restoration filters corresponding to a plurality of sizes of residual blur and point spread functions with representative intensities are prepared in advance, residual blur can be reduced by selecting a restoration filter.

図12は、第3の実施形態に係る手ブレ補正処理のフローチャートである。例えば、シャッターレリーズ釦(不図示)の押下を操作検出部10が検出すると、本フローチャートの処理が開始する。 FIG. 12 is a flowchart of camera shake correction processing according to the third embodiment. For example, when the operation detection unit 10 detects pressing of a shutter release button (not shown), the processing of this flowchart starts.

S304で、ブレ残り補正データ選択部23は、S102及びS103において取得した手ブレ補正駆動情報と歪曲収差情報に基づいて復元フィルタ(ブレ残り成分を低減するための補正データ)を選択して取得する。 In S304, the residual blur correction data selection unit 23 selects and acquires a restoration filter (correction data for reducing the residual blur component) based on the camera shake correction driving information and the distortion aberration information acquired in S102 and S103. .

図13は、選択する復元フィルタを示したテーブルの一例を示す図である。この例では、ブレ残り補正データ選択部23は、手ブレ補正機構の駆動量eと、歪曲率の像高に対する傾きdに基づいて、画面内の領域毎に復元フィルタを選択する。ここで、手ブレ補正機構の駆動量eは、手ブレ補正駆動の歪曲収差発生方向での変位から求める値とする。図14(a)は、手ブレ補正駆動の軌跡と歪曲収差発生方向を示した例であり、図14(b)は、手ブレ補正駆動の歪曲収差発生方向での変位γ[t]を示した例である。手ブレ補正機構の駆動量eとしては、変位γ[t]の最大値と最小値の差分を使用してもよいし、変位γ[t]のばらつきを示す標準偏差を使用してもよい。歪曲率の像高に対する傾きdとしては、図4で示した歪曲収差情報の対象像高における傾きを使用する。 FIG. 13 is a diagram showing an example of a table showing restoration filters to be selected. In this example, the residual blur correction data selection unit 23 selects a restoration filter for each area within the screen based on the driving amount e of the camera shake correction mechanism and the gradient d of the distortion rate with respect to the image height. Here, the drive amount e of the camera shake correction mechanism is a value obtained from the displacement of the camera shake correction drive in the distortion generation direction. FIG. 14(a) is an example showing the trajectory of camera shake correction driving and the direction in which distortion aberration is generated, and FIG. This is an example. As the drive amount e of the camera shake correction mechanism, the difference between the maximum value and the minimum value of the displacement γ[t] may be used, or the standard deviation indicating the variation of the displacement γ[t] may be used. As the gradient d of the distortion rate with respect to the image height, the gradient of the distortion aberration information shown in FIG. 4 at the target image height is used.

次に、各復元フィルタについて説明する。図13の復元フィルタは、歪曲率の像高に対する傾きdが大きいほど大きなブレ残りを補正するように構成されている。即ち、補正対象のブレ残り成分の大きさはフィルタ00<フィルタ01<フィルタ02<フィルタ03である。また、図13の復元フィルタは、手ブレ補正機構の駆動量eが大きいほど大きなブレ残りを補正するように構成されている。即ち、補正対象のブレ残り成分の大きさはフィルタ00<フィルタ10<フィルタ20<フィルタ30である。また、各復元フィルタは、ブレ残りの発生方向は1方向であり、かつ軌跡は直線を想定したものである。復元フィルタを生成する基になっている点像分布関数の強度は、ここでは一律とする。即ち、手ブレ補正機構が等速で駆動した場合を代表条件として保持する。 Next, each restoration filter will be described. The restoration filter in FIG. 13 is configured to correct a larger amount of residual blur as the gradient d of the distortion rate with respect to the image height increases. That is, the magnitude of the residual blur component to be corrected is Filter 00<Filter 01<Filter 02<Filter 03. Further, the restoration filter in FIG. 13 is configured to correct a larger residual blur as the drive amount e of the camera shake correction mechanism increases. That is, the magnitude of the residual blur component to be corrected is Filter 00<Filter 10<Filter 20<Filter 30. FIG. Further, each restoration filter is assumed to have only one direction in which the remaining blurring occurs, and the trajectory is assumed to be a straight line. Here, the intensity of the point spread function, which is the basis for generating the restoration filter, is assumed to be uniform. That is, the case where the camera shake correction mechanism is driven at a constant speed is held as a representative condition.

図13で示したテーブルは、手ブレ補正機構の駆動量eと、歪曲率の像高に対する傾きdの値によって使用する復元フィルタを定義したものであり、それぞれ判定閾値K[]とl[]とに対する比較を行うことで使用する復元フィルタを選択することができる。この判定閾値K[]とl[]やフィルタ00~33は、手ブレ補正機構や撮影光学系3の特性から予め設定しておく値である。 The table shown in FIG. 13 defines the restoration filter to be used according to the drive amount e of the camera shake correction mechanism and the value of the gradient d of the distortion rate with respect to the image height. The restoration filter to use can be selected by making a comparison against . The determination thresholds K[ ] and l[ ] and the filters 00 to 33 are values set in advance based on the characteristics of the image stabilization mechanism and the photographic optical system 3 .

次に、S305で、画像復元部21は、S304において取得した復元フィルタを、歪曲収差発生方向に応じて回転する。これは、S304において取得した復元フィルタは、ブレ残りの発生方向が1方向固定の復元フィルタであるため、画面内の位置に応じて歪曲収差が発生する方向に合わせて復元フィルタを回転処理する必要があるからである。 Next, in S305, the image restoration unit 21 rotates the restoration filter acquired in S304 according to the direction in which distortion aberration occurs. This is because the restoration filter acquired in S304 is a restoration filter in which the direction in which the residual blurring occurs is fixed to one direction. because there is

S306で、画像復元部21は、S305において回転した復元フィルタをS101において取得した画像データに畳み込むことにより、ブレ残りを低減させる。 In S306, the image restoration unit 21 convolves the restoration filter rotated in S305 with the image data acquired in S101, thereby reducing residual blurring.

このように、予め生成した複数の復元フィルタを(例えばメモリ部8に)保持しておき、手ブレ補正駆動情報と歪曲収差情報に基づいて復元フィルタを選択することで、ブレ残りを低減させることが可能である。 In this way, a plurality of restoration filters generated in advance are held (for example, in the memory unit 8), and a restoration filter is selected based on the camera shake correction drive information and the distortion aberration information, thereby reducing the residual blurring. is possible.

なお、上では、ブレ残り補正データ選択部23が選択する補正データとして、予め生成しておいた復元フィルタを保持する構成について説明した。しかしながら、ブレ残り補正データ選択部23が選択する補正データは、復元フィルタを生成するための点像分布関数や、点像分布関数をフーリエ変換した点応答関数(ブレ残りの点応答関数)であってもよい。 In the above description, a configuration has been described in which a restoration filter generated in advance is held as correction data selected by the residual blur correction data selection unit 23 . However, the correction data selected by the residual blur correction data selection unit 23 is a point spread function for generating a restoration filter or a point response function obtained by Fourier transforming the point spread function (point response function of residual blur). may

図15は、補正データとして予め算出したブレ残りの点応答関数を保持する構成における、手ブレ補正処理のフローチャートである。図15の手ブレ補正処理では、ブレ残り及び収差の両方を補正するものとする。例えば、シャッターレリーズ釦(不図示)の押下を操作検出部10が検出すると、本フローチャートの処理が開始する。 FIG. 15 is a flowchart of camera shake correction processing in a configuration in which a pre-calculated point response function of remaining blur is held as correction data. In the camera shake correction process of FIG. 15, both the remaining blur and the aberration are corrected. For example, when the operation detection unit 10 detects pressing of a shutter release button (not shown), the processing of this flowchart starts.

S404で、ブレ残り補正データ選択部23は、S102及びS103において取得した手ブレ補正駆動情報と歪曲収差情報に基づいてブレ残りの点応答関数を選択する。撮像装置1は、図13を参照して前述した復元フィルタに対応する点応答関数を同様のテーブルの形式でメモリ部8に保持している。ブレ残り補正データ選択部23は、手ブレ補正機構の駆動量eと、歪曲率の像高に対する傾きdに基づいて、点応答関数を選択する。この時、図9に示すように、選択を行う画面内の箇所を処理負荷低減の観点から限定してもよい。図9においてプロットした点で示すように、ブレ残り補正データ選択部23は、縦7箇所、横9箇所の全63箇所でのみ点応答関数を選択するものとする。 In S404, the residual blur correction data selection unit 23 selects a point response function for residual blur based on the camera shake correction drive information and the distortion aberration information acquired in S102 and S103. The image capturing apparatus 1 stores point response functions corresponding to the restoration filters described above with reference to FIG. 13 in a similar table format in the memory unit 8 . The remaining blur correction data selection unit 23 selects a point response function based on the driving amount e of the camera shake correction mechanism and the gradient d of the distortion rate with respect to the image height. At this time, as shown in FIG. 9, the locations within the screen where the selection is made may be limited from the viewpoint of reducing the processing load. As indicated by the plotted points in FIG. 9, the residual blur correction data selection unit 23 selects point response functions only at 63 points in total, 7 points in the vertical direction and 9 points in the horizontal direction.

S405で、画像復元部21は、撮影時の撮影光学系3の収差に対応する点応答関数を取得する。例えば、画像復元部21は、予めメモリ部8に格納された点応答関数のデータから、撮影時の焦点位置などの撮影状態に応じた点像分布関数を読み込んでもよい。或いは、画像復元部21は、撮影時の点応答関数を、レンズユニット2から電気接点11を経由してカメラ制御回路5から取得してもよい。このとき、画像復元部21は、取得した点応答関数を必要に応じて補正しても構わない。この補正とは、予め用意しておく点応答関数のデータ数を低減するために、離散的な撮像状態に対応するデータを用意しておいて、実際に処理を実行する際に点応答関数を補正することである。収差の特性は、画面内の位置によって異なるために、画像復元部21は、図9に示した63箇所に対応する点応答関数を取得する。 In S405, the image restoration unit 21 acquires a point response function corresponding to the aberration of the imaging optical system 3 during imaging. For example, the image restoration unit 21 may read a point spread function corresponding to the photographing state such as the focal position at the time of photographing from the point response function data stored in advance in the memory unit 8 . Alternatively, the image restoration section 21 may acquire the point response function at the time of photographing from the camera control circuit 5 via the electric contact 11 from the lens unit 2 . At this time, the image restoration unit 21 may correct the acquired point response function as necessary. This correction involves preparing data corresponding to discrete imaging states in order to reduce the number of point response function data to be prepared in advance, and converting the point response function when actually executing processing. It is to correct. Since the aberration characteristics differ depending on the position within the screen, the image restoration unit 21 acquires point response functions corresponding to the 63 locations shown in FIG.

S406で、画像復元部21は、ブレ残りに対応する点応答関数と収差に対応する点応答関数に基づいて、ブレ残りと収差によるボケを補正するための復元フィルタを生成する。画像復元部21は、ブレ残りに対応する点応答関数H(u,v)と、収差に対応する点応答関数H’(u,v)から、式(13)によってブレ残りと収差による劣化の伝達関数I(u,v)を算出する。そして、画像復元部21は、図8のS207と同様の処理により、I(u,v)を基に復元フィルタを生成する。 In S406, the image restoration unit 21 generates a restoration filter for correcting blur due to blur residue and aberration based on the point response function corresponding to blur residue and the point response function corresponding to aberration. The image restoration unit 21 uses the point response function H(u, v) corresponding to the residual blur and the point response function H'(u, v) corresponding to the aberration to determine the deterioration due to the residual blur and the aberration according to Equation (13). Calculate the transfer function I(u,v). Then, the image restoration unit 21 generates a restoration filter based on I(u, v) by the same processing as S207 in FIG.

S407で、画像復元部21は、生成した復元フィルタをS101において取得した画像データに畳み込むことにより、ブレ残りと収差によるボケを低減させる。作成した復元フィルタは画面内の63箇所であるため、対応する復元フィルタが存在しない領域が画面内に存在する。そのような領域については、画像復元部21は、復元フィルタが存在する周囲4箇所の復元フィルタを補間することにより、対象画素に対応する復元フィルタを生成して使用する。補間方法としては、線形補間などの既存の方法によって復元フィルタの係数を補間生成する方法を用いることができる。 In S407, the image restoration unit 21 convolves the generated restoration filter with the image data acquired in S101, thereby reducing residual blurring and blur due to aberration. Since there are 63 created restoration filters in the screen, there are areas in the screen where there are no corresponding restoration filters. For such an area, the image restoration unit 21 interpolates the four restoration filters around where the restoration filters exist to generate and use the restoration filter corresponding to the target pixel. As an interpolation method, a method of interpolating and generating restoration filter coefficients by an existing method such as linear interpolation can be used.

以上説明したように、第3の実施形態によれば、撮像装置1は、予め生成した複数の補正データ(復元フィルタ、点応答関数、点像分布関数など)を保持し、手ブレ補正駆動情報と歪曲収差情報に基づいて補正データを取得する。そして、撮像装置1は、取得した補正データに基づいて、画像のブレ残り成分を低減する。これにより、歪曲収差のある光学系を用いて撮影された画像の手ブレに起因する画像ブレを効果的に低減することが可能となる。 As described above, according to the third embodiment, the image capturing apparatus 1 holds a plurality of correction data (restoration filter, point response function, point spread function, etc.) generated in advance, and shake correction drive information. and distortion aberration information. Then, the imaging apparatus 1 reduces the residual blur component of the image based on the acquired correction data. This makes it possible to effectively reduce image blur caused by camera shake in an image captured using an optical system with distortion.

[第4の実施形態]
第4の実施形態では、ブレ補正のためにブレ補正レンズと撮像素子6の両方を駆動させる構成について説明する。本実施形態において、カメラシステムの基本的な構成は第3の実施形態と同様である(図1及び図10参照)。以下、主に第3の実施形態と異なる点について説明する。
[Fourth embodiment]
In the fourth embodiment, a configuration will be described in which both the blur correction lens and the imaging device 6 are driven for blur correction. In this embodiment, the basic configuration of the camera system is the same as in the third embodiment (see FIGS. 1 and 10). Differences from the third embodiment will be mainly described below.

本実施形態では、撮影光学系3はブレ補正レンズを有し、レンズ制御回路12は、ブレ検出部15からの信号に基づいて、レンズ駆動部13を介してブレ補正レンズを駆動させる。また、ブレ補正部14は、ブレ検出部15からの信号に基づいて、撮像素子6を光軸4に直交する平面内において並進させる。 In this embodiment, the imaging optical system 3 has a blur correction lens, and the lens control circuit 12 drives the blur correction lens via the lens driving section 13 based on the signal from the blur detection section 15 . Further, the blur correction unit 14 translates the imaging element 6 within a plane orthogonal to the optical axis 4 based on the signal from the blur detection unit 15 .

手ブレ補正時に、ブレ補正レンズと撮像素子6の両方を駆動することで、どちらか一方を駆動する場合よりも大きな手ブレを補正することとが可能になる。一方で、ブレ補正レンズを持たないレンズユニットが撮像装置1に装着される場合もある。この場合は、補正可能な手ブレ量は小さくなるが、撮像素子6のみを駆動させることで手ブレを補正することができる。 By driving both the blur correction lens and the imaging device 6 during camera shake correction, it is possible to correct larger camera shake than when either one is driven. On the other hand, there are cases where a lens unit without a blur correction lens is attached to the imaging device 1 . In this case, the amount of camera shake that can be corrected is small, but the camera shake can be corrected by driving only the imaging device 6 .

ブレ補正レンズを駆動させた場合、撮影光学系3を構成するレンズの一部(ブレ補正レンズ)がシフトされるため、ブレ補正レンズの駆動量によっては撮影光学系3で発生する歪曲収差の特性が異なる場合がある。光軸4がずれることによって歪曲収差の発生中心がずれるだけではなく、光軸4からの距離を示す像高に対する歪曲収差の特性も、ブレ補正レンズの駆動量によって異なる特性を示す場合がある。これは、歪曲収差に起因して発生するブレ残り成分が、撮像素子6を駆動させた場合とブレ補正レンズを駆動させた場合とで異なることを意味する。従って、ブレ残りを補正する場合に、ブレ補正の方式によって異なる補正データを用いることで、補正精度が向上する。 When the blur correction lens is driven, a part of the lens (blur correction lens) constituting the photographic optical system 3 is shifted. may differ. When the optical axis 4 shifts, not only does the center of distortion aberration shift, but also the characteristics of the distortion aberration with respect to the image height, which indicates the distance from the optical axis 4, may exhibit different characteristics depending on the drive amount of the blur correction lens. This means that the residual blur component generated due to distortion differs between when the imaging element 6 is driven and when the blur correction lens is driven. Therefore, in the case of correcting the residual blurring, the correction accuracy is improved by using different correction data depending on the blurring correction method.

図16は、第4の実施形態に係る手ブレ補正処理のフローチャートである。例えば、シャッターレリーズ釦(不図示)の押下を操作検出部10が検出すると、本フローチャートの処理が開始する。 FIG. 16 is a flowchart of camera shake correction processing according to the fourth embodiment. For example, when the operation detection unit 10 detects pressing of a shutter release button (not shown), the processing of this flowchart starts.

S501で、カメラ制御回路5は、撮像素子6を用いて露光を行う。露光期間中、カメラ制御回路5は、ブレ補正部14を用いて手ブレ補正のために撮像素子6を駆動する。また、撮影光学系3がブレ補正レンズを有する場合、カメラ制御回路5は、レンズ駆動部13を介してブレ補正レンズを駆動させる。この時、手ブレ量によっては、カメラ制御回路5は、撮像素子6を駆動させずブレ補正レンズのみ駆動させる制御や、それぞれの駆動で特性を異ならせる制御を行ってもよい。露光により得られた信号は、A/D変換されて画像データとして取得される。 In S<b>501 , the camera control circuit 5 performs exposure using the imaging device 6 . During the exposure period, the camera control circuit 5 drives the image sensor 6 for camera shake correction using the shake correction section 14 . Further, when the photographing optical system 3 has a blur correction lens, the camera control circuit 5 drives the blur correction lens via the lens driving section 13 . At this time, depending on the amount of camera shake, the camera control circuit 5 may perform control to drive only the blur correction lens without driving the image sensor 6, or control to vary the characteristics for each drive. A signal obtained by exposure is A/D converted and acquired as image data.

S502で、ブレ残り補正データ選択部23は、撮像素子6の露光期間中に行われたブレ補正部14による撮像素子6の駆動情報を、カメラ制御回路5から取得する。取得する駆動情報は、第1の実施形態において図2のS102について説明した情報と同様のものとする。 In S<b>502 , the remaining blur correction data selection unit 23 acquires drive information for the image sensor 6 by the blur correction unit 14 during the exposure period of the image sensor 6 from the camera control circuit 5 . It is assumed that the driving information to be acquired is the same as the information described in S102 of FIG. 2 in the first embodiment.

S503で、ブレ残り補正データ選択部23は、撮像素子6の露光期間中に行われたレンズ駆動部13によるブレ補正レンズの駆動情報を、電気接点11を介してレンズユニット2から撮像装置1に送信される情報としてカメラ制御回路5から取得する。取得する駆動情報は、S502で取得する撮像素子6の駆動情報の構成と同様に、ブレ補正レンズのx方向、y方向の時刻に対する変位情報を含む。 In S<b>503 , the residual blur correction data selection unit 23 transmits the drive information of the blur correction lens by the lens driving unit 13 during the exposure period of the image pickup device 6 from the lens unit 2 to the image pickup apparatus 1 via the electrical contact 11 . It is acquired from the camera control circuit 5 as information to be transmitted. The drive information to be acquired includes the displacement information of the blur correction lens in the x direction and the y direction with respect to time, in the same manner as the configuration of the drive information of the image sensor 6 acquired in S502.

S504で、ブレ残り補正データ選択部23は、S503において取得したブレ補正レンズの駆動情報を基に、ブレ補正レンズの駆動の有無を判定する。レンズユニット2がブレ補正レンズを持たない場合、ここでは駆動なしとして判定される。また、レンズユニット2がブレ補正レンズを持つ場合であっても、ブレ補正レンズを駆動させない制御が行われた場合は、駆動なしとして判定される。ブレ補正レンズの駆動ありと判定された場合、処理はS505に進み、そうでない場合、処理はS507に進む。 In S504, the residual blur correction data selection unit 23 determines whether or not the blur correction lens is to be driven based on the drive information of the blur correction lens acquired in S503. If the lens unit 2 does not have a blur correction lens, it is determined here as no drive. Also, even if the lens unit 2 has a blur correction lens, if control is performed not to drive the blur correction lens, it is determined that the lens is not driven. If it is determined that the motion compensation lens is driven, the process advances to S505; otherwise, the process advances to S507.

S505で、ブレ残り補正データ選択部23は、ブレ補正レンズの駆動情報に応じた歪曲収差情報を取得する。例えば、ブレ残り補正データ選択部23は、予めメモリ部8に格納された歪曲収差情報から、撮影時の焦点位置などに撮影条件に応じた歪曲収差情報を読み込んでもよい。或いは、ブレ残り補正データ選択部23は、撮影時の歪曲収差情報を、レンズユニット2から電気接点11を経由してカメラ制御回路5から取得してもよい。露光期間中は、ブレ補正レンズの駆動により歪曲収差特性は連続的に変化している。そのため、ここで取得する歪曲収差情報としては、露光期間中の平均値を用いてもよいし、ブレ補正レンズの駆動情報から決定した代表的な歪曲収差情報を用いてもよい。 In S505, the residual blur correction data selection unit 23 acquires distortion aberration information corresponding to the driving information of the blur correction lens. For example, the residual blur correction data selection unit 23 may read distortion aberration information corresponding to the shooting conditions such as the focus position at the time of shooting from the distortion aberration information stored in advance in the memory unit 8 . Alternatively, the residual blur correction data selection unit 23 may acquire the distortion aberration information at the time of shooting from the camera control circuit 5 via the electric contact 11 from the lens unit 2 . During the exposure period, the distortion aberration characteristics are continuously changing due to the driving of the blur correction lens. Therefore, as the distortion aberration information acquired here, an average value during the exposure period may be used, or representative distortion aberration information determined from the driving information of the blur correction lens may be used.

S506で、ブレ残り補正データ選択部23は、S502及びS503において取得した手ブレ補正駆動情報と、S505において取得した歪曲収差情報とに基づいて、復元フィルタを選択する。選択の方法は、図13を参照して説明した第3の実施形態の方法と同様であるが、撮像素子6とブレ補正レンズの両方が駆動していることを考慮して選択する必要がある。従って、ブレ残り補正データ選択部23は、歪曲率の像高に対する傾きdを求める場合の像高については、撮像素子6とブレ補正レンズの駆動を考慮して光軸中心からの距離を算出する。また、ブレ残り補正データ選択部23は、手ブレ補正機構の駆動量eについては、撮像素子6とブレ補正レンズの駆動量の合算を用いるなどして算出する。 In S506, the remaining blur correction data selection unit 23 selects a restoration filter based on the camera shake correction drive information acquired in S502 and S503 and the distortion aberration information acquired in S505. The selection method is the same as the method of the third embodiment described with reference to FIG. 13, but it is necessary to consider that both the image sensor 6 and the blur correction lens are driven. . Therefore, the remaining blur correction data selection unit 23 calculates the distance from the optical axis center in consideration of the driving of the image sensor 6 and the blur correction lens for the image height when obtaining the tilt d of the distortion rate with respect to the image height. . Further, the remaining blur correction data selection unit 23 calculates the drive amount e of the camera shake correction mechanism by using, for example, the sum of the drive amounts of the image sensor 6 and the blur correction lens.

一方、S504においてブレ補正レンズの駆動なしと判定された場合、S507で、ブレ残り補正データ選択部23は、ブレ補正レンズの駆動が行われていない状態に対応する歪曲収差情報を取得する。 On the other hand, if it is determined in S504 that the blur correction lens is not driven, then in S507 the residual blur correction data selection unit 23 acquires distortion aberration information corresponding to the state in which the blur correction lens is not driven.

S508で、ブレ残り補正データ選択部23は、S502において取得した手ブレ補正駆動情報と、S507において取得した歪曲収差情報とに基づいて、復元フィルタを選択する。 In S508, the remaining blur correction data selection unit 23 selects a restoration filter based on the camera shake correction drive information acquired in S502 and the distortion aberration information acquired in S507.

次に、S509で、画像復元部21は、S506又はS508において取得した復元フィルタを、歪曲収差発生方向に応じて回転する。これは、S506又はS508で取得した復元フィルタは、ブレ残りの発生方向が1方向固定の復元フィルタであるため、画面内の位置に応じて歪曲収差が発生する方向に合わせて復元フィルタを回転処理する必要があるからである。 Next, in S509, the image restoration unit 21 rotates the restoration filter acquired in S506 or S508 according to the distortion aberration generation direction. This is because the restoration filter acquired in S506 or S508 is a restoration filter in which the direction in which blurring remains occur is fixed to one direction, so the restoration filter is rotated according to the direction in which distortion aberration occurs according to the position in the screen. because it is necessary to

S510で、画像復元部21は、S509において回転した復元フィルタを、S501において取得した画像データに畳み込むことにより、ブレ残りを低減させる。 In S510, the image restoration unit 21 convolves the restoration filter rotated in S509 with the image data acquired in S501, thereby reducing residual blurring.

以上説明したように、第4の実施形態によれば、撮像装置1は、手ブレ補正の方式によって異なるブレ残り補正データを取得する。これにより、複数のブレ補正方式を有する撮像装置においてブレ残りを効果的に低減させることが可能となる。 As described above, according to the fourth embodiment, the imaging apparatus 1 acquires different residual blur correction data depending on the camera shake correction method. As a result, it is possible to effectively reduce residual blur in an imaging apparatus having a plurality of blur correction methods.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1…撮像装置、2…レンズユニット、3…撮影光学系、5…カメラ制御回路、6…撮像素子、7…画像処理部、8…メモリ部、13…レンズ駆動部、14…ブレ補正部、15…ブレ検出部、20…ブレ残り成分生成部、21…画像復元部、23…ブレ残り補正データ選択部 DESCRIPTION OF SYMBOLS 1... Imaging device 2... Lens unit 3... Imaging optical system 5... Camera control circuit 6... Imaging element 7... Image processing part 8... Memory part 13... Lens drive part 14... Blur correction part 15... Blur detection unit 20... Blur residual component generation unit 21... Image restoration unit 23... Blur residual correction data selection unit

Claims (18)

撮像装置のブレを検出する検出手段と、
前記撮像装置による画像の撮影中に、前記撮像装置のブレに基づいて前記画像のブレを低減するように補正手段を駆動する駆動手段と、
前記補正手段の駆動量、及び前記画像の撮影に用いられた光学系の歪曲収差に基づいて、前記画像のブレ残り成分を取得する取得手段と、
前記画像の前記ブレ残り成分を低減する画像処理を行う画像処理手段と、
を備えることを特徴とするブレ補正装置。
detection means for detecting blurring of the imaging device;
driving means for driving correction means to reduce blurring of the image based on blurring of the imaging device while the imaging device is capturing an image;
acquisition means for acquiring a residual blur component of the image based on the driving amount of the correction means and the distortion aberration of an optical system used to capture the image;
image processing means for performing image processing to reduce the residual blur component of the image;
A blur correction device comprising:
前記取得手段は、前記補正手段の駆動量、及び前記光学系の歪曲収差に基づいて、前記ブレ残り成分を算出することにより、前記ブレ残り成分を取得する
ことを特徴とする請求項1に記載のブレ補正装置。
2. The apparatus according to claim 1, wherein the acquiring unit acquires the blur residual component by calculating the blur residual component based on the driving amount of the correction unit and the distortion aberration of the optical system. image stabilization device.
前記画像処理手段は、前記ブレ残り成分に基づいて復元フィルタを生成し、前記復元フィルタを前記画像に適用することにより、前記画像の前記ブレ残り成分を低減する
ことを特徴とする請求項1又は2に記載のブレ補正装置。
2. The image processing means reduces the residual blur component of the image by generating a restoration filter based on the residual blur component and applying the restoration filter to the image. 3. The blur correction device according to 2.
前記取得手段は、前記画像の一部の対象位置について前記ブレ残り成分を取得し、
前記画像処理手段は、前記対象位置については、前記ブレ残り成分に基づいて前記復元フィルタを生成し、前記対象位置以外の位置については、近傍の対象位置の復元フィルタを補間することにより前記復元フィルタを生成する
ことを特徴とする請求項3に記載のブレ補正装置。
the acquiring means acquires the residual blur component for a partial target position of the image;
The image processing means generates the restoration filter for the target position based on the residual blur component, and for positions other than the target position, the restoration filter is generated by interpolating restoration filters of nearby target positions. 4. The blur correction device according to claim 3, which generates .
前記画像処理手段は、前記ブレ残り成分に加えて前記光学系の収差に基づいて前記復元フィルタを生成し、前記復元フィルタを前記画像に適用することにより、前記画像の前記ブレ残り成分と共に、前記光学系の前記収差に起因する前記画像のボケを低減する
ことを特徴とする請求項3又は4に記載のブレ補正装置。
The image processing means generates the restoration filter based on the aberration of the optical system in addition to the blur remaining component, and applies the restoration filter to the image, so that the blur remaining component of the image and the 5. The blur correction device according to claim 3, wherein blurring of the image caused by the aberration of the optical system is reduced.
前記補正手段は、前記撮像装置の撮像素子、又は前記光学系が有するブレ補正レンズを含む
ことを特徴とする請求項1乃至5のいずれか1項に記載のブレ補正装置。
The blur correction device according to any one of claims 1 to 5, wherein the correction means includes an image sensor of the image pickup device or a blur correction lens included in the optical system.
撮像装置のブレを検出する検出手段と、
前記撮像装置による画像の撮影中に、前記撮像装置のブレに基づいて前記画像のブレを低減するように補正手段を駆動する駆動手段と、
前記補正手段の駆動量、及び前記画像の撮影に用いられた光学系の歪曲収差に基づいて、前記画像のブレ残り成分を低減するための補正データを取得する取得手段と、
前記補正データに基づいて、前記画像に対して前記ブレ残り成分を低減する画像処理を行う画像処理手段と、
を備えることを特徴とするブレ補正装置。
detection means for detecting blurring of the imaging device;
driving means for driving correction means to reduce blurring of the image based on blurring of the imaging device while the imaging device is capturing an image;
Acquisition means for acquiring correction data for reducing residual blurring components of the image based on the driving amount of the correction means and the distortion aberration of an optical system used to capture the image;
image processing means for performing image processing for reducing the residual blur component on the image based on the correction data;
A blur correction device comprising:
前記補正データは、前記ブレ残り成分に対応する復元フィルタを含み、
前記画像処理手段は、前記復元フィルタを前記画像に適用することにより、前記画像の前記ブレ残り成分を低減する
ことを特徴とする請求項7に記載のブレ補正装置。
the correction data includes a restoration filter corresponding to the residual blur component;
8. The blur correction device according to claim 7, wherein the image processing means reduces the residual blur component of the image by applying the restoration filter to the image.
前記取得手段は、前記画像の一部の対象位置について前記復元フィルタを含む前記補正データを取得し、
前記画像処理手段は、前記対象位置以外の位置については、近傍の対象位置の復元フィルタを補間することにより前記復元フィルタを取得する
ことを特徴とする請求項8に記載のブレ補正装置。
the acquiring means acquires the correction data including the restoration filter for a target position of a part of the image;
9. The blur correction device according to claim 8, wherein, for positions other than the target position, the image processing means acquires the restoration filter by interpolating restoration filters of nearby target positions.
前記補正データは、前記ブレ残り成分に対応する点応答関数、又は前記ブレ残り成分に対応する点像分布関数を含み、
前記画像処理手段は、前記補正データに基づいて復元フィルタを生成し、前記復元フィルタを前記画像に適用することにより、前記画像の前記ブレ残り成分を低減する
ことを特徴とする請求項7に記載のブレ補正装置。
the correction data includes a point response function corresponding to the residual blur component or a point spread function corresponding to the residual blur component;
8. The image processing unit according to claim 7, wherein the image processing means generates a restoration filter based on the correction data, and applies the restoration filter to the image to reduce the residual blur component of the image. image stabilization device.
前記取得手段は、前記画像の一部の対象位置について前記補正データを取得し、
前記画像処理手段は、前記対象位置については、前記補正データに基づいて前記復元フィルタを生成し、前記対象位置以外の位置については、近傍の対象位置の復元フィルタを補間することにより前記復元フィルタを生成する
ことを特徴とする請求項10に記載のブレ補正装置。
the acquisition means acquires the correction data for a target position of a part of the image;
The image processing means generates the restoration filter for the target position based on the correction data, and generates the restoration filter for positions other than the target position by interpolating restoration filters of nearby target positions. 11. The blur correction device according to claim 10, wherein:
前記画像処理手段は、前記補正データに加えて前記光学系の収差に基づいて前記復元フィルタを生成し、前記復元フィルタを前記画像に適用することにより、前記画像の前記ブレ残り成分と共に、前記光学系の前記収差に起因する前記画像のボケを低減する
ことを特徴とする請求項10又は11に記載のブレ補正装置。
The image processing means generates the restoration filter based on the aberration of the optical system in addition to the correction data, and applies the restoration filter to the image so that the image is processed together with the blur residual component of the image. 12. The blur correction device according to claim 10, wherein blurring of the image caused by the aberration of the system is reduced.
前記補正手段は、前記撮像装置の撮像素子、又は前記光学系が有するブレ補正レンズを含む
ことを特徴とする請求項7乃至12のいずれか1項に記載のブレ補正装置。
13. The blur correction device according to any one of claims 7 to 12, wherein the correction means includes an image sensor of the image pickup device or a blur correction lens included in the optical system.
請求項1乃至13のいずれか1項に記載のブレ補正装置と、
前記画像を撮影する撮像手段と、
を備えることを特徴とする撮像装置。
a blur correction device according to any one of claims 1 to 13;
imaging means for capturing the image;
An imaging device comprising:
ブレ補正装置が実行するブレ補正方法であって、
撮像装置のブレを検出する検出工程と、
前記撮像装置による画像の撮影中に、前記撮像装置のブレに基づいて前記画像のブレを低減するように補正手段を駆動する駆動工程と、
前記補正手段の駆動量、及び前記画像の撮影に用いられた光学系の歪曲収差に基づいて、前記画像のブレ残り成分を取得する取得工程と、
前記画像の前記ブレ残り成分を低減する画像処理を行う画像処理工程と、
を備えることを特徴とするブレ補正方法。
A blur correction method executed by a blur correction device,
a detection step of detecting blurring of the imaging device;
a driving step of driving a correction means so as to reduce blurring of the image based on blurring of the imaging device while the image is being captured by the imaging device;
an obtaining step of obtaining a residual blur component of the image based on the driving amount of the correction means and the distortion aberration of an optical system used to capture the image;
an image processing step of performing image processing to reduce the residual blur component of the image;
A blur correction method comprising:
ブレ補正装置が実行するブレ補正方法であって、
撮像装置のブレを検出する検出工程と、
前記撮像装置による画像の撮影中に、前記撮像装置のブレに基づいて前記画像のブレを低減するように補正手段を駆動する駆動工程と、
前記補正手段の駆動量、及び前記画像の撮影に用いられた光学系の歪曲収差に基づいて、前記画像のブレ残り成分を低減するための補正データを取得する取得工程と、
前記補正データに基づいて、前記画像に対して前記ブレ残り成分を低減する画像処理を行う画像処理工程と、
を備えることを特徴とするブレ補正方法。
A blur correction method executed by a blur correction device,
a detection step of detecting blurring of the imaging device;
a driving step of driving a correction means so as to reduce blurring of the image based on blurring of the imaging device while the image is being captured by the imaging device;
an acquisition step of acquiring correction data for reducing a residual blur component of the image based on the driving amount of the correction means and the distortion aberration of an optical system used to capture the image;
an image processing step of performing image processing for reducing the residual blur component on the image based on the correction data;
A blur correction method comprising:
コンピュータを、請求項1乃至6のいずれか1項に記載のブレ補正装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the blur correction device according to any one of claims 1 to 6. コンピュータを、請求項7乃至13のいずれか1項に記載のブレ補正装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the blur correction device according to any one of claims 7 to 13.
JP2018192808A 2018-10-11 2018-10-11 Blur correction device, imaging device, blur correction method, and program Active JP7137433B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018192808A JP7137433B2 (en) 2018-10-11 2018-10-11 Blur correction device, imaging device, blur correction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018192808A JP7137433B2 (en) 2018-10-11 2018-10-11 Blur correction device, imaging device, blur correction method, and program

Publications (2)

Publication Number Publication Date
JP2020061687A JP2020061687A (en) 2020-04-16
JP7137433B2 true JP7137433B2 (en) 2022-09-14

Family

ID=70219093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018192808A Active JP7137433B2 (en) 2018-10-11 2018-10-11 Blur correction device, imaging device, blur correction method, and program

Country Status (1)

Country Link
JP (1) JP7137433B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010258570A (en) 2009-04-22 2010-11-11 Canon Inc Image pickup apparatus, and image conversion method
WO2018180916A1 (en) 2017-03-31 2018-10-04 株式会社ニコン Blur correction device, replacement lens, and imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010258570A (en) 2009-04-22 2010-11-11 Canon Inc Image pickup apparatus, and image conversion method
WO2018180916A1 (en) 2017-03-31 2018-10-04 株式会社ニコン Blur correction device, replacement lens, and imaging device

Also Published As

Publication number Publication date
JP2020061687A (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP5906493B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP6209002B2 (en) Imaging apparatus and control method thereof
JP4487191B2 (en) Image processing apparatus and image processing program
JP4926920B2 (en) Anti-shake image processing apparatus and anti-shake image processing method
JP5438579B2 (en) Image processing apparatus and control method thereof
WO2011145296A1 (en) Image capturing apparatus, image processing apparatus, image processing method, and image processing program
JP5237978B2 (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
JP5535053B2 (en) Image processing apparatus and image processing method
JP2015070328A (en) Imaging apparatus and control method for the same
JPWO2014171304A1 (en) IMAGING DEVICE, IMAGING DEVICE DRIVE METHOD, IMAGING DEVICE CONTROL PROGRAM
JP4125331B2 (en) Imaging apparatus and control method thereof
JP2009088935A (en) Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP5712031B2 (en) Imaging device, photographing lens unit, and imaging unit
JP6420888B2 (en) Image blur correction apparatus, control method therefor, program, and storage medium
JP2019145958A (en) Imaging apparatus, control method of the same, and program
JP6628678B2 (en) Distance measuring device, imaging device, and distance measuring method
JP5487955B2 (en) Imaging apparatus and imaging method
JP7137433B2 (en) Blur correction device, imaging device, blur correction method, and program
JP6541835B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM
JP2020030569A (en) Image processing method, image processing device, imaging device, lens device, program, and storage medium
JP5393877B2 (en) Imaging device and integrated circuit
RU2761187C1 (en) Image processing apparatus and image capturing apparatus
EP3836540B1 (en) Image processing apparatus and image capturing apparatus
JP2007036799A (en) Image processing apparatus
JP6257289B2 (en) Image processing apparatus, imaging apparatus including the same, and image processing method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220902

R151 Written notification of patent or utility model registration

Ref document number: 7137433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151