JP2022021684A - Image shake correction device and method for controlling the same, and imaging apparatus - Google Patents

Image shake correction device and method for controlling the same, and imaging apparatus Download PDF

Info

Publication number
JP2022021684A
JP2022021684A JP2020125432A JP2020125432A JP2022021684A JP 2022021684 A JP2022021684 A JP 2022021684A JP 2020125432 A JP2020125432 A JP 2020125432A JP 2020125432 A JP2020125432 A JP 2020125432A JP 2022021684 A JP2022021684 A JP 2022021684A
Authority
JP
Japan
Prior art keywords
image
unit
value
detection signal
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020125432A
Other languages
Japanese (ja)
Inventor
環 根岸
Tamaki Negishi
公介 木矢村
Kimisuke Kiyamura
慎平 板垣
Shimpei Itagaki
尚貴 野村
Naoki Nomura
真衣 中林
Mai NAKABAYASHI
徹 松本
Toru Matsumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020125432A priority Critical patent/JP2022021684A/en
Publication of JP2022021684A publication Critical patent/JP2022021684A/en
Pending legal-status Critical Current

Links

Images

Abstract

To reduce a variation of an image shake correction effect to stabilize image quality.SOLUTION: An imaging apparatus 1000 comprises an image pick-up device 6, an image shake correction unit 14, and a vibration detection unit 15. A camera system control unit 5 included in a camera main body unit 1 estimates an offset component of output from the vibration detection unit 15 that detects vibration of the camera main body unit 1. In offset estimation processing, a parameter value of a Kalman filter is changed by using table data indicating the relation of the Allan variance σ(τ) to a measurement time interval τ of the output from the vibration detection unit 15. The camera system control unit 5 performs control of the image shake correction by moving the image pick-up device 6 in a plane perpendicular to a photographic optical axis 4 based on the output from the vibration detection unit 15 and the estimated offset component.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置等における画像の像ブレ補正処理の技術に関する。 The present invention relates to a technique for image stabilization processing of an image in an image pickup device or the like.

像ブレ補正機能を有する撮像装置では、手振れ量の検出に角速度センサ等の慣性センサが用いられ、撮像装置の振れ検出情報に基づいて撮像光学系の一部または全部を駆動する制御が行われる。慣性センサの出力信号には、個体差による基準電圧のばらつき等の直流成分が含まれ、また温度変化によるドリフトが発生する。 In the image pickup device having an image blur correction function, an inertial sensor such as an angular velocity sensor is used to detect the amount of camera shake, and control is performed to drive a part or all of the image pickup optical system based on the shake detection information of the image pickup device. The output signal of the inertial sensor contains DC components such as variations in the reference voltage due to individual differences, and drift occurs due to temperature changes.

角速度センサを使用する場合、直流成分やドリフトは、時間積分により角度を求める際に角度誤差を発生させる要因となる。そこでフィルタ処理によって、角速度センサの出力信号から直流成分やドリフトを除去することで、角度誤差による像ブレ補正精度の低下を抑制する方法がある。特許文献1では、カルマンフィルタを用いて慣性センサの出力信号に含まれる直流成分およびドリフトを除去する方法が開示されている。 When using an angular velocity sensor, the DC component and drift are factors that cause an angle error when the angle is obtained by time integration. Therefore, there is a method of suppressing the deterioration of the image blur correction accuracy due to the angular error by removing the DC component and the drift from the output signal of the angular velocity sensor by the filter processing. Patent Document 1 discloses a method of removing a DC component and a drift included in an output signal of an inertial sensor by using a Kalman filter.

特開2018-105938号公報Japanese Unexamined Patent Publication No. 2018-105938

従来の技術では、カルマンフィルタのパラメータ値が適切でない場合、像ブレ補正性能等に及ぼす影響が大きくなる可能性がある。例えばパラメータ値が設定者の意図する結果になるように設定者の経験や試行錯誤によって決定される場合には、カルマンフィルタの良し悪しが設定者の力量に左右される。 In the conventional technique, if the parameter value of the Kalman filter is not appropriate, the influence on the image stabilization performance and the like may be large. For example, when the parameter value is determined by the experience of the setter and trial and error so as to obtain the result intended by the setter, the quality of the Kalman filter depends on the ability of the setter.

また、ドリフトが大きいことで個体ごとの時間経過による慣性センサの出力変動(以降、「揺らぎ」と呼ぶ)が発生する可能性がある。この場合、カルマンフィルタの適切なパラメータ値が個体ごとに異なるジャイロセンサに対して、設定者がセンサ個体ごとにパラメータ値を設定する方法は現実的ではない。よって、揺らぎの大きいジャイロセンサを使用する場合であっても、カルマンフィルタのパラメータ値はセンサ個体ごとに設定されることなく、一律に設定される。その結果、撮像装置の個体ごとに像ブレ補正効果にばらつきが発生した場合には、同一機種でも画像品位に差異が生じる可能性がある。
本発明の目的は、像ブレ補正効果のばらつきを抑え、画像品位を安定させることである。
In addition, due to the large drift, there is a possibility that the output fluctuation of the inertial sensor (hereinafter referred to as "fluctuation") may occur due to the passage of time for each individual. In this case, it is not realistic for the setter to set the parameter value for each individual sensor for the gyro sensor in which the appropriate parameter value of the Kalman filter differs for each individual. Therefore, even when a gyro sensor having a large fluctuation is used, the parameter value of the Kalman filter is not set for each sensor but is set uniformly. As a result, if the image stabilization effect varies from individual to individual imager, there is a possibility that the image quality will differ even with the same model.
An object of the present invention is to suppress variations in the image stabilization effect and stabilize image quality.

本発明の一実施形態の像ブレ補正装置は、画像の像ブレを補正する像ブレ補正手段を備える像ブレ補正装置であって、検出手段が出力する振れの検出信号、および撮像された複数の画像の間の動きベクトルを取得して前記検出信号のオフセット成分をフィルタ処理により推定する推定手段と、前記検出信号に対して前記推定手段が推定したオフセット成分を抑制した信号により前記像ブレ補正手段を制御する制御手段と、を備え、前記推定手段は、前記検出手段の出力の測定時間間隔に対する角度誤差の関係を示す統計データを用いて前記フィルタ処理のパラメータ値を変更することを特徴とする。 The image blur correction device of one embodiment of the present invention is an image blur correction device including image blur correction means for correcting image blur of an image, and is a shake detection signal output by the detection means and a plurality of captured images. An estimation means that acquires a motion vector between images and estimates the offset component of the detection signal by filter processing, and an image blur correction means that suppresses the offset component estimated by the estimation means with respect to the detection signal. The estimation means includes, and the estimation means, the parameter value of the filtering process is changed by using statistical data showing the relationship of the angle error with respect to the measurement time interval of the output of the detection means. ..

本発明によれば、像ブレ補正効果のばらつきを抑え、画像品位を安定させることができる。 According to the present invention, it is possible to suppress variations in the image stabilization effect and stabilize the image quality.

実施形態の撮像装置の構成例を示す図である。It is a figure which shows the configuration example of the image pickup apparatus of an embodiment. 撮像装置が備える制御部の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the control part provided in the image pickup apparatus. 振れ検出出力の測定時間間隔に対する角度誤差の関係を説明する図である。It is a figure explaining the relationship of the angle error with respect to the measurement time interval of the runout detection output. 第1実施形態における処理を説明するフローチャートである。It is a flowchart explaining the process in 1st Embodiment. 角速度の時間変化を表した図である。It is the figure which showed the time change of the angular velocity. 第2実施形態における制御部の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the control part in 2nd Embodiment. アラン分散を表すテーブルの算出方法を説明する図である。It is a figure explaining the calculation method of the table which represents the allan variance. 第2実施形態における処理を説明するフローチャートである。It is a flowchart explaining the process in 2nd Embodiment. 第3実施形態の撮像装置の制御ブロック図である。It is a control block diagram of the image pickup apparatus of 3rd Embodiment. オフセット補正部の動作を説明するためのブロック図である。It is a block diagram for demonstrating operation of an offset correction part. 静定時の角速度センサの出力波形例を示す図である。It is a figure which shows the output waveform example of the angular velocity sensor at the time of static. 角度信号の時間変化を示す図である。It is a figure which shows the time change of an angle signal. 角速度センサの出力誤差による角度揺らぎを推定する方法の説明図である。It is explanatory drawing of the method of estimating the angle fluctuation by the output error of the angular velocity sensor. 第3実施形態における処理を説明するフローチャートである。It is a flowchart explaining the process in 3rd Embodiment. 第3実施形態の変形例1における処理を説明するフローチャートである。It is a flowchart explaining the process in the modification 1 of the 3rd Embodiment. 第3実施形態の変形例2における処理を説明するフローチャートである。It is a flowchart explaining the process in the modification 2 of the 3rd Embodiment. 第3実施形態の変形例3における処理を説明するフローチャートである。It is a flowchart explaining the process in the modification 3 of the 3rd Embodiment. 第4実施形態の撮像装置の制御ブロック図である。It is a control block diagram of the image pickup apparatus of 4th Embodiment. 第5実施形態の撮像装置の制御ブロック図である。It is a control block diagram of the image pickup apparatus of 5th Embodiment.

以下に本発明の実施形態について、図面を参照して詳細に説明する。
[第1実施形態]
図1(A)は本実施形態の撮像装置1000の中央断面図であり、図1(B)は撮像装置1000の電気的構成を示すブロック図である。図1(A)の紙面に垂直な方向をx方向とし、紙面内にて互いに直交する2方向をそれぞれy方向、z方向と定義する。図1ではカメラ本体部(以下、単に本体部という)1と、本体部1に装着可能な交換レンズ2からなる撮像システムの例を示す。本体部1と交換レンズ2は電気接点11を介して接続可能である。例えば本体部1は、いわゆるミラーレスカメラの構成を有する。尚、ミラーレスカメラに限定されることなく、本発明はレンズ交換式一眼レフカメラや、撮像機能を有する各種電子機器に適用可能である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First Embodiment]
FIG. 1A is a central sectional view of the image pickup apparatus 1000 of the present embodiment, and FIG. 1B is a block diagram showing an electrical configuration of the image pickup apparatus 1000. The direction perpendicular to the paper surface of FIG. 1A is defined as the x direction, and the two directions orthogonal to each other in the paper surface are defined as the y direction and the z direction, respectively. FIG. 1 shows an example of an imaging system including a camera main body (hereinafter, simply referred to as a main body) 1 and an interchangeable lens 2 that can be attached to the main body 1. The main body 1 and the interchangeable lens 2 can be connected to each other via an electric contact 11. For example, the main body 1 has a so-called mirrorless camera configuration. The present invention is not limited to the mirrorless camera, and the present invention can be applied to an interchangeable lens type single-lens reflex camera and various electronic devices having an image pickup function.

本体部1は撮像素子6、像ブレ補正部14、振れ検出部15、シャッタ機構16を備える。交換レンズ2は撮像光学系を構成する光学部材と、振れ検出部18を備える。本体部1に交換レンズ2が装着された状態で撮像装置1000は振れ検出部15,18により取得される振れ検出信号に基づいて撮像画像の像ブレ補正を実行可能である。 The main body 1 includes an image sensor 6, an image stabilization unit 14, a shake detection unit 15, and a shutter mechanism 16. The interchangeable lens 2 includes an optical member constituting an image pickup optical system and a runout detection unit 18. With the interchangeable lens 2 mounted on the main body 1, the image pickup apparatus 1000 can perform image blur correction of the captured image based on the shake detection signals acquired by the shake detection units 15 and 18.

交換レンズ2は光学系3を備えており、レンズ駆動部13によって焦点調節、絞り駆動、像ブレ補正等が行われる。これにより被写体からの光は光学系3を透過し、本体部1の撮像素子6にて良好な像が結像する。レンズ駆動制御はレンズシステム制御部(以下、レンズ制御部という)12が行う。レンズ制御部12はCPU(中央演算処理装置)を備え、交換レンズ2の制御を行う。 The interchangeable lens 2 includes an optical system 3, and the lens drive unit 13 performs focus adjustment, aperture drive, image shake correction, and the like. As a result, the light from the subject passes through the optical system 3, and a good image is formed by the image pickup device 6 of the main body 1. The lens drive control is performed by the lens system control unit (hereinafter referred to as the lens control unit) 12. The lens control unit 12 includes a CPU (Central Processing Unit) and controls the interchangeable lens 2.

振れ検出部18は、撮影光軸4の方向である第1の方向と、第1の方向と直交し、かつ互いに直交する第2の方向および第3の方向における交換レンズ2の振れを検出して複数の検出信号をレンズ制御部12に出力する。例えば第1の方向はz方向と平行な方向であり、第2の方向はx方向と平行な方向であり、第3の方向はy方向と平行な方向である。レンズ制御部12はレンズ駆動部13を介して光学系3が備える補正レンズ(シフトレンズ、チルトレンズ等)の制御を行う。 The shake detection unit 18 detects the shake of the interchangeable lens 2 in the first direction which is the direction of the photographing optical axis 4, the second direction orthogonal to the first direction, and orthogonal to each other, and the third direction. And outputs a plurality of detection signals to the lens control unit 12. For example, the first direction is a direction parallel to the z direction, the second direction is a direction parallel to the x direction, and the third direction is a direction parallel to the y direction. The lens control unit 12 controls the correction lens (shift lens, tilt lens, etc.) included in the optical system 3 via the lens drive unit 13.

本体部1は、レリーズボタン等を用いた撮影者の指示操作を検出する操作検出部10を備える。例えば指示操作にしたがって、撮像素子6は被写体からの光に対して光電変換を行う。画像処理部7は撮像素子6の出力を取得して画像処理を行い、画像データをメモリ部8に記憶する処理を行う。この際、画像処理部7は、被写体像の移動量を検出するためのベクトル演算を行うことができる。ベクトル演算とは、異なる時刻の画像から特徴点の移動方向と距離を求める演算のことである。公知の技術を用いたベクトル演算の結果から、被写体像の移動量やカメラの振れ量を取得できる。具体的な演算方法については割愛する。 The main body 1 includes an operation detection unit 10 that detects an instruction operation by the photographer using a release button or the like. For example, according to an instruction operation, the image sensor 6 performs photoelectric conversion with respect to the light from the subject. The image processing unit 7 acquires the output of the image sensor 6, performs image processing, and stores the image data in the memory unit 8. At this time, the image processing unit 7 can perform a vector operation for detecting the amount of movement of the subject image. Vector operation is an operation to obtain the moving direction and distance of feature points from images at different times. From the result of vector calculation using a known technique, the amount of movement of the subject image and the amount of camera shake can be obtained. The specific calculation method is omitted.

カメラシステム制御部(以下、カメラ制御部という)5はCPUを備え、撮像装置1000の制御を統括する。カメラ制御部5は、本体部1に交換レンズ2が装着された状態にて電気接点11を介してレンズ制御部12と通信しつつ、連携して撮像システムの制御を行う。撮影前のライブビュー表示はカメラ制御部5の制御下で表示部9により行われる。表示部9は本体部1の背面に設けられた液晶式表示部9aと、ファインダ内に表示デバイスを有する電子ビューファインダ9bから構成される。メモリ部8は記憶媒体を有し、撮影により取得された画像データが記憶媒体に記憶される。 The camera system control unit (hereinafter referred to as a camera control unit) 5 includes a CPU and controls the control of the image pickup apparatus 1000. The camera control unit 5 controls the image pickup system in cooperation with the lens control unit 12 while communicating with the lens control unit 12 via the electric contact 11 in a state where the interchangeable lens 2 is attached to the main body unit 1. The live view display before shooting is performed by the display unit 9 under the control of the camera control unit 5. The display unit 9 is composed of a liquid crystal display unit 9a provided on the back surface of the main body unit 1 and an electronic viewfinder 9b having a display device in the finder. The memory unit 8 has a storage medium, and image data acquired by photographing is stored in the storage medium.

シャッタ機構16はカメラ制御部5により、シャッタ駆動部17を介して駆動制御される。撮影者が設定した撮影秒時、またはカメラ制御部5が決定した撮影秒時にしたがって撮像素子6の露光時間が制御される。 The shutter mechanism 16 is driven and controlled by the camera control unit 5 via the shutter drive unit 17. The exposure time of the image sensor 6 is controlled according to the shooting seconds set by the photographer or the shooting seconds determined by the camera control unit 5.

像ブレ補正部14は、カメラ制御部5の制御指令にしたがって撮像素子6を移動させることにより像ブレ補正を行う。像ブレ補正部14は、本体部1の振れ検出部15の出力から算出された出力補正値に基づいて、例えば交換レンズ2の撮影光軸4に直交する第2または第3の方向に撮像素子6を移動させる。これにより、撮影者の手振れ等によるカメラ振れに起因する像ブレを補正することができる。 The image blur correction unit 14 corrects the image blur by moving the image sensor 6 according to the control command of the camera control unit 5. The image blur correction unit 14 is an image pickup element in a second or third direction orthogonal to the photographing optical axis 4 of the interchangeable lens 2, for example, based on an output correction value calculated from the output of the shake detection unit 15 of the main body unit 1. Move 6 This makes it possible to correct image blur caused by camera shake due to camera shake of the photographer or the like.

振れ検出部15は3方向における本体部1の振れを検出し、複数の振れ検出信号をカメラ制御部5に出力する。例えば振れ検出部15は角速度センサを有する。カメラ制御部5は振れ検出部15の出力を取得し、その出力補正値を算出して、撮影光軸4に対する撮像素子6の移動を制御する。 The runout detection unit 15 detects the runout of the main body unit 1 in three directions, and outputs a plurality of runout detection signals to the camera control unit 5. For example, the runout detection unit 15 has an angular velocity sensor. The camera control unit 5 acquires the output of the shake detection unit 15, calculates the output correction value thereof, and controls the movement of the image sensor 6 with respect to the photographing optical axis 4.

図1の構成例では、撮像素子6の移動制御に基づく像ブレ補正を説明したが、これに限らず、以下の実施形態への適用が可能である。
(1)交換レンズ2が備える補正レンズの駆動制御に基づく光学的な像ブレ補正。
(2)撮像画像に対する画像処理(画像領域の抽出処理)に基づく電子的な像ブレ補正。
(3)図1の構成、または(1)、(2)のいずれかの組み合わせによる複合的な像ブレ補正。
In the configuration example of FIG. 1, image blur correction based on the movement control of the image sensor 6 has been described, but the present invention is not limited to this, and can be applied to the following embodiments.
(1) Optical image stabilization based on the drive control of the correction lens included in the interchangeable lens 2.
(2) Electronic image stabilization based on image processing (image area extraction processing) for captured images.
(3) Complex image stabilization by the configuration of FIG. 1 or the combination of any of (1) and (2).

次に、図2を参照して、カメラ制御部5が備えるオフセット推定部5002について詳述する。図2はカメラ制御部5の動作を説明するための機能構成を示すブロック図である。カメラ制御部5は加算器5001,5003と、オフセット推定部5002、積分フィルタ5004、記憶部5100を備える。以下では加算器が行う演算には負値の加算(減算)も含まれるものとする。 Next, with reference to FIG. 2, the offset estimation unit 5002 included in the camera control unit 5 will be described in detail. FIG. 2 is a block diagram showing a functional configuration for explaining the operation of the camera control unit 5. The camera control unit 5 includes an adder 5001, 5003, an offset estimation unit 5002, an integration filter 5004, and a storage unit 5100. In the following, it is assumed that the calculation performed by the adder includes addition (subtraction) of negative values.

加算器5001は、振れ検出部15が有する角速度センサの出力信号と、画像処理部7にてベクトル演算により算出されるカメラ振れ量の信号を取得し、両信号の差分を演算する。加算器5001は差分信号をオフセット推定部5002に出力する。 The adder 5001 acquires the output signal of the angular velocity sensor possessed by the runout detection unit 15 and the signal of the camera runout amount calculated by the vector calculation in the image processing unit 7, and calculates the difference between the two signals. The adder 5001 outputs a difference signal to the offset estimation unit 5002.

オフセット推定部5002には、差分信号から振れ検出部15の出力の揺らぎを推定するために、記憶部5100に保存されているデータが入力される。記憶部5100には観測ノイズ分散5101およびシステムノイズ分散5102のデータが記憶されている。これらのデータは、静止時の振れ検出部15の出力の測定時間間隔に対する角度誤差の関係を示すテーブルから算出されるデータであり、その詳細については後述する。 The data stored in the storage unit 5100 is input to the offset estimation unit 5002 in order to estimate the fluctuation of the output of the vibration detection unit 15 from the difference signal. The storage unit 5100 stores the data of the observed noise dispersion 5101 and the system noise dispersion 5102. These data are data calculated from a table showing the relationship of the angle error with respect to the measurement time interval of the output of the runout detection unit 15 at rest, and the details thereof will be described later.

オフセット推定部5002は、入力信号に基づいてオフセット推定処理を実行する。つまりオフセット推定部5002によって、振れ検出部15の出力に重畳されている揺らぎの信号が取得される。オフセット推定部5002で取得された揺らぎの信号は加算器5003に送られる。 The offset estimation unit 5002 executes the offset estimation process based on the input signal. That is, the offset estimation unit 5002 acquires the fluctuation signal superimposed on the output of the vibration detection unit 15. The fluctuation signal acquired by the offset estimation unit 5002 is sent to the adder 5003.

加算器5003は、振れ検出部15の出力の揺らぎの信号と振れ検出部15の出力信号を取得して減算を行う。振れ検出部15の出力信号から揺らぎの信号を差し引くことで、揺らぎの影響が除去または低減された振れ検出部15の出力信号を取得することができる。積分フィルタ5004は、加算器5003の出力信号に対して時間積分を行うことで、振れ検出部15の出力補正値を取得する。この出力補正値は像ブレ補正部14に入力され、撮像素子6の移動量の制御に用いられる。 The adder 5003 acquires the fluctuation signal of the output of the runout detection unit 15 and the output signal of the runout detection unit 15 and performs subtraction. By subtracting the fluctuation signal from the output signal of the shake detection unit 15, it is possible to acquire the output signal of the shake detection unit 15 from which the influence of the fluctuation is removed or reduced. The integration filter 5004 acquires the output correction value of the runout detection unit 15 by performing time integration on the output signal of the adder 5003. This output correction value is input to the image blur correction unit 14 and used to control the amount of movement of the image sensor 6.

次に、オフセット推定部5002が行う推定処理について詳述する。オフセットとは、振れ検出部15の出力に含まれる直流成分を含む揺らぎのことである。オフセット推定部5002を線形カルマンフィルタで構成してフィルタ処理を行う例を示す。線形カルマンフィルタは、下記式(1)~式(7)で表すことができる。

Figure 2022021684000002
Next, the estimation process performed by the offset estimation unit 5002 will be described in detail. The offset is a fluctuation including a DC component included in the output of the runout detection unit 15. An example of configuring the offset estimation unit 5002 with a linear Kalman filter and performing filter processing is shown. The linear Kalman filter can be expressed by the following equations (1) to (7).
Figure 2022021684000002

式(1)は状態空間表現での動作モデルを表し、式(2)は観測モデルを表す。各記号の意味は以下のとおりである。
A:動作モデルでのシステムマトリクス。
B:入力マトリクス。
C:観測モデルでの出力マトリクス。
εt:プロセスノイズ。
δt:観測ノイズ。
t:離散的な時間。
t:制御入力。
Equation (1) represents an operation model in a state-space representation, and equation (2) represents an observation model. The meaning of each symbol is as follows.
A: System matrix in the operation model.
B: Input matrix.
C: Output matrix in the observation model.
ε t : Process noise.
δ t : Observation noise.
t: Discrete time.
ut : Control input.

Figure 2022021684000003
式(3)は予測ステップにおける事前推定値を表し、式(4)は事前誤差共分散を表す。式(4)中の、Σは動作モデルのノイズの分散を表す。
Figure 2022021684000003
Equation (3) represents the pre-estimated value in the prediction step, and equation (4) represents the pre-error covariance. In equation (4), Σ x represents the noise variance of the operation model.

Figure 2022021684000004
式(5)はフィルタリングステップにおいてカルマンゲインの算出式を表し、上付き添え字のTは転置行列を表している。さらに式(6)はカルマンフィルタによる事後推定値を表し、式(7)は事後誤差共分散を表す。また式(5)中のΣは観測モデルのノイズの分散を表す。
Figure 2022021684000004
Equation (5) represents the Kalman gain calculation equation in the filtering step, and the superscript T represents the transposed matrix. Further, Eq. (6) represents the post-estimation value by the Kalman filter, and Eq. (7) represents the post-error covariance. Further, Σ z in Eq. (5) represents the noise variance of the observation model.

本実施形態では、振れ検出部15の出力の揺らぎを推定するため、振れ検出部15の出力が持つオフセットの値をxとし、振れ検出部15の出力をzとする。更に、εをシステムノイズとし、δを観測ノイズとすると、オフセットの値を表すモデルは式(1)における制御入力項であるuがなく、式(1)および式(2)でA=C=1となる以下の1次線形モデルで表すことができる。

Figure 2022021684000005
In the present embodiment, in order to estimate the fluctuation of the output of the runout detection unit 15, the offset value of the output of the runout detection unit 15 is set to xt , and the output of the runout detection unit 15 is set to zt . Further, assuming that ε t is system noise and δ t is observation noise, the model representing the offset value does not have ut , which is the control input term in equation (1), and A in equations (1) and (2). It can be represented by the following linear linear model in which = C = 1.
Figure 2022021684000005

上記式(4)における動作モデルのノイズの分散Σを、システムノイズの分散

Figure 2022021684000006
で表す。また、式(5)における観測モデルのノイズの分散Σを、
Figure 2022021684000007
で表す。 The noise dispersion Σ x of the operation model in the above equation (4) is the system noise variance.
Figure 2022021684000006
It is represented by. In addition, the noise variance Σ z of the observation model in Eq. (5) is determined.
Figure 2022021684000007
It is represented by.

オフセットの事前推定値を、

Figure 2022021684000008
とすると、時刻tにおけるシステムノイズの事前誤差分散推定値は、
Figure 2022021684000009
となる。さらに時刻tにおけるカルマンゲインを、
Figure 2022021684000010
とし、振れ検出部15の出力を、
Figure 2022021684000011
とすると、以下の式でカルマンフィルタを構成することができる。
Figure 2022021684000012
Pre-estimated offset,
Figure 2022021684000008
Then, the preliminary error variance estimated value of the system noise at time t is
Figure 2022021684000009
Will be. Furthermore, the Kalman gain at time t,
Figure 2022021684000010
The output of the runout detection unit 15 is
Figure 2022021684000011
Then, the Kalman filter can be constructed by the following equation.
Figure 2022021684000012

オフセット推定部5002は上記式(10)から式(14)までの演算式を用いて推定演算を行う。推定演算の更新周期の時刻「t-1」でのオフセット推定値

Figure 2022021684000013
と、振れ検出部15により出力されるシステムノイズの分散
Figure 2022021684000014
と、時刻「t-1」での誤差分散推定値
Figure 2022021684000015
により、オフセット事前推定値
Figure 2022021684000016
および事前誤差分散推定値
Figure 2022021684000017
が算出される。そして事前誤差分散推定値
Figure 2022021684000018
および振れ検出部15により出力される観測ノイズの分散
Figure 2022021684000019
に基づいてカルマンゲイン
Figure 2022021684000020
が算出される。 The offset estimation unit 5002 performs an estimation calculation using the calculation formulas from the above formulas (10) to (14). Offset estimation value at time "t-1" in the update cycle of the estimation operation
Figure 2022021684000013
And the dispersion of the system noise output by the runout detection unit 15.
Figure 2022021684000014
And the error variance estimate at time "t-1"
Figure 2022021684000015
By offset pre-estimated value
Figure 2022021684000016
And prior error variance estimates
Figure 2022021684000017
Is calculated. And prior error variance estimates
Figure 2022021684000018
And the dispersion of the observed noise output by the runout detection unit 15.
Figure 2022021684000019
Kalman gain based on
Figure 2022021684000020
Is calculated.

式(13)によって、
観測された振れ検出部15の出力

Figure 2022021684000021
と、オフセット事前推定値
Figure 2022021684000022
との誤差にカルマンゲイン
Figure 2022021684000023
を乗じた値によってオフセット事前推定値
Figure 2022021684000024
が修正され、オフセット推定値
Figure 2022021684000025
が算出される。 By equation (13)
Output of the observed runout detection unit 15
Figure 2022021684000021
And offset pre-estimated value
Figure 2022021684000022
Kalman gain in error with
Figure 2022021684000023
Offset pre-estimated value by multiplying by
Figure 2022021684000024
Has been corrected and the offset estimate
Figure 2022021684000025
Is calculated.

また式(14)により、事前誤差分散推定値

Figure 2022021684000026
が修正されて、誤差分散推定値
Figure 2022021684000027
が算出される。これらの演算によって事前推定更新と修正を演算周期ごとに繰り返すことでオフセット推定値が算出される。 Further, the preliminary error variance estimated value is calculated by Eq. (14).
Figure 2022021684000026
Has been corrected and the error variance estimate
Figure 2022021684000027
Is calculated. The offset estimation value is calculated by repeating the pre-estimation update and correction for each calculation cycle by these operations.

以上のように構成されたカルマンフィルタにおいて、システムノイズの分散

Figure 2022021684000028
および観測ノイズの分散
Figure 2022021684000029
がカルマンフィルタのパラメータに相当する。パラメータ値の設定方法として、従来の方法では、推定の収束速度とフィルタの安定性とを考慮して観測ノイズの分散
Figure 2022021684000030
を定めるという指針しか示されていない。設定者はその意図した結果が得られるようにパラメータ値を設定するが、ドリフトといった慣性センサ出力の揺らぎが大きいジャイロセンサに対して、設定者がセンサ個体ごとに値を設定することは現実的ではない。例えば、揺らぎの大きい慣性センサを使用する場合にカルマンフィルタのパラメータ値をセンサ個体によらず一律に定める場合を想定する。この場合、個々の撮像装置ごとに像ブレ補正効果にばらつきが発生すると、同一機種でも画像品位に差異が生じる可能性がある。 Dispersion of system noise in the Kalman filter configured as described above
Figure 2022021684000028
And dispersion of observed noise
Figure 2022021684000029
Corresponds to the parameter of the Kalman filter. As a method of setting the parameter value, in the conventional method, the dispersion of the observed noise is taken into consideration in consideration of the estimated convergence speed and the stability of the filter.
Figure 2022021684000030
Only the guideline to determine is shown. The setter sets the parameter value so that the intended result can be obtained, but it is not realistic for the setter to set the value for each sensor for the gyro sensor where the fluctuation of the inertial sensor output such as drift is large. do not have. For example, when using an inertial sensor with large fluctuations, it is assumed that the parameter values of the Kalman filter are uniformly set regardless of the individual sensor. In this case, if the image stabilization effect varies from one image pickup device to another, the image quality may differ even with the same model.

図3を参照して、振れ検出部15の出力の測定時間間隔に対する角度誤差の関係を示す統計データに基づくテーブルと、そのテーブルに用いられるアラン分散について詳述する。図3(A)は振れ検出部15の出力の測定時間間隔に対する角度誤差の関係を示すテーブルの例を示す。測定時間間隔τごとに対応するアラン分散σ(τ)の値と、隣り合うデータ間の傾きが表記されている。この例の測定時間間隔τはサンプリング時間Δtまたはその2のべき乗倍である。 With reference to FIG. 3, a table based on statistical data showing the relationship of the angle error with respect to the measurement time interval of the output of the runout detection unit 15 and the allan dispersion used in the table will be described in detail. FIG. 3A shows an example of a table showing the relationship of the angle error with respect to the measurement time interval of the output of the runout detection unit 15. The value of the Allan variance σ (τ) corresponding to each measurement time interval τ and the slope between adjacent data are shown. The measurement time interval τ in this example is the sampling time Δt or a power of 2 thereof.

図3(B)は両対数グラフであり、横軸は測定時間間隔τを表し、縦軸はアラン分散σ(τ)を表している。また、実線301は静止時の振れ検出部15の出力信号のノイズ特性を示している。アラン分散σ(τ)は、角速度センサ等の慣性センサ出力の周波数安定度の指標として広く用いられており、測定時間間隔τにおける出力のばらつき具合を表したものである。分散という名前がついているが実際には標準偏差である。しかし、一般にσ(τ)はアラン分散と呼ばれている。サンプリング時間Δt、総数N個(ここでは2個とする)のデータをm個(m=1,2,4,8,・・・,N/2)のグループに分けた場合のアラン分散σ(τ)は、下記式(15)によって求められる。

Figure 2022021684000031
式(16)のKは、データ数m個のときのグループの数を表す。式(17)のτはデータ数m個のグループにおける測定時間間隔τを表す。式(15)では、データ数m個のグループにおいて隣り合うグループの平均値の差の平均を算出する演算が行われる。よって、アラン分散は、データを測定時間間隔τで測定した際の測定データの標準偏差(以下、偏差ともいう)を示していることがわかる。 FIG. 3B is a log-log graph, the horizontal axis represents the measurement time interval τ, and the vertical axis represents the Allan variance σ (τ). Further, the solid line 301 shows the noise characteristics of the output signal of the runout detection unit 15 at rest. The allan variance σ (τ) is widely used as an index of the frequency stability of the output of an inertial sensor such as an angular velocity sensor, and represents the degree of variation in the output at the measurement time interval τ. It's called variance, but it's actually a standard deviation. However, σ (τ) is generally called the Allan variance. Allan variance σ when the sampling time Δt and the total number of N data (here, 2 n ) are divided into m (m = 1, 2, 4, 8, ..., N / 2) groups. (Τ) is obtained by the following equation (15).
Figure 2022021684000031
K in the equation (16) represents the number of groups when the number of data is m. Τ in the equation (17) represents the measurement time interval τ in a group of several m of data. In equation (15), an operation is performed to calculate the average of the differences between the average values of adjacent groups in a group having m data. Therefore, it can be seen that the Allan variance indicates the standard deviation (hereinafter, also referred to as deviation) of the measured data when the data is measured at the measurement time interval τ.

測定時間間隔τはデータを取得する時間間隔であるので、データ数m個のグループにおけるサンプリング時間と言い換えることができる。よって、図3(B)のアラン分散のグラフから、データを測定時間間隔τでサンプリングした場合の測定データの偏差を読み取ることができる。このとき、実線301の左端にプロットされるデータの測定時間間隔τはデータ取得時のサンプリング時間Δtとなり、それより短い測定時間間隔τの偏差は取得できない。尚、図3(A)に示したテーブルには、式(17)においてm=1~N/2のときのτにおけるアラン分散の値が表記されている。図3(B)の実線301は、そのテーブルデータを両対数グラフ上に表したものである。 Since the measurement time interval τ is the time interval for acquiring data, it can be rephrased as the sampling time in a group of several m of data. Therefore, the deviation of the measured data when the data is sampled at the measurement time interval τ can be read from the graph of the Allan variance in FIG. 3 (B). At this time, the measurement time interval τ of the data plotted at the left end of the solid line 301 is the sampling time Δt at the time of data acquisition, and a deviation of the measurement time interval τ shorter than that cannot be acquired. In the table shown in FIG. 3A, the value of the allan variance in τ when m = 1 to N / 2 in the equation (17) is shown. The solid line 301 in FIG. 3B shows the table data on a log-log graph.

図3(B)のアラン分散によるノイズ特性を表すグラフからは、サンプリング時間τで信号を測定した場合に、その信号のノイズが示す特徴を知ることができる。一般的に、慣性センサの出力に含まれるノイズには、ホワイトノイズ、1/fノイズ、ランダムウォークノイズがあり、測定時間間隔τを変えることで主だった特徴を示すノイズが変わる。図3(B)にて第1の範囲302で示す傾き「-1/2」の直線部分は、ホワイトノイズの特徴を示す範囲である。また、図3(B)にて第2の範囲303で示す傾き「+1/2」の直線部分はランダムウォークノイズの特徴を示す範囲である。尚、図示しないが、信号に1/fノイズが含まれる場合には、範囲302と範囲303との間に傾き0の直線の範囲が現れることが知られている。 From the graph showing the noise characteristics due to the Allan variance in FIG. 3B, it is possible to know the characteristics of the noise of the signal when the signal is measured at the sampling time τ. Generally, the noise included in the output of the inertial sensor includes white noise, 1 / f noise, and random walk noise, and the noise showing the main feature changes by changing the measurement time interval τ. In FIG. 3B, the straight line portion of the inclination “−1 / 2” shown in the first range 302 is a range showing the characteristics of white noise. Further, in FIG. 3B, the straight line portion of the slope “+1/2” shown in the second range 303 is a range showing the characteristics of the random walk noise. Although not shown, it is known that when the signal contains 1 / f noise, a linear range having a slope of 0 appears between the range 302 and the range 303.

図3(B)では実線301で示されるように、1本の連続した曲線になっているが、実際には信号の持つノイズに含まれるホワイトノイズとランダムウォークノイズそれぞれの偏差、すなわちアラン分散を表す線を足し合わせたものである。よって、図3(B)の各傾きの線をそれぞれ延長すれば、その傾きに対応するノイズを測定時間間隔τでサンプリングした場合のアラン分散を読み取ることができる。図3(B)の実線301は、静止時の振れ検出部15の出力信号のノイズ特性を表した線であるが、出力信号自体を観測ノイズと見なせる。そのため、実線301は式(12)の観測ノイズのアラン分散、すなわち観測ノイズのサンプリング時間に対する偏差σを表した線になる。 In FIG. 3B, as shown by the solid line 301, there is one continuous curve, but in reality, the deviations between the white noise and the random walk noise contained in the noise of the signal, that is, the allan variance, are shown. It is the sum of the lines that represent it. Therefore, by extending each slope line in FIG. 3B, it is possible to read the Allan variance when the noise corresponding to the slope is sampled at the measurement time interval τ. The solid line 301 in FIG. 3B is a line showing the noise characteristics of the output signal of the runout detection unit 15 at rest, but the output signal itself can be regarded as observation noise. Therefore, the solid line 301 is a line representing the allan variance of the observed noise in Eq. (12), that is, the deviation σ z with respect to the sampling time of the observed noise.

また、図3(B)の破線304は静止時の振れ検出部15の出力信号に含まれるランダムウォークノイズ、すなわち揺らぎの分散を表している。これは式(11)のシステムノイズのアラン分散、すなわちシステムノイズのサンプリング時間に対する偏差σを表した線になる。 Further, the broken line 304 in FIG. 3B represents the random walk noise included in the output signal of the shake detection unit 15 at rest, that is, the dispersion of fluctuations. This is a line representing the allan variance of the system noise in Eq. (11), that is, the deviation σ x with respect to the sampling time of the system noise.

よって、これらの線から所望のサンプリング時間に相当するτのアラン分散の値を読み取ることができる。取得したアラン分散の値を式(10)~式(14)にて用いることで、慣性センサ出力に応じたアラン分散からカルマンフィルタのパラメータに相当する各分散を設定することが可能になる。 Therefore, the value of the Allan variance of τ corresponding to the desired sampling time can be read from these lines. By using the acquired allan variance values in the equations (10) to (14), it is possible to set each variance corresponding to the parameter of the Kalman filter from the allan variance according to the inertial sensor output.

次に図3を用いて、サンプリング時間がΔtである場合の各分散の取得方法について説明する。まず慣性センサの出力ノイズを表す観測ノイズの偏差σの場合、測定時間間隔τが出力ノイズのサンプリング時間Δtと一致する。そのため、式(15)でτ=Δtの場合のアラン分散から観測ノイズの偏差σを取得することができる。 Next, with reference to FIG. 3, a method for acquiring each variance when the sampling time is Δt will be described. First, in the case of the deviation σ z of the observed noise representing the output noise of the inertial sensor, the measurement time interval τ coincides with the sampling time Δt of the output noise. Therefore, the deviation σ z of the observed noise can be obtained from the Allan variance when τ = Δt in the equation (15).

また、慣性センサの出力ノイズの中の揺らぎを表すシステムノイズの偏差σの場合、下記式において、測定時間間隔τ=Δtの時の値からアラン分散を求めることができる。

Figure 2022021684000032
式(18)の右辺に示すKはレートランダムウォーク係数と呼ばれ、τ=3のときに傾き1/2の線が取るアラン分散の値である。この値は、実線301で傾きが1/2になる範囲を延長した破線304の切片を算出することで求まる値である。図3(A)のテーブルからK値を求める場合、アラン分散の傾きが1/2になる範囲の中から任意の1点を選び、式(18)を用いてKについて解けばよい。傾き1/2の範囲内であれば、システムノイズの偏差σはアラン分散と一致する。尚、傾きが1/2と一致しない場合には、傾き0および1と区別できる範囲内で傾き1/2に対して許容誤差を設け、その範囲内から選択してもよい。 Further, in the case of the deviation σ x of the system noise representing the fluctuation in the output noise of the inertial sensor, the allan variance can be obtained from the value when the measurement time interval τ = Δt in the following equation.
Figure 2022021684000032
K shown on the right side of the equation (18) is called the rate random walk coefficient, and is the value of the allan variance taken by the line with a slope of 1/2 when τ = 3. This value is a value obtained by calculating the intercept of the broken line 304 which is an extension of the range where the slope becomes 1/2 on the solid line 301. When obtaining the K value from the table of FIG. 3A, any one point may be selected from the range in which the slope of the allan variance becomes 1/2, and K may be solved using the equation (18). Within the range of slope 1/2, the system noise deviation σ x agrees with the Allan variance. If the inclination does not match 1/2, a tolerance may be provided for the inclination 1/2 within a range that can be distinguished from the inclinations 0 and 1, and the inclination may be selected from the range.

式(15)、式(18)、式(19)により求めたシステムノイズの偏差σおよび観測ノイズの偏差σは振れ検出部15の出力に重畳される本体部1の振れ量を除去した信号から得た実際の偏差である。よって、この方法を用いれば、揺らぎの大きなジャイロセンサに対しても個体に合わせたカルマンフィルタのパラメータ値を設定することができる。 The system noise deviation σ x and the observation noise deviation σ z obtained by the equations (15), (18), and (19) are obtained by removing the amount of deflection of the main body 1 superimposed on the output of the deflection detection unit 15. The actual deviation obtained from the signal. Therefore, by using this method, it is possible to set the parameter value of the Kalman filter according to the individual even for the gyro sensor having a large fluctuation.

本実施形態のカルマンフィルタのパラメータ値については、予め工場等で振れ検出部15が有する角速度センサの静止状態で取得したデータからテーブルを算出する処理が実施される。そのテーブルから算出された各ノイズの分散のデータが記憶部5100に保存される。この方法以外には、撮像装置1000が静止状態の時に取得した角速度センサのデータを用いてテーブルを生成してカルマンフィルタのパラメータ値を算出する方法がある。 For the parameter values of the Kalman filter of the present embodiment, a process of calculating a table from the data acquired in advance in the stationary state of the angular velocity sensor of the runout detection unit 15 at a factory or the like is performed. The data of the dispersion of each noise calculated from the table is stored in the storage unit 5100. In addition to this method, there is a method of generating a table using the data of the angular velocity sensor acquired when the image pickup apparatus 1000 is in a stationary state and calculating the parameter value of the Kalman filter.

図4、図5を参照して、オフセット推定部5002によって振れ検出部15の出力補正値を取得する処理について詳述する。振れ検出部15の出力補正値とは、振れ検出部15の出力からオフセットを取り除いた出力のことであり、像ブレ補正部14の振れ補正量の目標値に相当する。尚、本実施形態では本体部1内の振れ検出部15の出力に対してオフセット推定を行うが、オフセット推定の対象は交換レンズ2内の振れ検出部18の出力であってもよい。 With reference to FIGS. 4 and 5, the process of acquiring the output correction value of the runout detection unit 15 by the offset estimation unit 5002 will be described in detail. The output correction value of the shake detection unit 15 is an output obtained by removing the offset from the output of the shake detection unit 15, and corresponds to a target value of the shake correction amount of the image shake correction unit 14. In the present embodiment, the offset is estimated with respect to the output of the runout detection unit 15 in the main body 1, but the target of the offset estimation may be the output of the runout detection unit 18 in the interchangeable lens 2.

図4は撮像装置1000の電源が投入された時点から、撮影開始前までの処理を説明するフローチャートであり、撮影者が本体部1の電源をONにすることで開始される。また、図5は出力信号を表した図であり、横軸は時間軸であり、縦軸は角速度を示している。図5(A)は振れ検出部15の出力信号51を表した図である。図5(B)は画像処理部7の動きベクトル情報により取得した本体部1の振れ量52を表した図である。図5(C)は振れ検出部15の出力信号51から本体部1の振れ量52を除去した信号53と、オフセット推定部5002により取得したオフセット成分の推定波形54(白線部参照)を表した図である。図5(D)は振れ検出部15の出力信号51からオフセット成分の推定波形54を除去して得られる波形55を表した図である。 FIG. 4 is a flowchart illustrating the process from the time when the power of the image pickup apparatus 1000 is turned on to the time before the start of shooting, and is started when the photographer turns on the power of the main body 1. Further, FIG. 5 is a diagram showing an output signal, the horizontal axis is the time axis, and the vertical axis is the angular velocity. FIG. 5A is a diagram showing an output signal 51 of the runout detection unit 15. FIG. 5B is a diagram showing a runout amount 52 of the main body unit 1 acquired by the motion vector information of the image processing unit 7. FIG. 5C shows a signal 53 obtained by removing the runout amount 52 of the main body 1 from the output signal 51 of the runout detection unit 15, and an estimated waveform 54 (see the white line portion) of the offset component acquired by the offset estimation unit 5002. It is a figure. FIG. 5D is a diagram showing a waveform 55 obtained by removing the estimated waveform 54 of the offset component from the output signal 51 of the runout detection unit 15.

図4のS401でカメラ制御部5は、本体部1の振れ検出部15の出力信号51を取得し、S402の処理に進む。S402でカメラ制御部5は、画像処理部7により動きベクトル情報から本体部1の振れ量52を検出する処理を行った後、S403の処理に進む。動きベクトル情報とは、撮像素子6により取得された複数の画像間の比較に基づく振れ検出情報のことである。この動きベクトル情報により、本体部1の振れ量を検出することができる。 In S401 of FIG. 4, the camera control unit 5 acquires the output signal 51 of the runout detection unit 15 of the main body unit 1 and proceeds to the process of S402. In S402, the camera control unit 5 performs a process of detecting the runout amount 52 of the main body unit 1 from the motion vector information by the image processing unit 7, and then proceeds to the process of S403. The motion vector information is runout detection information based on comparison between a plurality of images acquired by the image sensor 6. From this motion vector information, the amount of runout of the main body 1 can be detected.

S403でカメラ制御部5は、S401で検出された本体部1の振れ検出部15の出力信号51から、S402で検出された本体部1の振れ量52を除去または低減した信号53を取得してから、S404の処理に進む。 In S403, the camera control unit 5 acquires a signal 53 from the output signal 51 of the runout detection unit 15 of the main body 1 detected in S401, in which the runout amount 52 of the main body 1 detected in S402 is removed or reduced. Then, the process proceeds to S404.

S404でオフセット推定部5002は、S403で取得された信号53に含まれるオフセット成分を推定する。オフセット推定部5002は、S403で取得された信号53と、記憶部5100に予め記憶されている観測ノイズ分散5101およびシステムノイズ分散5102のデータを用いてオフセット成分の推定処理を実行する。カルマンフィルタを用いたオフセット成分の推定方法、および観測ノイズ分散5101とシステムノイズ分散5102の求め方について前述の通りであるので、それらの説明を割愛する。図5(C)にて白線部で示される波形54は、オフセット推定部5002が推定したオフセット成分の時間変化を表している。 In S404, the offset estimation unit 5002 estimates the offset component included in the signal 53 acquired in S403. The offset estimation unit 5002 executes the offset component estimation process using the signal 53 acquired in S403 and the data of the observation noise dispersion 5101 and the system noise dispersion 5102 stored in advance in the storage unit 5100. Since the method of estimating the offset component using the Kalman filter and the method of obtaining the observed noise variance 5101 and the system noise variance 5102 are as described above, their description is omitted. The waveform 54 shown by the white line portion in FIG. 5C represents the time change of the offset component estimated by the offset estimation unit 5002.

オフセット成分の推定波形54の算出後、S405に進んでカメラ制御部5は、本体部1の振れ検出部15の出力信号51からオフセット成分の推定波形54の信号を減算して図5(D)の角速度波形55を求める。角速度波形55は、出力信号51からオフセット成分の推定波形54が取り除かれたことにより、振れ検出部15が検出した本体部1の振れ量を表した波形となる。 After calculating the estimated waveform 54 of the offset component, the camera control unit 5 proceeds to S405 and subtracts the signal of the estimated waveform 54 of the offset component from the output signal 51 of the runout detection unit 15 of the main body unit 1 to obtain FIG. 5 (D). The angular velocity waveform 55 of is obtained. The angular velocity waveform 55 is a waveform representing the amount of runout of the main body 1 detected by the runout detection unit 15 because the estimated waveform 54 of the offset component is removed from the output signal 51.

次にS406に進んでカメラ制御部5は、積分フィルタ5004により、S405で取得された角速度波形55に対して時間積分処理を行う。本体部1の角変位量による振れを表した振れ検出部15の出力補正値が取得されて、処理が終了する。 Next, proceeding to S406, the camera control unit 5 performs time integration processing on the angular velocity waveform 55 acquired in S405 by the integration filter 5004. The output correction value of the runout detection unit 15 representing the runout due to the angular displacement amount of the main body unit 1 is acquired, and the process is completed.

本実施形態では以上の一連の動作により、フィルタ処理によるオフセット推定において、慣性センサの個体ごとの揺らぎに応じたカルマンフィルタのパラメータ値の設定が可能である。同一機種の撮像装置の像ブレ補正効果のばらつきを抑えることで画像品位の安定化を実現できる。 In the present embodiment, it is possible to set the parameter value of the Kalman filter according to the fluctuation of each individual inertial sensor in the offset estimation by the filter processing by the above series of operations. Stabilization of image quality can be achieved by suppressing variations in the image stabilization effect of image pickup devices of the same model.

[第2実施形態]
次に、本発明の第2実施形態について説明する。本実施形態では、アラン分散の時間変化に応じてパラメータ値を切り替える処理例を示す。本実施形態と第1実施形態との主な相違点は、本実施形態の場合、振れ検出部15の出力に含まれる揺らぎが時間経過と共に変化する場合を考慮して処理を行うことである。第1実施形態と同様の事項については既に使用した符号や記号を流用することにより、それらの詳細な説明を省略して相違点を中心に説明する。このような説明の省略方法は後述の実施形態でも同じである。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In this embodiment, an example of processing for switching the parameter value according to the time change of the allan variance is shown. The main difference between the present embodiment and the first embodiment is that, in the case of the present embodiment, the processing is performed in consideration of the case where the fluctuation included in the output of the runout detection unit 15 changes with the passage of time. With respect to the same matters as in the first embodiment, the reference numerals and symbols already used will be used, and detailed explanations thereof will be omitted and the differences will be mainly described. The method of omitting such a description is the same in the embodiments described later.

図6を参照して、カメラ制御部5の動作について説明する。図6はカメラ制御部5の動作を説明するための構成例を示すブロック図である。図2との相違点は、テーブル算出部5201および記憶部5100内の判定部5202が設けられている点である。 The operation of the camera control unit 5 will be described with reference to FIG. FIG. 6 is a block diagram showing a configuration example for explaining the operation of the camera control unit 5. The difference from FIG. 2 is that the table calculation unit 5201 and the determination unit 5202 in the storage unit 5100 are provided.

カメラ制御部5の加算器5001は、振れ検出部15の出力信号と、画像処理部7のベクトル演算により取得されたカメラ振れ量の信号との差分を演算する。取得された差分データはテーブル算出部5201に入力される。テーブル算出処理の詳細については後述する。 The adder 5001 of the camera control unit 5 calculates the difference between the output signal of the runout detection unit 15 and the signal of the camera shake amount acquired by the vector calculation of the image processing unit 7. The acquired difference data is input to the table calculation unit 5201. The details of the table calculation process will be described later.

テーブル算出部5201により取得された観測ノイズ分散のデータおよびシステムノイズ分散のデータは記憶部5100に保存される。保存の際、記憶部5100内の判定部5202は、テーブル算出部5201が算出したシステムノイズ分散の値と、記憶部5100に保存されているシステムノイズ分散5102の値とを比較し、どちらの値を記憶保持するのかを判定する。ここでシステムノイズの分散値のみが比較される理由は、揺らぎの影響を受けて分散値が変化するのはシステムノイズのみであることに拠る。 The observed noise variance data and the system noise variance data acquired by the table calculation unit 5201 are stored in the storage unit 5100. At the time of storage, the determination unit 5202 in the storage unit 5100 compares the value of the system noise dispersion calculated by the table calculation unit 5201 with the value of the system noise dispersion 5102 stored in the storage unit 5100, and which value is used. Is determined to be stored in memory. Here, the reason why only the dispersion value of the system noise is compared is that it is only the system noise that the dispersion value changes under the influence of the fluctuation.

記憶部5100に保存された観測ノイズ分散5101およびシステムノイズ分散5102のデータと、加算器5001で取得された差分データはオフセット推定部5002に入力される。オフセット推定部5002は、振れ検出部15の出力に重畳されるオフセット成分の推定処理を実行する。 The data of the observed noise variance 5101 and the system noise variance 5102 stored in the storage unit 5100 and the difference data acquired by the adder 5001 are input to the offset estimation unit 5002. The offset estimation unit 5002 executes an estimation process of the offset component superimposed on the output of the runout detection unit 15.

加算器5003は、オフセット推定部5002で取得された振れ検出部15のオフセット成分を、振れ検出部15の出力から減算することで、揺らぎの影響が除去または低減された振れ検出部15の出力信号を取得する。この出力信号の時間積分を積分フィルタ5004が行い、振れ検出部15の出力補正値が取得されて像ブレ補正部14に入力される。 The adder 5003 subtracts the offset component of the runout detection unit 15 acquired by the offset estimation unit 5002 from the output of the runout detection unit 15, so that the output signal of the runout detection unit 15 has the influence of fluctuation removed or reduced. To get. The integration filter 5004 performs time integration of this output signal, and the output correction value of the shake detection unit 15 is acquired and input to the image blur correction unit 14.

次に図7を参照して、テーブル算出部5201におけるアラン分散を表すテーブルの算出方法について詳述する。このテーブルは、加算器5001の差分波形の測定時間間隔に対する角度誤差の関係を表したテーブルである。以下、アラン分散の取得に必要な測定時間の決定方法と、アラン分散の更新方法について説明する。 Next, with reference to FIG. 7, the calculation method of the table representing the allan variance in the table calculation unit 5201 will be described in detail. This table is a table showing the relationship of the angle error with respect to the measurement time interval of the difference waveform of the adder 5001. Hereinafter, a method for determining the measurement time required to acquire the allan variance and a method for updating the allan variance will be described.

図7は撮像装置1000の電源投入直後の加算器5001の差分波形71を表すグラフである。横軸は時間軸であり、縦軸は角速度を表す。振れ検出部15が有する角速度センサには、電源投入直後に起動ドリフトと呼ばれる温度ドリフトが生じており、範囲72で示すようにセンサ出力に低周波数成分が重畳している。この起動ドリフトは時間経過につれて影響が小さくなるので、低周波数成分の重畳も時間経過につれて解消する。起動ドリフトが解消されるまでの間、ドリフトによる揺らぎの大きさが変化し続けるので、システムノイズの偏差も時間経過と共に変化する。 FIG. 7 is a graph showing the difference waveform 71 of the adder 5001 immediately after the power of the image pickup apparatus 1000 is turned on. The horizontal axis is the time axis, and the vertical axis represents the angular velocity. The angular velocity sensor included in the runout detection unit 15 has a temperature drift called start drift immediately after the power is turned on, and as shown in the range 72, a low frequency component is superimposed on the sensor output. Since the effect of this starting drift becomes smaller with the passage of time, the superposition of low frequency components also disappears with the passage of time. Since the magnitude of the fluctuation due to the drift continues to change until the start-up drift is eliminated, the deviation of the system noise also changes with the passage of time.

時間経過と共に変化するシステムノイズの偏差を取得するために、テーブル算出部5201は撮像装置1000の電源投入直後から加算器5001の差分波形データを取り溜めていく。所定時間(s秒と記す)が経過した後、その差分波形データのアラン分散からシステムノイズの偏差の取得が開始される。ここでs秒は、システムノイズの偏差の取得に必要な測定時間である。システムノイズの偏差を取得する際には、併せて観測ノイズの偏差も取得される。s秒間の測定により得られるアラン分散の最大測定時間間隔はs/2秒である。しかし、最大測定時間間隔で求めたアラン分散は2グループのみの差分で求めた値であるため、偏差を表す値としての精度は所定の精度より低い。よって測定時間であるs秒については、システムノイズの偏差を得る上で必要な精度が十分に得られる時間に設定される。また、揺らぎの大きさは時間経過とともに変化するので、その変化に合わせてシステムノイズの偏差の値を更新していかなければならない。図7に示す時間Tは、テーブル算出部5201が加算器5001から差分波形データを取得して始めた時点からの経過時間を表しており、sに対して「T≧s」の関係である。T秒経過の後、テーブル算出部5201は、振れ検出部15のサンプリング時間に合わせて随時T-Δs秒間のアラン分散を算出し、システムノイズおよび観測ノイズの偏差を取得するとともに、更新を続行する。 In order to acquire the deviation of the system noise that changes with the passage of time, the table calculation unit 5201 collects the difference waveform data of the adder 5001 immediately after the power of the image pickup apparatus 1000 is turned on. After a predetermined time (denoted as s seconds) has elapsed, acquisition of the deviation of the system noise is started from the allan variance of the difference waveform data. Here, s seconds is the measurement time required to acquire the deviation of the system noise. When the deviation of the system noise is acquired, the deviation of the observed noise is also acquired. The maximum measurement time interval of the allan variance obtained by the measurement for s seconds is s / 2 seconds. However, since the Allan variance obtained at the maximum measurement time interval is a value obtained by the difference of only two groups, the accuracy as a value representing the deviation is lower than the predetermined accuracy. Therefore, the measurement time of s seconds is set to a time at which the accuracy required for obtaining the deviation of the system noise can be sufficiently obtained. In addition, since the magnitude of fluctuation changes with the passage of time, it is necessary to update the deviation value of the system noise according to the change. The time T shown in FIG. 7 represents the elapsed time from the time when the table calculation unit 5201 starts to acquire the difference waveform data from the adder 5001, and has a relationship of “T ≧ s” with respect to s. After the lapse of T seconds, the table calculation unit 5201 calculates the allan variance for T-Δs seconds at any time according to the sampling time of the runout detection unit 15, acquires the deviations of the system noise and the observation noise, and continues the update. ..

図8を参照して、カメラ制御部5がオフセット推定部5002によって振れ検出部15の出力補正値を取得するまでの一連の処理について詳述する。図8は撮像装置1000の電源が投入されてから、撮影開始前までの処理を説明するフローチャートである。図6のフローチャートに示す処理と同じ処理に関しては、図6と同じステップ番号を使用することで、それらの詳細な説明を割愛する。 With reference to FIG. 8, a series of processes until the camera control unit 5 acquires the output correction value of the runout detection unit 15 by the offset estimation unit 5002 will be described in detail. FIG. 8 is a flowchart illustrating a process from when the power of the image pickup apparatus 1000 is turned on to before the start of shooting. For the same processes as those shown in the flowchart of FIG. 6, the same step numbers as those of FIG. 6 are used, and detailed description thereof will be omitted.

S401からS403の処理後、S801の処理に進む。S801では、撮像装置1000の電源投入後、カメラ制御部5は経過時間Tと測定時間s秒とを比較する。経過時間Tはカメラ制御部5内のタイマーで計測される。経過時間Tに関し、測定時間s秒が経過したかどうかについて判定が行われる。「T≧s」と判定された場合、S802の処理に進み、「T<s」と判定された場合にはS801の判定処理が繰り返される。 After the processing of S401 to S403, the process proceeds to the processing of S801. In S801, after the power of the image pickup apparatus 1000 is turned on, the camera control unit 5 compares the elapsed time T with the measurement time s seconds. The elapsed time T is measured by a timer in the camera control unit 5. With respect to the elapsed time T, it is determined whether or not the measurement time s seconds has elapsed. If it is determined that "T ≧ s", the process proceeds to S802, and if it is determined that "T <s", the determination process of S801 is repeated.

S802でテーブル算出部5201は、経過時間Tからその直前のs秒間における加算器5001の差分波形データを用いてアラン分散を算出し、観測ノイズおよびシステムノイズの偏差から各分散を取得する。アラン分散の算出および各ノイズの分散の取得方法については前述の通りである。観測ノイズの分散とシステムノイズの分散の取得処理後にS404の処理へ進む。 In S802, the table calculation unit 5201 calculates the Allan variance using the difference waveform data of the adder 5001 in the s second immediately before the elapsed time T, and acquires each variance from the deviations of the observed noise and the system noise. The calculation of the allan variance and the acquisition method of the variance of each noise are as described above. After the acquisition processing of the dispersion of the observed noise and the dispersion of the system noise, the process proceeds to the processing of S404.

S406の次のS803で判定部5202は、S802で取得されたシステムノイズ分散と、記憶部5100に記憶されているシステムノイズ分散5102との差分値を取得し、差分値が閾値以下であるか否かを判定する。この閾値は、S802で取得されたシステムノイズの分散値が記憶部5100内のシステムノイズの分散値に収束したことが判断できる値に設定されている。取得された差分値が閾値より大きいと判定された場合、S804の処理に進み、また差分値が閾値以下であると判定された場合には一連の処理を終了する。尚、今回取得された分散値と前回取得された分散値との差分値を閾値と比較する方法に限定されず、上記分散値への収束が判断できる方法であればよい。 In S803 next to S406, the determination unit 5202 acquires the difference value between the system noise dispersion acquired in S802 and the system noise dispersion 5102 stored in the storage unit 5100, and whether or not the difference value is equal to or less than the threshold value. Is determined. This threshold value is set to a value at which it can be determined that the dispersion value of the system noise acquired in S802 has converged to the dispersion value of the system noise in the storage unit 5100. If it is determined that the acquired difference value is larger than the threshold value, the process proceeds to S804, and if it is determined that the difference value is equal to or less than the threshold value, a series of processes is terminated. The method is not limited to the method of comparing the difference value between the dispersion value acquired this time and the dispersion value acquired last time with the threshold value, and any method may be used as long as it can determine the convergence to the dispersion value.

S804では、記憶部5100に保存されている観測ノイズ分散5101およびシステムノイズ分散5102のデータ値を、S802で取得された分散値により更新する処理が実行された後、S802へ移行する。 In S804, after the process of updating the data values of the observed noise dispersion 5101 and the system noise dispersion 5102 stored in the storage unit 5100 with the dispersion values acquired in S802 is executed, the process proceeds to S802.

本実施形態では、振れ検出部15の出力に含まれる揺らぎが時間経過とともに変化する場合において、振れ検出部15の出力に合わせてフィルタ手段(カルマンフィルタ)のパラメータ値を随時更新する処理が行われる。同一機種の撮像装置の像ブレ補正効果のばらつきを抑えることで画像品位を安定させることができる。 In the present embodiment, when the fluctuation included in the output of the runout detection unit 15 changes with the passage of time, a process of updating the parameter value of the filter means (Kalman filter) at any time according to the output of the runout detection unit 15 is performed. Image quality can be stabilized by suppressing variations in the image stabilization effect of image pickup devices of the same model.

[第3実施形態]
図9から図17を参照して、本発明の第3実施形態について説明する。本実施形態では前記実施形態と同様の像ブレ補正装置を有し、長秒露光や超望遠撮影において、像ブレ補正性能の低下を抑制可能な撮像装置の例を示す。従来技術では、振動検出センサの特性に応じた、より正確な像ブレ補正の制御が困難であり、また振動検出センサの出力誤差のみに対する正確な制御ができない。
[Third Embodiment]
A third embodiment of the present invention will be described with reference to FIGS. 9 to 17. In this embodiment, an example of an image stabilization device having the same image stabilization device as that of the above embodiment and capable of suppressing deterioration of image stabilization performance in long-second exposure and super-telephoto shooting is shown. In the prior art, it is difficult to control the image stabilization according to the characteristics of the vibration detection sensor, and it is not possible to accurately control only the output error of the vibration detection sensor.

本実施形態では、角速度センサの出力誤差を起因とする、像ブレ補正性能の低下への対策としてアラン分散と露光時間と焦点距離に基づいて、予測される誤差が閾値以上である場合にブレ画像生成防止処理が行われる。以下に撮像光学系および映像処理装置を備える撮像装置の例を説明する。 In the present embodiment, as a countermeasure against the deterioration of the image stabilization performance due to the output error of the angular velocity sensor, a blur image is obtained when the predicted error is equal to or more than the threshold value based on the allan dispersion, the exposure time, and the focal length. Generation prevention processing is performed. An example of an image pickup apparatus including an image pickup optical system and an image processing apparatus will be described below.

図9は、撮像装置100の構成を示すブロック図である。撮像装置100はデジタルカメラであり、本体部101と、本体部101に装着可能な交換レンズ102とで構成される。本体部101はその内部に撮像素子、像ブレ補正部、シャッタ機構部等を備える。 FIG. 9 is a block diagram showing the configuration of the image pickup apparatus 100. The image pickup apparatus 100 is a digital camera, and includes a main body 101 and an interchangeable lens 102 that can be attached to the main body 101. The main body 101 includes an image sensor, an image stabilization unit, a shutter mechanism, and the like inside.

本体部101が備えるカメラCPU201は撮像装置100の制御を統括し、レリーズボタン104等を用いた撮影者による指示操作に応答して、図9に示す各構成部を制御する。 The camera CPU 201 included in the main body 101 controls the control of the image pickup apparatus 100, and controls each component shown in FIG. 9 in response to an instruction operation by the photographer using the release button 104 or the like.

被写体からの光は、図9に示す撮影光軸214に沿って撮像光学系213を通過して撮像素子210に入射する。撮像素子210はCMOS(相補型金属酸化膜半導体)イメージセンサ等であり、入力光束に応答して光像に対応する電気信号を出力する。撮像素子210から出力された信号は画像処理部で画像処理が行われ、生成された画像データは記憶部に記憶される。フォーカルプレーンシャッタ212は、撮像素子210に入射する光の遮蔽状態を制御する。フォーカルプレーンシャッタ212および撮像素子210はカメラCPU201の制御信号にしたがって駆動される。 The light from the subject passes through the image pickup optical system 213 along the photographing optical axis 214 shown in FIG. 9 and is incident on the image pickup element 210. The image pickup device 210 is a CMOS (complementary metal oxide semiconductor) image sensor or the like, and outputs an electric signal corresponding to an optical image in response to an input luminous flux. The signal output from the image sensor 210 is image-processed by the image processing unit, and the generated image data is stored in the storage unit. The focal plane shutter 212 controls the shielding state of the light incident on the image pickup device 210. The focal plane shutter 212 and the image sensor 210 are driven according to the control signal of the camera CPU 201.

本体部101は振動センサ部202を備える。振動センサ部202が有する角速度センサは、本体部101に加わる振動から角速度を検出する。角速度検出信号はオフセット補正部203に入力される。オフセット補正部203は、複数の撮像画像から取得される動きベクトル情報を参照し、角速度センサに発生するオフセットを補正する。 The main body 101 includes a vibration sensor 202. The angular velocity sensor included in the vibration sensor unit 202 detects the angular velocity from the vibration applied to the main body unit 101. The angular velocity detection signal is input to the offset correction unit 203. The offset correction unit 203 refers to the motion vector information acquired from the plurality of captured images, and corrects the offset generated in the angular velocity sensor.

演算部204は、オフセット補正部203により補正された角速度信号を取得し、1階の時間積分等を行って目標値を演算する。演算部204は角度信号に変換された信号から、像ブレ補正機構に対する補正量を算出する。制御部205は、演算部204が算出した補正量(角度情報)に基づき、像ブレ補正機構を駆動する補正部211を制御する。補正部211は、制御部205の制御信号にしたがって、矢印211(a)で示すように、撮影光軸214と直交する方向に撮像素子210を駆動させる。本体部101の振れにより撮像素子210の撮像面で生じる像ブレを補正することが可能である。 The calculation unit 204 acquires the angular velocity signal corrected by the offset correction unit 203, performs first-order time integration and the like, and calculates a target value. The calculation unit 204 calculates the correction amount for the image stabilization mechanism from the signal converted into the angle signal. The control unit 205 controls the correction unit 211 that drives the image blur correction mechanism based on the correction amount (angle information) calculated by the calculation unit 204. The correction unit 211 drives the image pickup device 210 in a direction orthogonal to the photographing optical axis 214 as shown by the arrow 211 (a) according to the control signal of the control unit 205. It is possible to correct image blurring that occurs on the image pickup surface of the image pickup device 210 due to the shake of the main body 101.

振動センサの特性算出部206は、オフセット補正部203により補正された角速度信号に基づいて振動センサのノイズ特性の算出処理を行う。振動センサの積算誤差演算部207は特性算出部206により算出されたノイズ特性と、撮影者が設定した露光時間および焦点距離の情報に基づいて積算誤差を算出し、撮影条件における画像のブレ量を予測する。撮影者が設定した露光時間と焦点距離の情報はカメラCPU201から取得される。 The characteristic calculation unit 206 of the vibration sensor performs calculation processing of the noise characteristics of the vibration sensor based on the angular velocity signal corrected by the offset correction unit 203. The integration error calculation unit 207 of the vibration sensor calculates the integration error based on the noise characteristics calculated by the characteristic calculation unit 206 and the exposure time and focal length information set by the photographer, and determines the amount of image blur under the shooting conditions. Predict. Information on the exposure time and focal length set by the photographer is acquired from the camera CPU 201.

判断部208はブレ画像生成の判断処理を行う。例えば判断部208は、積算誤差演算部207が演算した画像のブレ量の予測値を閾値と比較し、予測値が閾値以上であるか否かを判断する。ブレ画像防止処理部209は、積算誤差演算部207により得られた画像のブレ量の予測結果から判断部208により画像ブレの大きさが閾値以上であると判断された場合、ブレ画像生成を抑制または防止するための指令をカメラCPU201に送る。カメラCPU201は、ブレ画像防止処理部209からの指令にしたがってブレ画像生成の抑制または防止の処理を実行する。 The determination unit 208 performs a determination process for generating a blurred image. For example, the determination unit 208 compares the predicted value of the amount of blurring of the image calculated by the integration error calculation unit 207 with the threshold value, and determines whether or not the predicted value is equal to or greater than the threshold value. The blur image prevention processing unit 209 suppresses blur image generation when the determination unit 208 determines from the prediction result of the image blur amount obtained by the integration error calculation unit 207 that the magnitude of the image blur is equal to or larger than the threshold value. Alternatively, a command for prevention is sent to the camera CPU 201. The camera CPU 201 executes processing for suppressing or preventing blur image generation according to a command from the blur image prevention processing unit 209.

図10から図12は角速度センサのオフセット補正に関する説明図である。図10はオフセット補正部203の動作を説明するためのブロック図である。オフセット補正部203は動きベクトル検出部1301、乗算部1302、除算部1304を備える。 10 to 12 are explanatory views regarding offset correction of the angular velocity sensor. FIG. 10 is a block diagram for explaining the operation of the offset correction unit 203. The offset correction unit 203 includes a motion vector detection unit 1301, a multiplication unit 1302, and a division unit 1304.

乗算部1302は、振動センサ部202が有する角速度センサの出力信号と、動きベクトル検出部1301から出力された動きベクトル情報を取得して乗算を行う。乗算部1302で演算される偏差1303(eと記す)は、角速度センサに重畳されるオフセット量に相当する。除算部1304は偏差eの情報を取得し、角速度センサの出力に対し、偏差eに応じた除算を行うことで、オフセット量が除算された角速度信号が生成される。 The multiplication unit 1302 acquires the output signal of the angular velocity sensor of the vibration sensor unit 202 and the motion vector information output from the motion vector detection unit 1301 and performs multiplication. The deviation 1303 (denoted as e) calculated by the multiplication unit 1302 corresponds to the offset amount superimposed on the angular velocity sensor. The division unit 1304 acquires the information of the deviation e and divides the output of the angular velocity sensor according to the deviation e to generate an angular velocity signal obtained by dividing the offset amount.

図11(A)、図11(B)は、静定時の角速度センサの出力波形例を示すグラフである。縦軸は角速度信号を表し、横軸は時間軸である。図11(A)中のグラフ線305は角速度センサにオフセットが発生している状態を示している。オフセットが発生している状態において、撮像装置の振れが小さい静定状態でも本来は発生しない変動をもつ信号を角速度センサが出力する可能性がある。そのため、不要な信号成分を含む検出信号に基づいて像ブレ補正が実行された場合、誤った像ブレ補正が行われることで像ブレを有する画像が取得されてしまう。これに対して、図11(B)中のグラフ線306は、オフセット補正処理が施された角速度センサの波形を示している。グラフ線306の波形は、図11(A)中のグラフ線305の波形に対して変動の少ない波形となっている。 11 (A) and 11 (B) are graphs showing an example of the output waveform of the angular velocity sensor at static. The vertical axis represents the angular velocity signal, and the horizontal axis is the time axis. The graph line 305 in FIG. 11A shows a state in which the angular velocity sensor is offset. In the state where the offset is generated, the angular velocity sensor may output a signal having a fluctuation that does not originally occur even in a statically indeterminate state where the vibration of the image pickup apparatus is small. Therefore, when image stabilization is executed based on a detection signal including an unnecessary signal component, an image with image blur is acquired due to erroneous image stabilization. On the other hand, the graph line 306 in FIG. 11B shows the waveform of the angular velocity sensor subjected to the offset correction processing. The waveform of the graph line 306 is a waveform with less fluctuation than the waveform of the graph line 305 in FIG. 11 (A).

オフセット補正により生成された角速度センサにかかわる信号(グラフ線306参照)、つまり、オフセットが低減された角速度センサの信号を出力することができ、像ブレ補正性能の低下を抑制可能である。 The signal related to the angular velocity sensor generated by the offset correction (see graph line 306), that is, the signal of the angular velocity sensor with the offset reduced can be output, and the deterioration of the image blur correction performance can be suppressed.

図12(A)は角度信号の時間変化を示し、横軸は時間軸であり、縦軸は角度軸である。グラフ線307で示す波形は、図11(B)にグラフ線306で示すオフセット補正後の角速度信号の波形に対して演算部204(図9)が積分処理を行った角度信号を示している。オフセット補正における演算処理等の遅れが発生した場合、角速度センサの補正残りが発生し、出力信号に誤差が発生し得る。図12(A)中のグラフ線307で示す波形は、出力誤差を含んだ角速度信号を積分した値を示しており、本来では発生しない角度揺らぎが確認できる。この角度揺らぎは、積分時間に対する積分後誤差に相当する。角速度センサの出力誤差により発生する角度揺らぎが及ぼす影響について、図12(B)を参照して詳細に説明する。 FIG. 12A shows the time change of the angle signal, the horizontal axis is the time axis, and the vertical axis is the angle axis. The waveform shown by graph line 307 shows an angle signal obtained by integration processing by the calculation unit 204 (FIG. 9) with respect to the waveform of the angular velocity signal after offset correction shown by graph line 306 in FIG. 11 (B). When a delay such as arithmetic processing in the offset correction occurs, the correction remaining of the angular velocity sensor occurs, and an error may occur in the output signal. The waveform shown by the graph line 307 in FIG. 12A shows the integrated value of the angular velocity signal including the output error, and the angular fluctuation that does not originally occur can be confirmed. This angular fluctuation corresponds to the post-integral error with respect to the integration time. The effect of the angular fluctuation generated by the output error of the angular velocity sensor will be described in detail with reference to FIG. 12 (B).

図12(B)は、撮像装置100にて静止画撮影を行う際の撮影シーケンス図である。各記号の意味は以下のとおりである。
・RLS:レリーズボタン104が押下されたときに出力される信号。
・SIG_A:図9中のフォーカルプレーンシャッタ212の先幕駆動信号。
・SIG_B:図9中のフォーカルプレーンシャッタ212の後幕駆動信号。
・SIG_deg:角速度の出力誤差を含んだ信号を積分した角度波形を表し、図12(A)中のグラフ線307の波形に相当する。
時間軸において複数の時刻t1~t4を示す。第1の期間Tv_Aは時刻t2から時刻t3までの期間であり、第2の期間Tv_Bは時刻t2から時刻t4までの期間である。Tv_Aの期間長よりもTv_Bの期間長の方が大きいものとする。
FIG. 12B is a shooting sequence diagram when still image shooting is performed by the image pickup apparatus 100. The meaning of each symbol is as follows.
RLS: A signal output when the release button 104 is pressed.
SIG_A: Front curtain drive signal of the focal plane shutter 212 in FIG.
SIG_B: Rear curtain drive signal of the focal plane shutter 212 in FIG.
SIG_deg: Represents an angular waveform obtained by integrating a signal including an output error of an angular velocity, and corresponds to the waveform of graph line 307 in FIG. 12 (A).
A plurality of times t1 to t4 are shown on the time axis. The first period Tv_A is the period from time t2 to time t3, and the second period Tv_B is the period from time t2 to time t4. It is assumed that the period length of Tv_B is larger than the period length of Tv_A.

図12(B)中の時刻t1でユーザがレリーズボタン104を押下すると、RLS信号が変化し、撮像装置100は非撮影状態から撮影状態に移行する。RLS信号が変化した後、一定時間後にSIG_A信号が変化し、先幕の駆動が開始される。時刻t2はフォーカルプレーンシャッタ212の先幕駆動開始のタイミングを示している。SIG_A信号の出力時点から一定時間後にSIG_B信号が変化し、フォーカルプレーンシャッタ212の後幕の駆動が開始される。 When the user presses the release button 104 at the time t1 in FIG. 12B, the RLS signal changes, and the image pickup apparatus 100 shifts from the non-shooting state to the shooting state. After the RLS signal changes, the SIG_A signal changes after a certain period of time, and the driving of the front curtain is started. Time t2 indicates the timing of starting the front curtain drive of the focal plane shutter 212. The SIG_B signal changes after a certain period of time from the output time of the SIG_A signal, and the driving of the rear curtain of the focal plane shutter 212 is started.

撮影者が設定した露光時間に従って、フォーカルプレーンシャッタ212の駆動制御が行われる。図12(B)中の時刻t3は、手振れ等の数秒の撮影条件に関して第1の露光時間の設定に従う、後幕駆動開始のタイミングを示している。期間Tv_Aは、時刻t2から時刻t3までの第1の露光時間に対応する期間である。 Drive control of the focal plane shutter 212 is performed according to the exposure time set by the photographer. The time t3 in FIG. 12B indicates the timing of starting the rear curtain drive according to the setting of the first exposure time with respect to the shooting condition of several seconds such as camera shake. The period Tv_A is a period corresponding to the first exposure time from the time t2 to the time t3.

一方、図12(B)中の時刻t4は、第1の露光時間よりも長い第2の露光時間の設定に従う、後幕駆動開始のタイミングを示している。例えば第2の露光時間は、三脚に撮像装置100を固定した状態等で行われる撮影を想定したときの露光時間である。期間Tv_Bは、時刻t2から時刻t4までの第2の露光時間に対応する期間である。 On the other hand, the time t4 in FIG. 12B indicates the timing of starting the rear curtain drive according to the setting of the second exposure time longer than the first exposure time. For example, the second exposure time is an exposure time assuming shooting performed with the image pickup apparatus 100 fixed to a tripod or the like. The period Tv_B is a period corresponding to the second exposure time from the time t2 to the time t4.

例えば焦点距離100mmのレンズでユーザが手持ち撮影を行う場合、期間Tv_Aに示す様に相対的に短秒(数秒程度)の露光条件であれば、角速度信号の出力誤差を起因とする、角度信号の揺らぎは小さいので像ブレ補正に影響はない。しかし、期間Tv_Bの様に、三脚等にカメラを固定して相対的に長秒の露光条件で撮影を行う場合には、角速度信号の出力誤差を起因とする、角度信号の揺らぎは無視できなくなる。つまり、角度信号の揺らぎの影響によって誤った像ブレ補正が行われると、像ブレを有する画像が生成される可能性がある。 For example, when a user takes a handheld image with a lens having a focal length of 100 mm, if the exposure condition is relatively short (a few seconds) as shown in the period Tv_A, the output error of the angular velocity signal is the cause of the angular signal. Since the fluctuation is small, there is no effect on image stabilization. However, when the camera is fixed to a tripod or the like and shooting is performed under relatively long exposure conditions as in the period Tv_B, the fluctuation of the angular signal due to the output error of the angular velocity signal cannot be ignored. .. That is, if erroneous image stabilization is performed due to the influence of fluctuations in the angle signal, an image having image blur may be generated.

また、期間Tv_Aに示される露光条件であっても、焦点距離が大きい超望遠レンズでユーザが撮影を行う場合には、像ブレ補正機構のわずかな動きであっても増大されて被写体が撮影される。そのため、角速度信号の出力誤差を起因とする角度信号の揺らぎに基づく像ブレ補正機構の動きにより、像ブレを有する画像が生成される可能性がある。 Further, even under the exposure conditions shown in the period Tv_A, when the user takes a picture with a super-telephoto lens having a large focal length, even a slight movement of the image stabilization mechanism is increased and the subject is taken. To. Therefore, an image having image blur may be generated due to the movement of the image blur correction mechanism based on the fluctuation of the angular signal due to the output error of the angular velocity signal.

この様に、三脚固定による長秒の露光時間での撮影や、超望遠レンズを使用した撮影等においては、角速度センサの出力誤差を起因とする像ブレが発生し得る。角速度センサの出力誤差を起因とする像ブレ補正性能の低下を抑制するためには、事前に角速度センサの出力誤差による角度揺らぎを推定し、撮影条件に応じた画像ブレ量を予測して適切に処理する事が必要である。 As described above, in shooting with a long exposure time by fixing the tripod, shooting using a super-telephoto lens, and the like, image blurring due to the output error of the angular velocity sensor may occur. In order to suppress the deterioration of the image blur correction performance due to the output error of the angular velocity sensor, the angle fluctuation due to the output error of the angular velocity sensor is estimated in advance, and the amount of image blur according to the shooting conditions is predicted appropriately. It needs to be processed.

図13を参照して、角速度センサの出力誤差による角度揺らぎを推定する方法について説明する。図13(A)のグラフ線401は、図11(B)中にグラフ線306で示したオフセット補正後の角速度センサ出力に対するアラン標準偏差を示している。図13(A)の横軸は、オフセット補正後の角速度センサ出力信号の測定時間間隔τを表す。図13(A)の縦軸は、測定時間間隔τにおけるオフセット補正後の角速度センサ出力信号の標準偏差値στを表す。両軸とも対数スケールで示している。 A method of estimating the angular fluctuation due to the output error of the angular velocity sensor will be described with reference to FIG. Graph line 401 in FIG. 13 (A) shows the Alan standard deviation with respect to the angular velocity sensor output after offset correction shown by graph line 306 in FIG. 11 (B). The horizontal axis of FIG. 13A represents the measurement time interval τ of the angular velocity sensor output signal after offset correction. The vertical axis of FIG. 13A represents the standard deviation value στ of the angular velocity sensor output signal after offset correction in the measurement time interval τ. Both axes are shown on a logarithmic scale.

アラン標準偏差は角速度センサのノイズ特性を表す量に相当する。アラン標準偏差は角速度センサ等の慣性センサの評価をする際の指標として広く用いられている。アラン標準偏差では評価対象とするセンサ出力信号が有する標準偏差値を時間軸にて評価することができる。本実施形態では、その特徴を利用して角度揺らぎを推定することができる。尚、アラン標準偏差は、一般的にはアラン分散の名称で知られているが、前述のように標準偏差であることを明記するために、本実施形態ではアラン標準偏差と表記する。 The Alan standard deviation corresponds to a quantity that represents the noise characteristics of the angular velocity sensor. The Alan standard deviation is widely used as an index when evaluating an inertial sensor such as an angular velocity sensor. With the Alan standard deviation, the standard deviation value of the sensor output signal to be evaluated can be evaluated on the time axis. In the present embodiment, the angle fluctuation can be estimated by utilizing the feature. The allan standard deviation is generally known by the name of the allan variance, but in order to clearly indicate that it is the standard deviation as described above, it is referred to as the allan standard deviation in the present embodiment.

図13(A)にて横軸はオフセット補正後の角速度センサ出力信号の測定時間間隔τである。そのため、下記式(20)で示す様に測定時間間隔τに応じたアラン標準偏差値στに測定時間間隔τを乗算した値を、角速度の積分により得られる角度揺らぎとしてとり扱うことができる。
τ(sec)×στ(dps)=角度揺らぎ推定値(degree)・・・式(20)
図13(A)では測定時間間隔τの単位を「秒」とし、τに応じたアラン標準偏差στの単位を“degrees per second”、つまり1秒あたりの角度としている。一例として、図13(A)中のグラフ線401にて、測定時間間隔τが20秒の位置では、その測定時間間隔に応じたオフセット補正後の角速度センサ出力信号のアラン標準偏差値στが0.0016dpsである。この場合、式(20)を用いた計算結果は以下のようになる。
20(sec)×0.0016(dps)=角度揺らぎ推定値0.032(degree)
つまり20秒間の積分により算出される角度揺らぎ推定値は、0.032(degree)である。
In FIG. 13A, the horizontal axis is the measurement time interval τ of the angular velocity sensor output signal after offset correction. Therefore, as shown in the following equation (20), the value obtained by multiplying the Alan standard deviation value στ according to the measurement time interval τ by the measurement time interval τ can be treated as the angular fluctuation obtained by integrating the angular velocity.
τ (sec) × στ (dps) = Estimated angle fluctuation (degree) ・ ・ ・ Equation (20)
In FIG. 13A, the unit of the measurement time interval τ is “second”, and the unit of the Alan standard deviation στ corresponding to τ is “degrees per second”, that is, the angle per second. As an example, at the position where the measurement time interval τ is 20 seconds on the graph line 401 in FIG. 13 (A), the Alan standard deviation value στ of the angular velocity sensor output signal after offset correction according to the measurement time interval is 0. It is .0016 dpi. In this case, the calculation result using the equation (20) is as follows.
20 (sec) x 0.0016 (dps) = Estimated angle fluctuation 0.032 (degree)
That is, the estimated angle fluctuation calculated by the integration for 20 seconds is 0.032 (degree).

図13(B)中のグラフ線402は、図13(A)に示したグラフ線401に基づいて、前記の方法で角度揺らぎ推定値を求めたときのデータを示す。横軸は測定時間間隔τを表し、縦軸は角度揺らぎ推定値を表す。両軸とも対数スケールで示している。前述したように、アラン標準偏差を用いることにより、時間軸におけるオフセット補正後の角速度センサ出力信号の標準偏差値を評価することができる。図13(B)中のグラフ線402で示すように、時間軸における角度揺らぎ推定値を算出することができる。つまりグラフ線402は時間経過による角度揺らぎ推定値を表している。グラフ線402に示すカーブデータを使用することで、露光時間における角度揺らぎ推定値を取得できる。露光時間における角度揺らぎ推定値のデータは、テーブルデータとして撮像装置内の記憶部に予め記憶されている。よって撮影者が設定する撮影条件に基づいて、画像ブレ量の予測が可能となる。 The graph line 402 in FIG. 13 (B) shows the data when the angle fluctuation estimated value is obtained by the above method based on the graph line 401 shown in FIG. 13 (A). The horizontal axis represents the measurement time interval τ, and the vertical axis represents the angle fluctuation estimated value. Both axes are shown on a logarithmic scale. As described above, by using the Alan standard deviation, it is possible to evaluate the standard deviation value of the angular velocity sensor output signal after offset correction on the time axis. As shown by the graph line 402 in FIG. 13 (B), the angle fluctuation estimated value on the time axis can be calculated. That is, the graph line 402 represents the estimated value of the angle fluctuation with the passage of time. By using the curve data shown in the graph line 402, the estimated value of the angle fluctuation at the exposure time can be obtained. The data of the estimated angle fluctuation value in the exposure time is stored in advance in the storage unit in the image pickup apparatus as table data. Therefore, it is possible to predict the amount of image blur based on the shooting conditions set by the photographer.

図14を参照して、処理例を説明する。図14は画像ブレ量を予測して、像ブレ補正性能の低下を抑制するカメラシーケンスを説明するフローチャートである。S501で撮像装置100の電源がONされると、S502の処理に進む。S502でオフセット補正部203は角速度センサのオフセット補正処理を実行する。 A processing example will be described with reference to FIG. FIG. 14 is a flowchart illustrating a camera sequence that predicts the amount of image blur and suppresses the deterioration of the image blur correction performance. When the power of the image pickup apparatus 100 is turned on in S501, the process proceeds to S502. In S502, the offset correction unit 203 executes the offset correction process of the angular velocity sensor.

S503で特性算出部206は、S502でオフセット補正された角速度センサの出力信号に基づいて、角速度センサ出力のアラン標準偏差を算出する。露光時間における角度揺らぎ推定値のテーブルデータが作成される。S504では撮影指示の判定処理が実行される。カメラCPU201は、撮影者がレリーズボタン104を押下して撮影指示操作を行ったかどうかを判定する。撮影指示操作が検出された場合、S505の処理に進む。撮影指示操作が検出されない場合には、S503に戻ってテーブルデータの作成を継続する。 In S503, the characteristic calculation unit 206 calculates the Alan standard deviation of the angular velocity sensor output based on the output signal of the angular velocity sensor offset-corrected in S502. Table data of the angle fluctuation estimated value in the exposure time is created. In S504, the shooting instruction determination process is executed. The camera CPU 201 determines whether or not the photographer has pressed the release button 104 to perform a shooting instruction operation. When the shooting instruction operation is detected, the process proceeds to S505. If the shooting instruction operation is not detected, the process returns to S503 and continues to create table data.

S505でカメラCPU201は、角速度センサの出力誤差により、像ブレ補正性能が低下する撮影条件であるか否かについて判断する。具体的には、三脚固定等による長秒の露光時間での撮影条件(露光時間が閾値より長いこと)、あるいは超望遠レンズを使用した撮影条件(焦点距離が閾値より大きいこと)である。これらの撮影条件は、振動検出手段の特性が支配的な撮影条件に相当する。S505で前記の撮影条件でないことが判断された場合、S506へ進んで処理を終了する。またS505で前記の撮影条件であると判断された場合には、S507の処理に進む。 In S505, the camera CPU 201 determines whether or not the image blur correction performance is deteriorated due to the output error of the angular velocity sensor. Specifically, it is a shooting condition with a long exposure time such as by fixing a tripod (exposure time is longer than the threshold value) or a shooting condition using a super-telephoto lens (focal length is larger than the threshold value). These imaging conditions correspond to the imaging conditions in which the characteristics of the vibration detection means are dominant. If it is determined in S505 that the shooting conditions are not met, the process proceeds to S506 to end the process. If it is determined in S505 that the shooting conditions are met, the process proceeds to S507.

S507で積算誤差演算部207は、撮影者が設定した露光条件および焦点距離の情報に基づいて画像ブレの予測値を算出する。次のS508で判断部208は、画像ブレの予測値を閾値と比較することにより判定処理を行う。予測値が閾値以下であると判定された場合、S506へ進んで動作を終了する。一方、S508で予測値が閾値より大きいと判定された場合にはS509の処理に進む。 In S507, the integration error calculation unit 207 calculates a predicted value of image blur based on the exposure conditions and focal length information set by the photographer. In the next S508, the determination unit 208 performs the determination process by comparing the predicted value of the image blur with the threshold value. If it is determined that the predicted value is equal to or less than the threshold value, the process proceeds to S506 and the operation is terminated. On the other hand, if it is determined in S508 that the predicted value is larger than the threshold value, the process proceeds to S509.

S509でブレ画像防止処理部209は、画像ブレが発生することを警告するための処理を行う指令をカメラCPU201に出力する。カメラCPU201は、例えば表示画面上でのメッセージやスピーカでの音声等によってブレ画像生成を警告する処理を実行する。S509の処理後、S506へ進んで動作を終了する。 In S509, the blur image prevention processing unit 209 outputs a command to the camera CPU 201 to perform a process for warning that an image blur will occur. The camera CPU 201 executes a process of warning the generation of a blurred image by, for example, a message on the display screen or a voice on the speaker. After the processing of S509, the process proceeds to S506 to end the operation.

本実施形態では、長秒露光や超望遠撮影等において、角速度センサの出力誤差を起因とする像ブレ補正性能の低下を、ユーザに認識させる事が可能な撮像装置を提供できる。角速度センサのオフセット補正後の出力結果に基づいて、角度誤差の予測テーブルが作成される。その際、オフセット補正にかかる時間が不足し、十分な補正が可能性でない場合もあり得る。その場合には、オフセット補正前の角速度センサの出力信号から、角度誤差の予測テーブルを作成してもよい。オフセット補正前の角速度センサ情報には、オフセットによる揺らぎが発生するが、その情報に基づいて画像ブレの予測値が算出される場合でも、像ブレ補正性能の低下をユーザに認識させる処理は可能である。 In the present embodiment, it is possible to provide an image pickup apparatus capable of causing a user to recognize a decrease in image stabilization performance due to an output error of an angular velocity sensor in long-second exposure, super-telephoto shooting, or the like. An angular error prediction table is created based on the output result after offset correction of the angular velocity sensor. At that time, the time required for offset correction may be insufficient, and sufficient correction may not be possible. In that case, an angle error prediction table may be created from the output signal of the angular velocity sensor before offset correction. The angular velocity sensor information before offset correction causes fluctuations due to offset, but even if the predicted value of image blur is calculated based on that information, it is possible to make the user recognize the deterioration of image blur correction performance. be.

[第3実施形態の変形例1]
図15を参照して、第3実施形態の変形例1について説明する。第3実施形態に対する主な相違点は、角速度信号に対して信号処理を施す点である。図15は、変形例1にて像ブレ補正性能の低下を抑制するための具体的なカメラシーケンスを説明するフローチャートである。図15にて、図14と同様の処理(S501~S508)については既に使用したステップ番号を流用することで、それらの詳細な説明を省略する。このような省略方法は後述の変形例でも同じである。
[Modification 1 of the third embodiment]
A modification 1 of the third embodiment will be described with reference to FIG. The main difference from the third embodiment is that signal processing is performed on the angular velocity signal. FIG. 15 is a flowchart illustrating a specific camera sequence for suppressing deterioration of image stabilization performance in Modification 1. In FIG. 15, for the same processes (S501 to S508) as in FIG. 14, the step numbers already used are used, and detailed description thereof will be omitted. Such an abbreviation method is the same in the modified example described later.

S508にて画像ブレの予測値が閾値より大きいと判定された場合、S601の処理に進む。S601でブレ画像防止処理部209は、角速度センサの出力信号に対して、ハイパスフィルタ(HPF)の時定数を高周波側にシフトさせる処理の実行をカメラCPU201に指示する。この処理は、振動検出手段の信号処理方法を切り替える処理である。これにより、オフセットの要因となる低域の特性がカットされるため、角速度センサの出力誤差を起因とする、角度揺らぎを抑えることができる。尚、HPFの時定数を高周波側へシフトする処理が行われると、手振れ等の低周波数成分を検出できなくなるが、本変形例の制御は三脚固定状態等の手振れが発生し難い条件での撮影において実施される。そのため、HPFを高周波側へシフトする処理による弊害は少ない。 If it is determined in S508 that the predicted value of image blur is larger than the threshold value, the process proceeds to S601. In S601, the blur image prevention processing unit 209 instructs the camera CPU 201 to execute a process of shifting the time constant of the high-pass filter (HPF) to the high frequency side with respect to the output signal of the angular velocity sensor. This process is a process of switching the signal processing method of the vibration detection means. As a result, the low frequency characteristic that causes the offset is cut, so that the angular fluctuation caused by the output error of the angular velocity sensor can be suppressed. If the process of shifting the time constant of the HPF to the high frequency side is performed, it becomes impossible to detect low frequency components such as camera shake, but the control of this modified example is for shooting under conditions such as a tripod fixed state where camera shake is unlikely to occur. Will be carried out at. Therefore, there is little harmful effect due to the process of shifting the HPF to the high frequency side.

本変形例によれば、振動検出手段の信号処理方法の変更により、像ブレ補正性能の低下を抑制することが可能である。 According to this modification, it is possible to suppress the deterioration of the image stabilization performance by changing the signal processing method of the vibration detection means.

[第3実施形態の変形例2]
図16を参照して、第3実施形態の変形例2について説明する。第3実施形態に対する主な相違点は、撮影された画像に対して画像処理が実行される点である。図16は、変形例2にて像ブレ補正性能の低下を抑制するための具体的なカメラシーケンスを示すフローチャートである。
[Modification 2 of the third embodiment]
A modified example 2 of the third embodiment will be described with reference to FIG. The main difference from the third embodiment is that image processing is performed on the captured image. FIG. 16 is a flowchart showing a specific camera sequence for suppressing deterioration of image stabilization performance in Modification 2.

S508にて画像ブレの予測値が閾値より大きいと判定された場合、S701の処理に進む。この場合には、撮影される画像が像ブレのある画像となることが事前に判明している。そのため、ユーザが撮影された画像を確認する前に、S701でブレ画像防止処理部209はブレ画像を補正する画像処理の実行をカメラCPU201に指示する。ブレ画像を補正する画像処理には、画像のシャープネスを高める画像処理がある。この動作は、画像処理方法を切り替える動作に相当する。 If it is determined in S508 that the predicted value of image blur is larger than the threshold value, the process proceeds to S701. In this case, it is known in advance that the image to be captured is an image with image blur. Therefore, before the user confirms the captured image, the blur image prevention processing unit 209 instructs the camera CPU 201 to execute the image processing for correcting the blur image in S701. Image processing that corrects blurred images includes image processing that enhances the sharpness of images. This operation corresponds to the operation of switching the image processing method.

本変形例によれば、画像処理方法の変更により、像ブレ補正性能の低下を抑制することが可能である。 According to this modification, it is possible to suppress the deterioration of the image stabilization performance by changing the image processing method.

[第3実施形態の変形例3]
図17を参照して、第3実施形態の変形例3について説明する。第3実施形態に対する主な相違点は、露光時間を変更する処理が実行される点である。図17は、変形例3にて像ブレ補正性能の低下を抑制するための具体的なカメラシーケンスを示すフローチャートである。
[Modification 3 of the third embodiment]
A modified example 3 of the third embodiment will be described with reference to FIG. The main difference from the third embodiment is that the process of changing the exposure time is executed. FIG. 17 is a flowchart showing a specific camera sequence for suppressing the deterioration of the image stabilization performance in the modification 3.

S508にて画像ブレの予測値が閾値より大きいと判定された場合、S801の処理に進む。S801でブレ画像防止処理部209は、露光時間の自動設定の実行をカメラCPU201に指示する。角度誤差の予測テーブルに基づいて、画像ブレの予測値が閾値以下となるように露光時間を自動で短く設定する処理が実行され、設定された露光時間で撮影が実施される。この処理は、撮像装置の露出条件を切り替える処理に相当する。 If it is determined in S508 that the predicted value of image blur is larger than the threshold value, the process proceeds to S801. In S801, the blur image prevention processing unit 209 instructs the camera CPU 201 to execute the automatic setting of the exposure time. Based on the angle error prediction table, a process of automatically setting a short exposure time so that the predicted value of image blur is equal to or less than the threshold value is executed, and shooting is performed with the set exposure time. This process corresponds to the process of switching the exposure conditions of the image pickup apparatus.

本変形例によれば、露出条件の自動変更により、像ブレ補正性能の低下を抑制することが可能である。 According to this modification, it is possible to suppress the deterioration of the image stabilization performance by automatically changing the exposure conditions.

[第4実施形態]
図18を参照して、本発明の第4実施形態について説明する。レンズ交換式カメラシステムにおいて各種のレンズ装置が撮像装置の本体部に装着されて使用される場合でも、像ブレ補正性能が低下することを抑制可能な撮像装置の例を示す。振動センサの出力と動きベクトルに基づいてアラン分散のデータを算出する処理について説明する。
[Fourth Embodiment]
A fourth embodiment of the present invention will be described with reference to FIG. An example of an image pickup device capable of suppressing deterioration of image stabilization performance even when various lens devices are attached to the main body of the image pickup device and used in an interchangeable lens camera system is shown. The process of calculating the Allan variance data based on the output of the vibration sensor and the motion vector will be described.

図18は、本体部101と交換レンズ102で構成される撮像装置100の制御に関するブロック図である。交換レンズ102は、レンズCPU1202と、電気接点1203と、撮像光学系213と、レンズ駆動部1215と、振動センサ1216とを有する。 FIG. 18 is a block diagram relating to the control of the image pickup apparatus 100 including the main body 101 and the interchangeable lens 102. The interchangeable lens 102 includes a lens CPU 1202, an electric contact 1203, an image pickup optical system 213, a lens driving unit 1215, and a vibration sensor 1216.

本体部101と交換レンズ102とが機械的に接続された場合、カメラCPU1201とレンズCPU1202は電気接点1203を介して電気的に接続され、互いに通信が可能となる。レンズCPU1202は、振動センサ1216からの信号とカメラCPU1201からの指令に従ってレンズ駆動部1215を制御する。レンズ駆動部1215は、撮像光学系213の絞りや像ブレ補正レンズをレンズCPU1202の指令にしたがって駆動する。撮像光学系213は撮影光軸214上にフォーカスレンズやズームレンズ、シフトレンズ、絞り等を備えており、被写体からの光を結像させる。 When the main body 101 and the interchangeable lens 102 are mechanically connected, the camera CPU 1201 and the lens CPU 1202 are electrically connected via the electric contact 1203, and can communicate with each other. The lens CPU 1202 controls the lens driving unit 1215 according to a signal from the vibration sensor 1216 and a command from the camera CPU 1201. The lens driving unit 1215 drives the aperture of the imaging optical system 213 and the image blur correction lens according to the command of the lens CPU 1202. The image pickup optical system 213 is provided with a focus lens, a zoom lens, a shift lens, an aperture, and the like on the photographing optical axis 214, and forms an image of light from a subject.

振動センサ1216は、交換レンズ102の振動を検出し、検出信号はレンズCPU1202に送信される。振動センサ1216は角速度センサ等の慣性センサである。本体部101は、カメラCPU1201と、撮像素子210と、フォーカルプレーンシャッタ212と、画像処理部1204と、記憶部1205と、動きベクトル検出部1206と、アラン分散算出部1207を備える。 The vibration sensor 1216 detects the vibration of the interchangeable lens 102, and the detection signal is transmitted to the lens CPU 1202. The vibration sensor 1216 is an inertial sensor such as an angular velocity sensor. The main body 101 includes a camera CPU 1201, an image sensor 210, a focal plane shutter 212, an image processing unit 1204, a storage unit 1205, a motion vector detection unit 1206, and an allan dispersion calculation unit 1207.

カメラCPU1201はシステム全体の制御を統括する。カメラCPU1201は、レリーズボタン104等を用いた撮影者による撮影指示の操作に応答して、レンズ交換式カメラシステムの各構成部を制御する。 The camera CPU 1201 controls the control of the entire system. The camera CPU 1201 controls each component of the interchangeable lens camera system in response to an operation of a shooting instruction by the photographer using the release button 104 or the like.

フォーカルプレーンシャッタ212は、撮像素子210に入射する光の遮蔽状態を、カメラCPU1201の指令に基づいて制御する。撮像素子210は、撮像光学系213を通過して結像した光に対して光電変換を行い、光学像に対応する電気信号を画像処理部1204へ出力する。 The focal plane shutter 212 controls the shielding state of the light incident on the image pickup device 210 based on the command of the camera CPU 1201. The image pickup element 210 performs photoelectric conversion on the light formed through the image pickup optical system 213 and outputs an electric signal corresponding to the optical image to the image processing unit 1204.

画像処理部1204は内部にA/D変換器、ホワイトバランス調整回路、ガンマ補正回路、補間演算回路等を有する。画像処理部1204は所定の画像処理を実行し、記憶用画像(映像)のデジタルデータを生成する。また画像処理部1204は、公知の方法を用いて静止画像データ、動画像データ、音声データの圧縮を行う。 The image processing unit 1204 has an A / D converter, a white balance adjustment circuit, a gamma correction circuit, an interpolation calculation circuit, and the like inside. The image processing unit 1204 executes a predetermined image processing and generates digital data of a storage image (video). Further, the image processing unit 1204 compresses still image data, moving image data, and audio data by using a known method.

記憶部1205は、カメラCPU1201が実行するプログラム等を記憶する半導体記憶装置や、画像処理部1204が生成した各種データを記憶するメモリカード等を含む。半導体記憶装置は、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)である。 The storage unit 1205 includes a semiconductor storage device that stores a program or the like executed by the camera CPU 1201, a memory card that stores various data generated by the image processing unit 1204, and the like. The semiconductor storage device is, for example, EEPROM (Electrically Erasable Programmable Read-Only Memory).

動きベクトル検出部1206は、画像処理部1204が処理した撮像時刻の異なる複数の画像信号から動きベクトルを検出する。動きベクトルの検出では、時間的に連続した2枚の画像の特徴点を比較することで画像の動きを検出することができる。動きベクトルの検出方法は周知技術であるため、その詳細な説明を割愛する。 The motion vector detection unit 1206 detects a motion vector from a plurality of image signals having different imaging times processed by the image processing unit 1204. In the motion vector detection, the motion of an image can be detected by comparing the feature points of two images that are consecutive in time. Since the motion vector detection method is a well-known technique, a detailed explanation thereof will be omitted.

アラン分散算出部1207は、振動センサ1216の検出信号と、動きベクトル検出部1206の検出信号との差分を算出し、差分を用いてアラン分散を算出する。このとき、振動センサ1216の検出信号と動きベクトル検出部1206の検出信号は、それぞれ角速度に換算された上で差分演算が行われる。動きベクトルを角速度に換算する際には、交換レンズ102の焦点距離、動きベクトルの検出に用いた画像の撮影間隔(またはフレームレート)、撮像素子210の画素ピッチ等の情報が用いられる。アラン分散算出部1207により算出されたアラン分散のデータはカメラCPU1201により参照可能である。 The allan dispersion calculation unit 1207 calculates the difference between the detection signal of the vibration sensor 1216 and the detection signal of the motion vector detection unit 1206, and calculates the allan dispersion using the difference. At this time, the detection signal of the vibration sensor 1216 and the detection signal of the motion vector detection unit 1206 are converted into angular velocities and then the difference calculation is performed. When converting the motion vector into an angular velocity, information such as the focal length of the interchangeable lens 102, the shooting interval (or frame rate) of the image used for detecting the motion vector, and the pixel pitch of the image pickup element 210 is used. The allan variance data calculated by the allan variance calculation unit 1207 can be referred to by the camera CPU 1201.

撮像装置100が三脚等に固定されていない状態、例えば手持ち撮影の準備中に撮像装置100に振れが発生している場合を想定する。この場合、動きベクトル検出部1206が検出した撮像装置100の振れの信号を、振動センサ1216の検出信号から除くことで、振動センサ1216が有する固有のノイズやドリフトの検出が可能になる。カメラCPU1201は振れ検出信号のオフセット補正やドリフトを抑制する信号処理をより正確に行うことが可能である。 It is assumed that the image pickup device 100 is not fixed to a tripod or the like, for example, a shake occurs in the image pickup device 100 during preparation for handheld shooting. In this case, by removing the vibration signal of the image pickup device 100 detected by the motion vector detection unit 1206 from the detection signal of the vibration sensor 1216, it is possible to detect the noise and drift inherent in the vibration sensor 1216. The camera CPU 1201 can more accurately perform offset correction of the runout detection signal and signal processing for suppressing drift.

本実施形態では、交換レンズ102が本体部101に装着された後でもカメラCPU1201は、振動センサ1216に固有のアラン分散のデータをアラン分散算出部1207から取得することができる。よって、各種のレンズ装置が本体部に取り付けられた場合に像ブレ補正性能が低下することを抑制可能な撮像装置を提供できる。尚、撮像装置の本体部に装着される外部装置の例としてレンズ装置を示したが、本発明は振動センサを有するアクセサリ等の外部装置を本体部に装着可能なシステムに適用可能である。 In the present embodiment, the camera CPU 1201 can acquire the data of the allan variance peculiar to the vibration sensor 1216 from the allan variance calculation unit 1207 even after the interchangeable lens 102 is attached to the main body portion 101. Therefore, it is possible to provide an image pickup device capable of suppressing deterioration of the image stabilization performance when various lens devices are attached to the main body portion. Although the lens device is shown as an example of the external device mounted on the main body of the image pickup device, the present invention can be applied to a system in which an external device such as an accessory having a vibration sensor can be mounted on the main body.

[第5実施形態]
図19を参照して、本発明の第5実施形態の撮像装置300について説明する。第4実施形態の撮像装置100との相違点を主に説明する。図19と図18との相違点は、補正部211、補正制御部1208が設けられている点である。また本体部101は第1の振動センサ1209を備えており、交換レンズ102は第2の振動センサ1216を備えている。つまり、振動センサ1209は本体部101の振動を検出し、検出信号をカメラCPU1201に出力する。振動センサ1216は交換レンズ102の振動を検出し、検出信号をレンズCPU1202に出力する。
[Fifth Embodiment]
The image pickup apparatus 300 of the fifth embodiment of the present invention will be described with reference to FIG. Differences from the image pickup apparatus 100 of the fourth embodiment will be mainly described. The difference between FIGS. 19 and 18 is that the correction unit 211 and the correction control unit 1208 are provided. Further, the main body 101 includes a first vibration sensor 1209, and the interchangeable lens 102 includes a second vibration sensor 1216. That is, the vibration sensor 1209 detects the vibration of the main body 101 and outputs the detection signal to the camera CPU 1201. The vibration sensor 1216 detects the vibration of the interchangeable lens 102 and outputs the detection signal to the lens CPU 1202.

補正制御部1208はカメラCPU1201からの制御指令にしたがって補正部211の制御を行い、補正部211は撮像素子210を駆動する。撮像素子210の駆動機構部は、撮像素子210を撮影光軸214と直交する平面内で並進させるとともに、撮影光軸214のまわりに回転させることができるように構成されている。補正制御部1208は、振動センサ1209により検出された振動が相殺されるように、補正部211に制御指令を送って撮像素子210の駆動を行う。 The correction control unit 1208 controls the correction unit 211 according to a control command from the camera CPU 1201, and the correction unit 211 drives the image sensor 210. The drive mechanism unit of the image pickup element 210 is configured so that the image pickup element 210 can be translated in a plane orthogonal to the photographing optical axis 214 and can be rotated around the photographing optical axis 214. The correction control unit 1208 sends a control command to the correction unit 211 to drive the image pickup device 210 so that the vibration detected by the vibration sensor 1209 is canceled out.

アラン分散算出部1307は、振動センサ1209の検出信号の大きさが所定の閾値以下であるかどうかを判定する。所定の閾値としては、例えば撮像装置300が三脚に支持されていると判断するときに用いられる、振動センサ1209の検出信号に対する閾値が設定される。振動センサ1209の検出信号の大きさが閾値以下である場合、アラン分散算出部1307は、振動センサ1216の検出信号を用いてアラン分散を算出する。尚、撮像装置が三脚に支持されているかどうかを振動センサの検出信号を用いて判断する方法には、振動センサの検出信号の大きさが所定の閾値よりも小さい状態が所定の閾値時間以上に亘って継続したか否で判断する方法がある。この技術は周知であるため、詳細な説明を割愛する。また、撮像装置が机等の上に置かれた状態であるかどうかの判断についても同様である。 The Allan variance calculation unit 1307 determines whether or not the magnitude of the detection signal of the vibration sensor 1209 is equal to or less than a predetermined threshold value. As a predetermined threshold value, a threshold value for the detection signal of the vibration sensor 1209, which is used when it is determined that the image pickup apparatus 300 is supported by the tripod, for example, is set. When the magnitude of the detection signal of the vibration sensor 1209 is equal to or less than the threshold value, the allan dispersion calculation unit 1307 calculates the allan dispersion using the detection signal of the vibration sensor 1216. In the method of determining whether or not the image pickup device is supported by the tripod by using the detection signal of the vibration sensor, the state where the magnitude of the detection signal of the vibration sensor is smaller than the predetermined threshold value is longer than the predetermined threshold time. There is a method of judging whether or not it has continued for a long time. Since this technique is well known, detailed explanation is omitted. The same applies to the determination of whether or not the image pickup device is placed on a desk or the like.

交換レンズ102が本体部101に装着された後に、撮像装置300が静定状態となった場合を想定する。静定状態とは、撮像装置が三脚等に取り付けられている場合や机の上に置かれている場合等のように、振れが殆ど無い状態である。このような場合、振動センサ1216の検出信号を取得してアラン分散を算出することが可能となる。つまり、撮像装置300の本体部101が振動していないときにアラン分散を算出することが可能となるので、振動センサ1216が有する固有のノイズやドリフトの検出が可能になる。レンズCPU1202は振れ検出信号のオフセット補正やドリフトを抑制する信号処理をより正確に行うことが可能である。 It is assumed that the image pickup apparatus 300 is in a static state after the interchangeable lens 102 is attached to the main body 101. The statically indeterminate state is a state in which there is almost no runout, such as when the image pickup device is attached to a tripod or the like or when it is placed on a desk. In such a case, it is possible to acquire the detection signal of the vibration sensor 1216 and calculate the allan variance. That is, since it is possible to calculate the allan variance when the main body 101 of the image pickup apparatus 300 is not vibrating, it is possible to detect the noise and drift inherent in the vibration sensor 1216. The lens CPU 1202 can more accurately perform offset correction of the runout detection signal and signal processing for suppressing drift.

本実施形態によれば、各種のレンズ装置を撮像装置の本体部に装着可能な撮像システムにて像ブレ補正性能の低下を抑制可能である。本実施形態では、補正部211の制御に本来用いられる振動センサ1209の検出信号を、撮像装置300の静定状態を判断するために使用する例を示した。これに限らず、本体部101に設けられている他の振動センサの検出信号を使用して撮像装置300の静定状態を判断してもよい。 According to the present embodiment, it is possible to suppress a deterioration in image stabilization performance by an imaging system in which various lens devices can be attached to the main body of the imaging device. In this embodiment, an example is shown in which the detection signal of the vibration sensor 1209 originally used for controlling the correction unit 211 is used to determine the statically indeterminate state of the image pickup apparatus 300. Not limited to this, the statically indeterminate state of the image pickup apparatus 300 may be determined using the detection signals of other vibration sensors provided in the main body 101.

前記実施形態によれば、慣性センサの個体ごとの揺らぎに対して、統計データに基づいてフィルタ処理のパラメータ値を適切に設定してオフセット補正を行うことができ、撮像装置の像ブレ補正効果のばらつきを抑制することができる。 According to the above-described embodiment, it is possible to appropriately set the parameter value of the filter processing based on the statistical data and perform offset correction for the fluctuation of the inertial sensor for each individual, and the image blur correction effect of the image pickup apparatus can be performed. Variation can be suppressed.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。前記実施形態および変形例を適宜に組み合わせた構成で実施が可能である。また前記実施形態では振れ検出出力の測定時間間隔に対する角度誤差の関係を示す統計データとしてアラン分散のデータテーブルを用いる例を示した。これに限らず各種の統計処理を利用した実施形態への適用が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof. It is possible to carry out with a configuration in which the above-described embodiments and modifications are appropriately combined. Further, in the above embodiment, an example is shown in which an Allan variance data table is used as statistical data showing the relationship of the angle error with respect to the measurement time interval of the runout detection output. Not limited to this, it can be applied to embodiments using various statistical processes.

5 カメラ制御部
7 画像処理部
14 像ブレ補正部
15 振れ検出部
5002 オフセット推定部
5100 記憶部

5 Camera control unit 7 Image processing unit 14 Image stabilization unit 15 Image stabilization unit 5002 Offset estimation unit 5100 Storage unit

Claims (20)

画像の像ブレを補正する像ブレ補正手段を備える像ブレ補正装置であって、
検出手段が出力する振れの検出信号、および撮像された複数の画像の間の動きベクトルを取得して前記検出信号のオフセット成分をフィルタ処理により推定する推定手段と、
前記検出信号に対して前記推定手段が推定したオフセット成分を抑制した信号により前記像ブレ補正手段を制御する制御手段と、を備え、
前記推定手段は、前記検出手段の出力の測定時間間隔に対する角度誤差の関係を示す統計データを用いて前記フィルタ処理のパラメータ値を変更する
ことを特徴とする像ブレ補正装置。
An image stabilization device provided with image stabilization means for correcting image blur of an image.
An estimation means that acquires a vibration detection signal output by the detection means and a motion vector between a plurality of captured images and estimates the offset component of the detection signal by filtering.
A control means for controlling the image blur correction means by a signal in which an offset component estimated by the estimation means is suppressed with respect to the detection signal is provided.
The estimation means is an image blur correction device characterized in that the parameter value of the filter processing is changed by using statistical data showing the relationship of the angle error with respect to the measurement time interval of the output of the detection means.
前記推定手段は、カルマンフィルタにより前記オフセット成分を推定する
ことを特徴とする請求項1に記載の像ブレ補正装置。
The image stabilization device according to claim 1, wherein the estimation means estimates the offset component by a Kalman filter.
前記推定手段は、前記統計データとして前記オフセット成分に係る標準偏差のデータを用いて前記パラメータ値を変更する
ことを特徴とする請求項1または請求項2に記載の像ブレ補正装置。
The image blur correction device according to claim 1 or 2, wherein the estimation means changes the parameter value by using the standard deviation data related to the offset component as the statistical data.
前記パラメータ値は、観測ノイズの分散値およびシステムノイズの分散値である
ことを特徴とする請求項2または請求項3に記載の像ブレ補正装置。
The image blur correction device according to claim 2, wherein the parameter value is a dispersion value of observation noise and a dispersion value of system noise.
前記検出信号および動きベクトルを取得して前記統計データを更新する更新手段を備え、
前記推定手段は、更新された前記統計データを取得して前記パラメータ値を変更する
ことを特徴とする請求項1から4のいずれか1項に記載の像ブレ補正装置。
An update means for acquiring the detection signal and the motion vector and updating the statistical data is provided.
The image stabilization device according to any one of claims 1 to 4, wherein the estimation means acquires the updated statistical data and changes the parameter value.
前記観測ノイズの分散値およびシステムノイズの分散値のデータを記憶する記憶手段と、
前記検出信号および動きベクトルを取得して前記記憶手段に記憶されたシステムノイズの分散値を更新する更新手段を備える
ことを特徴とする請求項4に記載の像ブレ補正装置。
A storage means for storing data of the dispersion value of the observed noise and the dispersion value of the system noise, and
The image shake correction device according to claim 4, further comprising an updating means for acquiring the detection signal and the motion vector and updating the dispersion value of the system noise stored in the storage means.
前記更新手段は、今回取得されたシステムノイズの分散値と前回取得されたシステムノイズの分散値との差分値が閾値より大きい場合にシステムノイズの分散値を更新する
ことを特徴とする請求項6に記載の像ブレ補正装置。
6. The updating means is characterized in that the dispersion value of the system noise is updated when the difference value between the dispersion value of the system noise acquired this time and the dispersion value of the system noise acquired last time is larger than the threshold value. Image blur correction device according to.
前記推定手段は、静止状態で取得された前記検出信号から生成された前記統計データを用いて前記パラメータ値を変更する
ことを特徴とする請求項1から7のいずれか1項に記載の像ブレ補正装置。
The image blur according to any one of claims 1 to 7, wherein the estimation means changes the parameter value by using the statistical data generated from the detection signal acquired in a stationary state. Compensator.
請求項1から8のいずれか1項に記載の像ブレ補正装置を備える
ことを特徴とする撮像装置。
An image pickup apparatus comprising the image stabilization apparatus according to any one of claims 1 to 8.
前記オフセット成分が抑制された信号に係るノイズ特性を算出する算出手段と、
前記算出手段により算出されたノイズ特性を用いて、前記検出信号に関して積分時間に対する積算誤差の関係を示すデータを生成する演算手段と、
前記演算手段が生成したデータと撮像素子の露光時間と撮像光学系の焦点距離の情報を取得し、前記積算誤差が閾値以上である場合に、ブレ画像生成を抑制または防止する処理を実行する処理手段と、を備える
ことを特徴とする請求項9に記載の撮像装置。
A calculation means for calculating the noise characteristics of the signal in which the offset component is suppressed, and
Using the noise characteristics calculated by the calculation means, a calculation means for generating data showing the relationship of the integration error with respect to the integration time with respect to the detection signal, and
A process of acquiring data generated by the calculation means, an exposure time of an image sensor, and a focal length of an image pickup optical system, and executing a process of suppressing or preventing blur image generation when the integration error is equal to or greater than a threshold value. The image pickup apparatus according to claim 9, further comprising means.
前記処理手段は、ブレ画像生成を警告する処理と、前記検出信号の信号処理方法を切り替える処理と、撮像された画像に対する画像処理方法を切り替える処理と、露出条件を切り替える処理のうちの1つ以上を実行する
ことを特徴とする請求項10に記載の撮像装置。
The processing means is one or more of a process of warning the generation of a blurred image, a process of switching a signal processing method of the detection signal, a process of switching an image processing method for an captured image, and a process of switching exposure conditions. 10. The image pickup apparatus according to claim 10.
前記算出手段は前記検出信号に係る標準偏差を算出してテーブルデータを生成する
ことを特徴とする請求項10または請求項11に記載の撮像装置。
The imaging device according to claim 10 or 11, wherein the calculation means calculates a standard deviation related to the detection signal and generates table data.
前記処理手段は、予め定められた撮影条件を満たし、かつ前記積算誤差が閾値以上である場合に前記処理を実行する
ことを特徴とする請求項10から12のいずれか1項に記載の撮像装置。
The image pickup apparatus according to any one of claims 10 to 12, wherein the processing means executes the processing when a predetermined shooting condition is satisfied and the integration error is equal to or larger than a threshold value. ..
前記演算手段は、前記撮影条件を満たす場合に露光時間および焦点距離の情報から撮像画像の画像ブレを予測する
ことを特徴とする請求項13に記載の撮像装置。
The imaging device according to claim 13, wherein the calculation means predicts image blurring of an captured image from information on an exposure time and a focal length when the shooting conditions are satisfied.
前記撮影条件は、前記露光時間が閾値より長い撮影条件、または前記焦点距離が閾値より大きい撮影条件である
ことを特徴とする請求項13または請求項14に記載の撮像装置。
The imaging device according to claim 13, wherein the photographing condition is a photographing condition in which the exposure time is longer than the threshold value or the focal length is larger than the threshold value.
前記検出手段は角速度センサを有し、
前記算出手段は、前記検出信号の測定時間間隔に対応する標準偏差値に測定時間間隔を乗算して角度の変動を表すデータを算出する
ことを特徴とする請求項10から15のいずれか1項に記載の撮像装置。
The detecting means has an angular velocity sensor and has an angular velocity sensor.
One of claims 10 to 15, wherein the calculation means multiplies the standard deviation value corresponding to the measurement time interval of the detection signal by the measurement time interval to calculate data representing an angle variation. The imaging device according to.
振動を検出する検出手段を有する外部装置を本体部に装着可能であって、
前記外部装置が前記本体部に装着された状態にて、前記外部装置が備える検出手段の検出信号と前記動きベクトルとの差分を演算して前記統計データを算出する算出手段を備える
ことを特徴とする請求項9に記載の撮像装置。
An external device having a detection means for detecting vibration can be attached to the main body.
The feature is that the external device is provided with a calculation means for calculating the statistical data by calculating the difference between the detection signal of the detection means included in the external device and the motion vector in a state of being mounted on the main body. 9. The imaging device according to claim 9.
外部装置を本体部に装着可能であって、
前記本体部の振動を検出する第1の検出手段と、
前記外部装置が前記本体部に装着された状態にて、前記第1の検出手段の検出信号の大きさが閾値以下である場合、前記外部装置が備える第2の検出手段の検出信号を用いて前記統計データを算出する算出手段と、を備える
ことを特徴とする請求項9に記載の撮像装置。
An external device can be attached to the main body,
The first detecting means for detecting the vibration of the main body, and the
When the magnitude of the detection signal of the first detection means is equal to or less than the threshold value in the state where the external device is attached to the main body, the detection signal of the second detection means provided in the external device is used. The image pickup apparatus according to claim 9, further comprising a calculation means for calculating the statistical data.
前記像ブレ補正手段は、撮像素子もしくは補正レンズの移動または画像処理によって像ブレ補正を行う
ことを特徴とする請求項9から18のいずれか1項に記載の撮像装置。
The image pickup apparatus according to any one of claims 9 to 18, wherein the image shake correction means performs image shake correction by moving an image pickup device or a correction lens or image processing.
画像の像ブレを補正する像ブレ補正手段を備える像ブレ補正装置にて実行される制御方法であって、
検出手段が出力する振れの検出信号、および撮像された複数の画像の間の動きベクトルを取得して前記検出信号のオフセット成分をフィルタ処理により推定する推定工程と、
前記検出信号に対して前記推定工程で推定されたオフセット成分を抑制した信号により前記像ブレ補正手段を制御する制御工程と、を有し、
前記推定工程では、前記検出手段の出力の測定時間間隔に対する角度誤差の関係を示す統計データを用いて前記フィルタ処理のパラメータ値を変更する処理が行われる
ことを特徴とする制御方法。


It is a control method executed by an image stabilization device provided with image stabilization means for correcting image blur of an image.
An estimation step of acquiring a vibration detection signal output by the detection means and a motion vector between a plurality of captured images and estimating the offset component of the detection signal by filtering.
It has a control step of controlling the image blur correction means by a signal that suppresses an offset component estimated in the estimation step with respect to the detection signal.
The control method is characterized in that in the estimation step, a process of changing a parameter value of the filter process is performed using statistical data showing the relationship of an angle error with respect to a measurement time interval of the output of the detection means.


JP2020125432A 2020-07-22 2020-07-22 Image shake correction device and method for controlling the same, and imaging apparatus Pending JP2022021684A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020125432A JP2022021684A (en) 2020-07-22 2020-07-22 Image shake correction device and method for controlling the same, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020125432A JP2022021684A (en) 2020-07-22 2020-07-22 Image shake correction device and method for controlling the same, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2022021684A true JP2022021684A (en) 2022-02-03

Family

ID=80782909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020125432A Pending JP2022021684A (en) 2020-07-22 2020-07-22 Image shake correction device and method for controlling the same, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2022021684A (en)

Similar Documents

Publication Publication Date Title
US10791270B2 (en) Image stabilization apparatus capable of accurately estimating an offset component of an angular velocity sensor, optical apparatus, and image stabilization method
JP2017092616A (en) Image shake correction device and method
JP2015022215A (en) Image stabilization device and imaging device
CN107040711B (en) Image stabilization apparatus and control method thereof
JP6543946B2 (en) Shake correction device, camera and electronic device
CN109391755B (en) Image pickup apparatus and method executed therein
CN114584676B (en) Image blur correction device, control method therefor, and image pickup apparatus
JP2020190690A (en) Image blur correction device, image blur correction method and image blur correction program
CN111953891B (en) Control apparatus, lens apparatus, image pickup apparatus, control method, and storage medium
JP2022021684A (en) Image shake correction device and method for controlling the same, and imaging apparatus
JP6268981B2 (en) Blur correction device, interchangeable lens and camera
JP2011004121A (en) Imaging apparatus
JP7426841B2 (en) Image blur correction device, its control method, program, storage medium
JP7356272B2 (en) Image blur information acquisition device and method, image blur correction device, program, storage medium
JP7204855B2 (en) IMAGE STABILIZATION DEVICE AND CONTROL METHOD THEREOF, IMAGING DEVICE
JP7254555B2 (en) IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE
JP7308672B2 (en) IMAGE STABILIZER AND CONTROL METHOD THEREOF, IMAGING SYSTEM, AND PROGRAM
JP7073078B2 (en) Image pickup device and its control method
JP7172214B2 (en) Interchangeable lenses, camera bodies and camera systems
WO2020012960A1 (en) Imaging device
JP6590013B2 (en) Interchangeable lens and imaging device
JP6485499B2 (en) Blur correction device and optical apparatus
JP6778014B2 (en) Imaging device and its control method, program, storage medium
WO2019203147A1 (en) Imaging device
WO2020012961A1 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230712