WO2015145858A1 - 手ぶれ補正装置、撮像装置 - Google Patents

手ぶれ補正装置、撮像装置 Download PDF

Info

Publication number
WO2015145858A1
WO2015145858A1 PCT/JP2014/079696 JP2014079696W WO2015145858A1 WO 2015145858 A1 WO2015145858 A1 WO 2015145858A1 JP 2014079696 W JP2014079696 W JP 2014079696W WO 2015145858 A1 WO2015145858 A1 WO 2015145858A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction
image blur
unit
detection signal
offset
Prior art date
Application number
PCT/JP2014/079696
Other languages
English (en)
French (fr)
Inventor
和田 哲
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2016509897A priority Critical patent/JP6040338B2/ja
Publication of WO2015145858A1 publication Critical patent/WO2015145858A1/ja
Priority to US15/273,799 priority patent/US9986164B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/005Blur detection

Definitions

  • the present invention relates to a camera shake correction device and an imaging device including the same.
  • An image pickup apparatus including an image pickup device that picks up an image of a subject through an image pickup optical system includes a camera shake correction that corrects image shake of a picked-up image caused by the movement of the image pickup apparatus based on the angular speed of the image pickup apparatus detected by an angular velocity detection unit such as a gyro sensor. Some have functions.
  • the image blur correction amount is calculated based on the image blur correction amount obtained by amplifying and AD converting the output of the angular velocity detection unit, and the motion vector between two temporally continuous captured images.
  • a camera shake correction apparatus that performs high-precision camera shake correction by performing correction is described.
  • Patent Document 2 in an imaging device that does not have an angular velocity detection unit, a blur amount and a blur direction in the captured image are obtained based on a change in luminance between pixels in an arbitrary captured image, thereby causing camera shake. It is described whether blurring is caused by blurring or blurring caused by parallel movement of the imaging device, and if blurring is caused by camera shake, camera shake correction is performed by changing the cutout range from the captured image. .
  • An angular velocity detection unit typified by a gyro sensor outputs a detection signal (offset signal) even when a device in which the angular velocity detection unit is mounted is not moving. Therefore, it is necessary to consider this offset signal in order to perform accurate camera shake correction.
  • the camera shake correction apparatus described in Patent Literature 1 corrects the image blur correction amount so that the image blur correction amount calculated based on the sensor output is equal to the motion vector between the two captured images, thereby obtaining an angular velocity. Incorrect correction due to movement (for example, parallel movement) that cannot be detected by the detection unit is prevented.
  • This camera shake correction device corrects an image blur correction amount based on a motion vector between two captured images obtained in a state where image blur is not corrected. This motion vector reflects the motion of the camera during shooting and does not reflect the offset signal of the angular velocity detection unit. For this reason, the camera shake correction apparatus described in Patent Document 1 cannot prevent erroneous correction due to the offset signal.
  • Patent Document 2 does not perform camera shake correction using an angular velocity detection unit, and thus does not have a problem of erroneous correction due to an offset signal.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide a camera shake correction device capable of highly accurate correction even when an offset signal of an angular velocity detection unit is present, and an imaging device including the same. .
  • the camera shake correction device of the present invention moves an at least one of an angular velocity detection unit that detects an angular velocity, an imaging element that images a subject through an imaging optical system, and the imaging optical system based on a detection signal of the angular velocity detection unit, From an image blur correction unit that corrects image blur that occurs in captured image data obtained by imaging with the imaging device, first captured image data obtained by imaging with the imaging device, and first captured image data A first motion vector calculation unit for calculating a first motion vector between the second captured image data obtained later and image blur corrected by the image blur correction unit, and the first motion vector And an offset correction unit that performs offset correction to reduce the offset signal included in the detection signal of the angular velocity detection unit.
  • the camera shake correction device of the present invention moves an at least one of an angular velocity detection unit that detects an angular velocity, an imaging element that images a subject through an imaging optical system, and the imaging optical system based on a detection signal of the angular velocity detection unit, An image blur correction unit that corrects image blur generated in the captured image data obtained by imaging with the image sensor, and an image generated in the captured image data from the captured image data in which the image blur is corrected by the image blur correction unit.
  • An image blur amount calculation unit that calculates a blur amount and an offset correction unit that performs offset correction to reduce an offset signal included in a detection signal of the angular velocity detection unit based on the image blur amount.
  • the imaging device of the present invention includes the above-described camera shake correction device.
  • the present invention it is possible to provide a camera shake correction device capable of highly accurate correction even when an offset signal of the angular velocity detection unit is present, and an imaging device including the same.
  • FIG. 1 is a diagram illustrating a schematic configuration of an imaging apparatus equipped with a camera shake correction apparatus that is an embodiment of the present invention.
  • 5 is a flowchart for explaining the operation of the imaging apparatus after the camera shake correction apparatus is activated.
  • movement of FIG. 10 is a flowchart for explaining a modified example of the operation of the imaging apparatus after the camera shake correction apparatus is activated.
  • movement of FIG. It is a figure for demonstrating the operation
  • 10 is a flowchart for explaining a modified example of the operation of the imaging apparatus after the camera shake correction apparatus is activated. It is a figure which shows the modification of the part of the camera-shake correction apparatus in the imaging device of FIG. It is the figure which showed the picked-up image data G (1) and G (2) when exposure time is long. It is the figure which showed captured image data G (1) when exposure time is long.
  • 6 is a flowchart for explaining a modified example of the operation of the imaging apparatus illustrated in FIG. 1.
  • 10 is a flowchart for explaining another modified example of the operation of the imaging apparatus shown in FIG. 1.
  • FIG. 1 is a diagram showing a schematic configuration of an imaging apparatus equipped with a camera shake correction apparatus according to an embodiment of the present invention.
  • the imaging apparatus in FIG. 1 includes an imaging lens 1 as an imaging optical system, a lens driving unit 2 that drives the imaging lens 1, an imaging element 3 that images a subject through the imaging lens 1, and an imaging output from the imaging element 3.
  • an image processing unit 4 that performs image processing on an image signal to generate captured image data
  • a memory 5 in which captured image data is primarily stored, an angular velocity detection unit 6, addition / subtraction units 7x and 7y, and a filter processing unit High pass filters (HPF) 8x and 8y, amplifiers 9x and 9y, integrators 10x and 10y, and a control unit 11 are provided.
  • the imaging lens 1 and the lens driving unit 2 may be a unit that can be attached to and detached from the imaging apparatus.
  • the image pickup device 3 has an image pickup surface in which pixels are two-dimensionally arranged in the x direction and the y direction orthogonal thereto.
  • the imaging lens 1 is movable in the x direction and the y direction perpendicular to the x direction, and is driven by the lens driving unit 2.
  • the imaging lens 1 includes a zoom lens for changing the focal length, and is an imaging optical system with a variable focal length.
  • the camera shake correction apparatus is configured by the angular velocity detection unit 6, the addition / subtraction units 7x and 7y, the HPFs 8x and 8y, the amplifiers 9x and 9y, the integrators 10x and 10y, and the control unit 11.
  • the angular velocity detection unit 6 detects angular velocity, and for example, a gyro sensor is used.
  • the angular velocity detection unit 6 will be described as a biaxial gyro sensor that detects an angular velocity around an axis extending in two directions (x direction and y direction) along two orthogonal sides of the imaging surface of the imaging element 3.
  • the angular velocity detection unit 6 outputs an angular velocity detection signal ⁇ x around the x axis extending in the x direction and an angular velocity detection signal ⁇ y around the y axis extending in the y direction.
  • the angular velocity detection signal ⁇ x is detected when the optical axis of the imaging lens 1 is perpendicular to the direction of gravity, and when the optical axis is directed to the right when viewed from the subject side, and the optical axis is directed to the left. What is detected when there is a negative sign.
  • the angular velocity detection signal ⁇ y is detected when the optical axis of the imaging lens 1 is perpendicular to the direction of gravity, and when the optical axis is tilted upward when viewed from the subject side, and the optical axis is tilted downward. When detected, the sign is minus.
  • the HPF 8x performs a filter process for attenuating a low-frequency component included in the angular velocity detection signal ⁇ x output from the angular velocity detector 6.
  • This low frequency component includes an offset signal in addition to noise.
  • the HPF 8x performs a filtering process so that the low frequency component finally becomes almost zero, but it takes some time from the signal input until the low frequency component becomes zero. For this reason, offset correction of the angular velocity detection unit 6 is necessary until this time elapses. Even if the HPF 8 is provided, the offset signal cannot be completely removed. For this reason, offset correction of the angular velocity detection unit 6 is necessary.
  • the amplifier 9x amplifies the angular velocity detection signal ⁇ x by multiplying the angular velocity detection signal ⁇ x output from the HPF 8x by a gain.
  • the integrator 10x integrates the angular velocity detection signal ⁇ x output from the amplifier 9x with respect to time, and calculates a shake angle ⁇ 1 that is an angle at which the imaging apparatus moves around the x-axis at this time.
  • the HPF 8y performs a filter process for attenuating a low-frequency component included in the angular velocity detection signal ⁇ y output from the angular velocity detector 6. Although this low frequency component includes an offset signal in addition to noise, offset correction is required as with the angular velocity detection signal ⁇ x.
  • the amplifier 9y amplifies the angular velocity detection signal ⁇ y by multiplying the angular velocity detection signal ⁇ y output from the HPF 8y by a gain.
  • the integrator 10y integrates the angular velocity detection signal ⁇ y output from the amplifier 9y with time, and calculates a shake angle ⁇ 2 that is an angle at which the imaging apparatus moves around the y-axis at this time.
  • the control unit 11 calculates a lens movement amount Dy that is an image blur correction amount for correcting an image blur in the y direction generated in captured image data obtained by imaging with the imaging element 3 based on the blur angle ⁇ 1.
  • control unit 11 calculates a lens movement amount Dx that is an image blur correction amount for correcting an image blur in the x direction generated in captured image data obtained by imaging with the imaging element 3 based on the blur angle ⁇ 2. .
  • the control unit 11 transmits the calculated lens movement amount Dx and the lens movement amount Dy to the lens driving unit 2, and moves the imaging lens 1 by the lens movement amount by the lens driving unit 2 to perform control for correcting image blur. .
  • the control unit 11 functions as an image blur correction unit.
  • the control unit 11 also stores captured image data (first captured image data) before image blur correction stored in the memory 5 and a captured image after image blur correction obtained by capturing after the captured image data. A first motion vector between the data (second captured image data) is calculated. And the control part 11 performs the offset correction which reduces the offset signal contained in the detection signal of the angular velocity detection part 6 based on this 1st motion vector.
  • the control unit 11 functions as a first motion vector calculation unit and an offset correction unit.
  • FIG. 2 is a flowchart for explaining the operation of the imaging apparatus after the camera shake correction apparatus is activated.
  • FIG. 3 is a diagram for explaining the operation of FIG.
  • the captured image data G (n) is data acquired in a state where offset correction and image blur correction are not performed.
  • the control unit 11 performs a period T (1) from the start of exposure for obtaining the captured image data G (1) to the start of exposure for obtaining the captured image data G (2).
  • the integral values (blur angles ⁇ 1, ⁇ 2) of the angular velocity detection signals ⁇ x, ⁇ y at are acquired from the integrators 10x, 10y.
  • the control unit 11 calculates the lens movement amounts Dx and Dy necessary for canceling the image blur of the captured image data due to the movement of the imaging device based on the acquired blur angles ⁇ 1 and ⁇ 2 (step S2).
  • control unit 11 drives the imaging lens 1 according to the calculated lens movement amounts Dx and Dy to perform image blur correction (step S3).
  • image blur correction period exposure for obtaining captured image data G (n + 1) is performed.
  • the control unit 11 acquires the captured image data G (n + 1) from the memory 5 (step S4).
  • the captured image data G (n + 1) is captured image data before offset correction and after image blur correction.
  • control unit 11 performs pattern matching between the acquired captured image data G (n) and the captured image data G (n + 1), and performs first matching between the captured image data G (n) and the captured image data G (n + 1). Is calculated (reference symbol b1 in FIG. 3) (step S5).
  • the first motion vector b1 is a motion of captured image data before offset correction and after image blur correction obtained after this captured image data, with reference to captured image data before offset correction and before image blur correction. This reflects the motion erroneously corrected by the offset signal included in the detection signal of the angular velocity detection unit 6.
  • the first motion vector b1 is decomposed into an x-direction motion vector bx1 that is an x-direction component on the imaging surface and a y-direction motion vector by1 that is a y-direction component on the imaging surface.
  • the x-direction motion vector bx1 is positive in the direction from bottom to top in FIG. 3, and negative in the direction from top to bottom in FIG.
  • the y-direction motion vector by1 has a positive direction from left to right in FIG. 3, and a negative direction from right to left in FIG.
  • the control unit 11 uses the x-direction motion vector bx1 and the focal length f of the imaging lens 1 to generate an offset correction value Yc as a first correction value, and calculates the y-direction motion vector by1 and the focal length f of the imaging lens 1.
  • the offset correction value Xc as the first correction value is generated (step S6).
  • the control unit 11 functions as a first correction value generation unit.
  • the value obtained by further dividing the value obtained by dividing the deflection angle ⁇ x by the period T (2) by the gain set by the amplifier 9x is the magnitude of the offset correction value Xc.
  • Whether the offset correction value Xc and the offset correction value Yc should be added to or subtracted from the detection signal of the angular velocity detection unit 6 depends on whether the motion vector by1 or the motion vector from which the offset correction value Xc and the offset correction value Yc are calculated. It depends on the direction of bx1.
  • the direction of the y-direction motion vector by1 is positive, it indicates that the imaging lens 1 has moved in the -y direction as a result of image blur correction, and it can be seen that the offset signal of the angular velocity detection signal ⁇ x is positive. For this reason, it is necessary to subtract the offset correction value Xc from the detection signal in order to cancel the offset signal. If the direction of the y-direction motion vector by1 is negative, it is necessary to add the offset correction value Xc to the detection signal.
  • control unit 11 sets the correction method set in the addition / subtraction unit 7x to [subtraction] if the sign of the motion vector by1 that is the source of the offset correction value Xc is positive, and the sign of the motion vector by1 is negative. If so, set to [Add].
  • control unit 11 sets the correction method set in the addition / subtraction unit 7y to [subtraction] if the sign of the motion vector bx1 from which the offset correction value Yc is generated is positive, and the sign of the motion vector bx1 is negative. If so, [addition] is set (step S8).
  • the offset signal is reduced by adding or subtracting the offset correction values Xc and Yc to the detection signal output from the angular velocity detection unit 6, and offset correction is performed. Thereafter, the image blur correction amount is calculated in the offset-corrected state, so that accurate image blur correction is performed.
  • the imaging apparatus in FIG. 1 includes the angular velocity detection unit based on the first motion vector between the captured image data and the captured image data after image blur correction obtained after the captured image data. 6 is performed to reduce the offset signal.
  • the correction operation motion vector calculation, offset correction value calculation caused by the offset signal is set. And the like, and the amount of calculation of the control unit 11 can be reduced as compared with the prior art.
  • the offset correction values Xc and Yc set in the adder / subtractors 7x and 7y are values generated by calculation based on the magnitude of the motion vector b1 and the focal length f.
  • the offset correction values X and Y are changed by a certain amount, and the offset correction values X and Y when the magnitude of the motion vector b1 becomes less than the threshold are added and subtracted as the final offset correction values. You may set to the part 7x, 7y.
  • FIG. 4 is a flowchart for explaining a modified example of the operation of the image pickup apparatus after the camera shake correction apparatus is activated.
  • FIG. 5 is a diagram for explaining the operation of FIG. In FIG. 4, the same processes as those in FIG.
  • step S5 the control unit 11 temporarily sets a predetermined correction value Hx as the offset correction value X, temporarily sets a predetermined correction value Hy as the offset correction value Y, and sets the direction of the motion vectors bx1 and by1. Therefore, [addition] or [subtraction] is set as the correction method (step S20).
  • the control unit 11 sets [subtraction] to the addition / subtraction unit 7x (7y), and the direction of the motion vector bx1 (by1) is negative. If there is, [addition] is set to the addition / subtraction unit 7x (7y).
  • control unit 11 performs captured image data G (n + 2) (third) obtained by performing image blur correction based on the detection signal obtained by adding or subtracting the correction values Hx and Hy by the addition / subtraction units 7x and 7y.
  • Captured image data (captured image data G (3) in FIG. 5)) is acquired (step S21).
  • control unit 11 calculates a motion vector b1 between the captured image data G (1) obtained before setting the correction values Hx and Hy and the captured image data G (n + 2) (step S22). .
  • the control unit 11 compares the magnitude of the motion vector bx1 that is the x-direction component of the motion vector b1 calculated in step S22 with the threshold Tx (step S23).
  • control unit 11 changes the temporarily set Hy as the offset correction value X by a certain amount (step S26). For example, the Hy value is changed to a value obtained by multiplying the Hy value by 1.5.
  • step S26 the controller 11 sets n to n + 1 (step S28) and performs the process of step S21.
  • step S23 If the determination in step S23 is YES, the control unit 11 compares the magnitude of the motion vector by1 that is the y-direction component of the motion vector b1 calculated in step S22 with the threshold value Ty (step S24).
  • step S24 If the magnitude of the motion vector by1 is equal to or greater than the threshold value Ty (step S24: NO), the control unit 11 changes Hx being temporarily set as the offset correction value Y by a certain amount (step S27). For example, the value is changed to a value obtained by multiplying the value of Hx by 1.5.
  • control unit 11 sets n to n + 1 (step S28) and performs the process of step S21.
  • step S24 If the determination in step S24 is YES, the control unit 11 sets the correction values Hx and Hy temporarily set at this time as the final offset correction values (step S25).
  • the magnitude of the motion vector b1 between the captured image data before the offset correction and the captured image data after the correction of the detection signal by the correction values Hx and Hy and after the image blur correction is as shown in FIG.
  • the captured image data G (4) it becomes almost zero.
  • the offset signal can be reduced by setting the offset correction values Xc and Yc temporarily set when the captured image data G (4) is obtained as final values. According to this configuration, since it is not necessary to calculate an offset correction value, the amount of calculation can be reduced and power consumption can be reduced.
  • the control unit 11 performs image blur correction based on the angular velocity detection signal, a small movement of the imaging apparatus does not affect the captured image.
  • image blur cannot be corrected, and the captured image data before offset correction and the captured image data are later than the captured image data.
  • image blur due to panning remains between the obtained image data before offset correction and after image blur correction.
  • FIG. 6 is a diagram showing a change in the angular velocity detection signal ⁇ x when a motion that cannot completely correct the image blur occurs due to panning or the like.
  • the offset signal has a positive value before the offset correction, but if there is a movement that cannot be corrected by panning, the captured image data before the offset correction and the captured image data are obtained later.
  • the magnitude of the motion vector b1 between the captured image data before the offset correction and after the image blur correction is larger than that when there is no motion. For this reason, the angular velocity detection signal ⁇ x after the offset correction is a negative value.
  • the angular velocity detection signal ⁇ x becomes a negative value in a state where there is no movement of the imaging device, and the offset signal remains.
  • the captured image data G (n) before the offset correction The direction of the first motion vector b1 between the captured image data G (n + 1) before the offset correction and after the image blur correction obtained after the captured image data G (n), and the captured image data G (n ) And the direction of the second motion vector b2 between the captured image data G (n + 2) after the offset correction and the image blur correction are reversed.
  • FIG. 8 is a flowchart for explaining a modified example of the operation of the imaging apparatus after the camera shake correction apparatus is activated.
  • FIG. 8 the same processes as those in FIG. 8.
  • step S8 the controller 11 detects the angular velocity detection signal ⁇ x in the period T (n + 1) from the start of exposure for obtaining the captured image data G (n + 1) to the start of exposure for obtaining the captured image data G (n + 2). , ⁇ y are obtained from the integrators 10x and 10y.
  • control unit 11 calculates the lens movement amounts Dx and Dy necessary for canceling the image blur of the captured image data due to the movement of the imaging device based on the acquired integral value (step S9).
  • control unit 11 drives the imaging lens 1 according to the lens movement amounts Dx and Dy calculated in step S9 to perform image blur correction (step S10).
  • image blur correction period exposure for obtaining captured image data G (n + 2) is performed.
  • the control unit 11 acquires the captured image data G (n + 2) from the memory 5 (step S11).
  • the captured image data G (n + 2) is captured image data after offset correction and image blur correction.
  • the control unit 11 performs pattern matching between the acquired captured image data G (n) and the captured image data G (n + 2), and performs a second movement between the captured image data G (n) and the captured image data G (n + 2).
  • a vector symbol b2 in FIG. 7 is calculated (step S12).
  • the control unit 11 functions as a second motion vector calculation unit.
  • the control unit 11 determines whether or not the direction of the first motion vector b1 calculated in step S5 is different from the direction of the second motion vector b2 calculated in step S12 (step S13).
  • each of the motion vectors b1 and b2 is divided into an x-direction component and a y-direction component, and it is determined whether or not the directions are different between the same direction components. If the direction is different between the x-direction component and the y-direction component, the determination in step S13 is YES, and if both the x-direction component and the y-direction component are in the same direction, the process proceeds to step S13. The determination is NO.
  • step S13 If the determination in step S13 is NO, it can be determined that the offset correction value generated in step S6 is accurate. For this reason, the control part 11 complete
  • the offset correction accuracy can be improved by regenerating the offset correction value.
  • FIG. 9 is a diagram showing a modified example of the portion of the camera shake correction device in the imaging apparatus of FIG.
  • the camera shake correction apparatus shown in FIG. 9 has the same configuration as the camera shake correction apparatus in FIG. 1 except that an amplifier 9xa, an integrator 10xa, an amplifier 9ya, and an integrator 10ya are added.
  • the amplifier 9xa has the same function as the amplifier 9x, but is different from the amplifier 9x in that the output signal of the adder / subtractor 7x is directly amplified.
  • the integrator 10xa has the same function as the integrator 10x, integrates the output signal of the amplifier 9xa, and outputs it to the control unit 11.
  • the amplifier 9ya has the same function as the amplifier 9y, but is different from the amplifier 9y in that the output signal of the adder / subtractor 7y is directly amplified.
  • the integrator 10ya has the same function as the integrator 10y, integrates the output signal of the amplifier 9ya, and outputs the integrated signal to the control unit 11.
  • the control unit 11 when the control unit 11 generates the offset correction value Yc, it is generated based on the detection signal before the filter processing by the HPF 8x in addition to the first motion vector and the focal length f.
  • the information on the difference between the image blur correction amount and the image blur correction amount generated based on the detection signal after filtering by the HPF 8x is further used.
  • the control unit 11 calculates an image blur correction amount based on signals that pass through the HPF 8x and the HPF 8y.
  • the image blur correction amount calculated based on the signal passed through the HPF 8x and HPF 8y is calculated based on the signal obtained by directly amplifying the outputs of the adder / subtractors 7x and 7y without passing through the HPF 8x and HPF 8y. An error is included with respect to the image blur correction amount.
  • control unit 11 in FIG. 9 calculates the image blur correction amount calculated from the blur angle obtained by integrating with the integrator 10y, and the image blur correction amount calculated from the blur angle obtained by integrating with the integrator 10ya. Find the difference between Then, this difference is converted into a value of the angular velocity detection signal ⁇ y per unit time, and this value is subtracted from the offset correction value Yc.
  • the method of moving the imaging lens 1 in the x direction and the y direction has been described as an example of the image blur correction method performed by the control unit 11.
  • an image blur correction method a method in which the imaging lens 1 is fixed and the imaging device 3 is moved in the x direction and the y direction may be employed, or a method in which the imaging lens 1 and the imaging device 3 are moved respectively. May be adopted.
  • offset correction is performed only when the camera shake correction device is started. However, after the startup, the offset correction value may be set again periodically.
  • the offset signal of the angular velocity detection unit 6 varies depending on the surrounding environment (temperature, etc.). Therefore, by detecting that the environment has changed and resetting the offset correction value at this timing, accurate offset correction can be performed. Further, the offset correction value may be set manually.
  • the control unit 11 calculates the offset correction values Xc and Yc by calculation.
  • a table is created by previously obtaining the relationship between the magnitude of the first motion vector and the corresponding offset correction values Xc, Yc, and the offset correction values Xc, Yc are read from this table. It may be set. As a result, power consumption can be reduced by reducing computation.
  • the image blur generated based on the detection signal before the filter processing by the HPFs 8x and 8y with respect to the magnitude of the first motion vector is further stored in association with each other.
  • the imaging lens 1 has a variable focal length
  • the present invention can be applied even if it has a fixed focal length.
  • the movement of the captured image data before the offset correction and after the image blur correction obtained after the captured image data, based on the captured image data before the offset correction and before the image blur correction, is the first. Calculated as a motion vector.
  • the motion of the captured image data before the offset correction and after the image blur correction obtained after the captured image data, based on the captured image data before the offset correction and after the image blur correction is the first motion vector. May be calculated as
  • the exposure time for obtaining captured image data is short, image blurring hardly occurs in each captured image data. For this reason, even if the first motion vector is calculated based on the captured image data before image blur correction, the first motion vector reflects image blur between the captured image data due to the offset signal.
  • the captured image data G (1) shown in FIG. 10 is obtained during one exposure period as shown in FIG. 11, and an image in which the cross images are slightly shifted in the y direction and overlapped is obtained. It was taken.
  • FIG. 12 is a flowchart for explaining a modified example of the operation of the imaging apparatus shown in FIG.
  • control unit 11 calculates an image blur amount B (n) generated in the captured image data G (n) (step S32).
  • the control unit 11 functions as an image blur amount calculation unit.
  • the control unit 11 calculates the image blur amount B (n) by the method described in Patent Document 2, for example.
  • control unit 11 compares the luminance difference between adjacent pixel data at one or a plurality of locations in the captured image data G (n), and identifies a location where the edge (edge) of the image has spread due to blurring.
  • the width of the spread is calculated as an image blur amount (unit: number of pixels).
  • the image blur amount B (n) is calculated by decomposing it into an x-direction component and a y-direction component.
  • the x direction component of the image blur amount B (n) is referred to as an image blur amount Bx (n)
  • the y direction component of the image blur amount B (n) is referred to as an image blur amount By (n).
  • control unit 11 generates a correction value Yb as a second correction value corresponding to the image blur amount Bx (n), and a correction value Xb as a second correction value corresponding to the image blur amount By (n). Is generated. Further, the control unit 11 temporarily sets the correction value Xb as the offset correction value X set in the addition / subtraction unit 7x, temporarily sets the correction value Yb as the offset correction value Y set in the addition / subtraction unit 7y, ] Or [Subtraction] is set (step S33). The control unit 11 functions as a second correction value generation unit.
  • the control unit 11 calculates the pixel pitch of the image sensor 3 and the sensitivity characteristic of the angular velocity detection unit 6 (how much deg / sec around the y axis corresponds to the value obtained by time differentiation of the image blur amount Bx (n)). Is multiplied by a correlation coefficient to generate a correction value Yb.
  • the blur speed (pixel / sec) can be obtained by differentiating the image blur amount Bx (n) with respect to time.
  • this shake speed is multiplied by a correlation coefficient.
  • the correlation coefficient is a coefficient indicating how many degrees of movement around the y-axis corresponds to the movement of one pixel, and the blur speed obtained by time differentiation of the image blur amount Bx (n) By multiplying the correlation coefficient, a correction value Yb (unit: mV) can be obtained.
  • control unit 11 converts the image blur amount By (n) into a time-differentiated value, and changes the pixel pitch of the image sensor 3 and the sensitivity characteristic of the angular velocity detection unit 6 (how much the output of 1 mV is about deg / sec around the x axis.
  • the correction value Xb is generated by multiplying the correlation coefficient with the corresponding data).
  • control unit 11 acquires captured image data G (n + 1) obtained by performing image blur correction based on the detection signal obtained by adding or subtracting the correction values Xb and Yb by the addition / subtraction units 7x and 7y. (Step S34).
  • control unit 11 calculates an image blur amount B (n + 1) occurring in the captured image data G (n + 1) (step S35).
  • the image blur amount B (n) corresponds to the first image blur amount
  • the image blur amount B (n + 1) corresponds to the second image blur amount.
  • control unit 11 compares the image blur amount Bx (n) calculated in step S32 with the image blur amount Bx (n + 1) calculated in step S35 (step S36).
  • step S36 When the image blur amount Bx (n + 1) is equal to or larger than the image blur amount Bx (n) (step S36: NO), as a result of adding or subtracting the correction value Yb to the detection signal of the angular velocity detector 6, the image blur in the x direction is obtained. It can be determined that the amount has not decreased and the correction method temporarily set in step S33 is apologizing. Therefore, in step S37, the control unit 11 changes the correction method set in the addition / subtraction unit 7y to subtraction if it is addition, and changes to addition if it is subtraction.
  • step S36 When the image blur amount Bx (n + 1) is less than the image blur amount Bx (n) (step S36: YES), the control unit 11 compares the image blur amount By (n + 1) with the image blur amount By (n) ( Step S38).
  • step S38 NO
  • the correction value Xb is added to or subtracted from the detection signal of the angular velocity detection unit 6, resulting in image blur in the y direction. It can be determined that the amount has not decreased and the correction method temporarily set in step S33 is apologizing. For this reason, the control part 11 changes the correction method set to the addition / subtraction part 7x to subtraction if it is addition, and changes to addition if it is subtraction (step S39).
  • step S38 YES
  • the control unit 11 corrects the correction method currently set for the adder / subtractor units 7x and 7y, and Xb and Yb. Is determined (step S40).
  • step S40 the offset signal is reduced by adding or subtracting the offset correction values Xb and Yb to the detection signal output from the angular velocity detection unit 6, and offset correction is performed. Thereafter, the image blur correction amount is calculated in the offset-corrected state, so that accurate image blur correction is performed.
  • FIG. 13 is a flowchart for explaining another modified example of the operation of the imaging apparatus shown in FIG. In FIG. 13, the same processes as those in FIG.
  • control unit 11 After step S32, the control unit 11 temporarily sets the offset correction value X set in the addition / subtraction unit 7x to the correction value Hx, and sets [addition] or [subtraction] as the correction method. Further, the control unit 11 provisionally sets the correction value Hy as the offset correction value Y set in the addition / subtraction unit 7y, and sets [addition] or [subtraction] as the correction method (step S41).
  • control unit 11 acquires captured image data G (n + 1) obtained by performing image blur correction based on the detection signal obtained by adding or subtracting the correction values Hx and Hy by the addition / subtraction units 7x and 7y ( Step S42).
  • control unit 11 calculates an image blur amount B (n + 1) occurring in the captured image data G (n + 1) (step S43).
  • control unit 11 compares the image blur amount Bx (n) calculated in step S32 with the image blur amount Bx (n + 1) calculated in step S43 (step S44).
  • step S44 NO
  • the control unit 11 subtracts the correction method that is temporarily set in the adder / subtractor unit 7y. If it is subtraction, it is changed to addition (step S50). After step S50, the control unit 11 updates n to n + 1 (step S54) and performs the process of step S42.
  • step S44 YES
  • the control unit 11 calculates the image blur amount By (n) calculated in step S32 and the step S43.
  • the image blur amount By (n + 1) is compared (step S45).
  • step S45 NO
  • the control unit 11 subtracts the correction method currently temporarily set in the adder / subtractor unit 7x, If it is subtraction, it changes to addition (step S51). After step S51, the process proceeds to step S54.
  • step S45 When the image blur amount By (n + 1) is less than the image blur amount By (n) (step S45: YES), the control unit 11 determines whether or not the image blur amount Bx (n + 1) is less than the threshold value TH1. (Step S46).
  • step S46 the control unit 11 changes the offset correction value set in the addition / subtraction unit 7y by a certain amount from Hy (step S52). For example, the value of Hy is changed to a value that is multiplied by 1.5. After step S52, the process proceeds to step S54.
  • step S46 determines whether or not the image blur amount By (n + 1) is less than the threshold value TH2 (step S47).
  • step S47 When the determination in step S47 is NO, the control unit 11 changes the offset correction value set in the addition / subtraction unit 7x by a certain amount from Hx. For example, the value is changed to a value obtained by multiplying the value of Hx by 1.5. After step S53, the process proceeds to step S54.
  • step S48 the control unit 11 sets the correction method and offset correction values Hx and Hy that are currently set as the final correction method and offset correction value (step S48).
  • the offset signal is reduced by adding or subtracting the offset correction values Hx and Hy to the detection signal output from the angular velocity detection unit 6 by the processing in step S48, and offset correction is performed. Thereafter, the image blur correction amount is calculated in the offset-corrected state, so that accurate image blur correction is performed.
  • control unit 11 calculates the image blur amount calculated from the captured image data in which the image blur is corrected based on the detection signal obtained by adding or subtracting the correction values Hx and Hy to the detection signal of the angular velocity detection unit 6.
  • the correction values Hx and Hy are changed by a certain amount until the value becomes less than the threshold value, and the correction values Hx and Hy when the image blur amount is less than the threshold value are added to or subtracted from the detection signal of the angular velocity detection unit 6. Offset correction.
  • the amount of image blur generated in the captured image data after image blur correction converges, and finally becomes almost zero.
  • the offset signal can be reduced by setting the correction method and offset correction values X and Y temporarily set at this time as final values. According to this configuration, since it is not necessary to calculate a correction value corresponding to the image blur amount, it is possible to reduce the amount of calculation and reduce power consumption.
  • the disclosed camera shake correction device moves an at least one of an angular velocity detection unit that detects an angular velocity, an imaging element that images a subject through an imaging optical system, and the imaging optical system based on a detection signal of the angular velocity detection unit, From an image blur correction unit that corrects image blur that occurs in captured image data obtained by imaging with the imaging device, first captured image data obtained by imaging with the imaging device, and first captured image data A first motion vector calculation unit for calculating a first motion vector between the second captured image data obtained later and image blur corrected by the image blur correction unit, and the first motion vector And an offset correction unit that performs offset correction to reduce the offset signal included in the detection signal of the angular velocity detection unit.
  • the offset correction unit is calculated by the first motion vector calculation unit, and is based on the detection signal after adding or subtracting a correction value according to the direction of the first motion vector.
  • the correction value is changed by a certain amount until the magnitude of the first motion vector between the third captured image data whose image blur is corrected and the first captured image data is less than the threshold value.
  • the offset value is reduced by adding or subtracting the correction value when the magnitude of the first motion vector is less than the threshold value to or from the detection signal.
  • the imaging optical system has a variable focal length, and a first correction that generates a correction value using the magnitude of the first motion vector and the focal length of the imaging optical system.
  • a value generation unit is further provided, and the offset correction unit performs offset correction by adding or subtracting the correction value to or from the detection signal of the angular velocity detection unit according to the direction of the first motion vector.
  • the disclosed camera shake correction device further includes a filter processing unit that performs a filter process for attenuating a low frequency component of the detection signal of the angular velocity detection unit, and the image blur correction unit is based on the detection signal after the filter process.
  • the first correction value generation unit corrects the image blur according to the generated image blur correction amount, and the first correction value generation unit generates the image blur correction amount generated based on the detection signal before the filter processing and the detection signal after the filter processing.
  • the correction value is generated by further using the difference from the image blur correction amount generated based on the above.
  • the disclosed camera shake correction device further includes a filter processing unit that performs a filter process for attenuating a low frequency component of the detection signal of the angular velocity detection unit, and the image blur correction unit is based on the detection signal after the filter process.
  • the image blur is corrected according to the generated image blur correction amount, and the offset correction unit is generated based on the image blur correction amount generated based on the detection signal before the filter processing and the detection signal after the filter processing.
  • the offset correction is performed by further using the difference from the image blur correction amount.
  • the disclosed camera shake correction apparatus includes the first captured image data and the captured image data in which the image blur is corrected based on the detection signal of the angular velocity detection unit after the offset signal is reduced by the offset correction unit.
  • a second motion vector calculating unit that calculates a second motion vector, and when the direction of the first motion vector is opposite to the direction of the second motion vector, the offset correction unit includes: The offset correction is performed again based on the newly calculated first motion vector.
  • the offset correction unit performs the offset correction at least when the camera shake correction apparatus is activated.
  • the disclosed camera shake correction device moves an at least one of an angular velocity detection unit that detects an angular velocity, an imaging element that images a subject through an imaging optical system, and the imaging optical system based on a detection signal of the angular velocity detection unit,
  • An image blur correction unit that corrects image blur generated in the captured image data obtained by imaging with the image sensor, and an image generated in the captured image data from the captured image data in which the image blur is corrected by the image blur correction unit.
  • An image blur amount calculation unit that calculates a blur amount and an offset correction unit that performs offset correction to reduce an offset signal included in a detection signal of the angular velocity detection unit based on the image blur amount.
  • the disclosed camera shake correction apparatus further includes a second correction value generation unit that generates a correction value corresponding to the image blur amount, and the offset correction unit adds the correction value to the detection signal of the angular velocity detection unit.
  • offset correction is performed by subtraction.
  • the offset correction unit is calculated by the image blur amount calculation unit from captured image data in which image blur is corrected based on the detection signal before adding or subtracting the correction value.
  • the second correction value generation unit multiplies the value obtained by time-differentiating the image blur amount by a correlation coefficient between the pixel pitch of the image sensor and the sensitivity characteristic of the angular velocity detection unit. Thus, the correction value is generated.
  • the offset correction unit includes the image blur from captured image data in which image blur is corrected based on the detection signal after adding or subtracting a correction value to the detection signal of the angular velocity detection unit.
  • the correction value is changed by a certain amount until the image blur amount calculated by the amount calculation unit is less than the threshold value, and the correction value in a state where the image blur amount is less than the threshold value is determined by the angular velocity detection unit.
  • the offset correction is performed by adding or subtracting to the detection signal.
  • the disclosed camera shake imaging apparatus includes the above-described camera shake correction apparatus.
  • the present invention is particularly convenient and effective when applied to an electronic device (referred to as an imaging device) having an imaging function such as a digital camera or a smartphone with a camera.
  • an imaging device having an imaging function such as a digital camera or a smartphone with a camera.
  • Imaging lens imaging optical system
  • Image sensor 6
  • Angular velocity detection unit 7x
  • 7y Addition / subtraction unit 8x
  • control unit first motion vector calculation unit, second motion vector calculation unit, first correction value generation unit, second correction value generation unit, offset correction unit, image blur correction unit, image blur amount calculation unit )

Abstract

 角速度検出部のオフセット信号が存在しても高精度な補正が可能な手ぶれ補正装置とこれを備える撮像装置を提供する。 角速度検出部6の検出信号に基づき、撮像レンズ1を動かして、撮像素子3により撮像して得られる撮像画像データに生じる像ぶれを補正する制御部11は、撮像素子3により撮像して得られた第一の撮像画像データと第一の撮像画像データよりも後に得られ像ぶれを補正した第二の撮像画像データとの間の第一の動きベクトルを算出し、第一の動きベクトルに基づいて、角速度検出部6の検出信号に含まれるオフセット信号を低減するオフセット補正を行う。

Description

手ぶれ補正装置、撮像装置
 本発明は、手ぶれ補正装置とこれを備える撮像装置に関する。
 撮像光学系を通して被写体を撮像する撮像素子を備える撮像装置には、ジャイロセンサ等の角速度検出部によって検出した撮像装置の角速度に基づき、撮像装置の動きによって生じる撮像画像の像ぶれを補正する手ぶれ補正機能を有するものがある。
 特許文献1には、角速度検出部の出力を増幅しAD変換して求めた像ぶれ補正量と、時間的に連続する2つの撮像画像間の動きベクトルとに基づいて、上記像ぶれ補正量を補正することで、精度の高い手ぶれ補正を行う手ぶれ補正装置が記載されている。
 特許文献2には、角速度検出部を持たない撮像装置において、任意の撮像画像中の画素間における輝度の変化に基づいて、この撮像画像におけるぼけ量とぼけ方向とを求めることで、手ぶれによって生じたぼけか、撮像装置の平行移動によって生じたぼけなのかを判別し、手ぶれによって生じたぼけである場合には、撮像画像からの切り出し範囲を変更することで手ぶれ補正を行うことが記載されている。
日本国特開2007-266771号公報 日本国特開2007-221291号公報
 ジャイロセンサに代表される角速度検出部は、この角速度検出部が搭載される装置が動いていない状態であっても検出信号(オフセット信号)を出力する。したがって、正確な手ぶれ補正を行うには、このオフセット信号を考慮する必要がある。
 特許文献1に記載の手ぶれ補正装置は、センサ出力に基づいて算出した像ぶれ補正量と、2つの撮像画像間の動きベクトルとが等しくなるように、像ぶれ補正量を補正することで、角速度検出部では検出できない動き(例えば平行移動)による誤補正を防いでいる。この手ぶれ補正装置は、像ぶれが補正されない状態で得られた2つの撮像画像間の動きベクトルに基づいて像ぶれ補正量を補正している。この動きベクトルは、撮影間のカメラの動きを反映するものであり、角速度検出部のオフセット信号は反映していない。このため、特許文献1に記載の手ぶれ補正装置ではオフセット信号に起因する誤補正を防ぐことができない。
 特許文献2に記載の撮像装置は、角速度検出部を用いた手ぶれ補正を行うものではないため、オフセット信号に起因する誤補正といった課題は生じない。
 本発明は、上記事情に鑑みてなされたものであり、角速度検出部のオフセット信号が存在しても高精度な補正が可能な手ぶれ補正装置とこれを備える撮像装置を提供することを目的とする。
 本発明の手ぶれ補正装置は、角速度を検出する角速度検出部と、上記角速度検出部の検出信号に基づき、撮像光学系を通して被写体を撮像する撮像素子と上記撮像光学系との少なくとも一方を動かして、上記撮像素子により撮像して得られる撮像画像データに生じる像ぶれを補正する像ぶれ補正部と、上記撮像素子により撮像して得られた第一の撮像画像データと上記第一の撮像画像データよりも後に得られ上記像ぶれ補正部によって像ぶれが補正された第二の撮像画像データとの間の第一の動きベクトルを算出する第一の動きベクトル算出部と、上記第一の動きベクトルに基づいて、上記角速度検出部の検出信号に含まれるオフセット信号を低減するオフセット補正を行うオフセット補正部と、を備えるものである。
 本発明の手ぶれ補正装置は、角速度を検出する角速度検出部と、上記角速度検出部の検出信号に基づき、撮像光学系を通して被写体を撮像する撮像素子と上記撮像光学系との少なくとも一方を動かして、上記撮像素子により撮像して得られる撮像画像データに生じる像ぶれを補正する像ぶれ補正部と、上記像ぶれ補正部によって像ぶれが補正された撮像画像データからその撮像画像データに生じている像ぶれ量を算出する像ぶれ量算出部と、上記像ぶれ量に基づいて、上記角速度検出部の検出信号に含まれるオフセット信号を低減するオフセット補正を行うオフセット補正部と、を備えるものである。
 本発明の撮像装置は、上記手ぶれ補正装置を備えるものである。
 本発明によれば、角速度検出部のオフセット信号が存在しても高精度な補正が可能な手手ぶれ補正装置とこれを備える撮像装置を提供することができる。
本発明の一実施形態である手ぶれ補正装置を搭載する撮像装置の概略構成を示す図である。 手ぶれ補正装置が起動してからの撮像装置の動作を説明するためのフローチャートである。 図2の動作を説明するための図である。 手ぶれ補正装置が起動してからの撮像装置の動作の変形例を説明するためのフローチャートである。 図4の動作を説明するための図である。 パンニング等によって像ぶれを補正しきれない動きが生じたときの角速度検出信号ωxの変化を示す図である。 パンニングによる誤補正がなされたときの動きベクトルの変化を説明するための図である。 手ぶれ補正装置が起動してからの撮像装置の動作の変形例を説明するためのフローチャートである。 図1の撮像装置における手ぶれ補正装置の部分の変形例を示す図である。 露光時間が長いときの撮像画像データG(1),G(2)を示した図である。 露光時間が長いときの撮像画像データG(1)を示した図である。 図1に示した撮像装置の動作の変形例を説明するためのフローチャートである。 図1に示した撮像装置の動作の別の変形例を説明するためのフローチャートである。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の一実施形態である手ぶれ補正装置を搭載する撮像装置の概略構成を示す図である。
 図1の撮像装置は、撮像光学系としての撮像レンズ1と、撮像レンズ1を駆動するレンズ駆動部2と、撮像レンズ1を通して被写体を撮像する撮像素子3と、撮像素子3から出力される撮像画像信号に画像処理を施して撮像画像データを生成する画像処理部4と、撮像画像データが一次記憶されるメモリ5と、角速度検出部6と、加減算部7x,7yと、フィルタ処理部としてのハイパスフィルタ(HPF)8x,8yと、増幅器9x,9yと、積分器10x,10yと、制御部11と、を備える。これらの構成要素のうち、撮像レンズ1とレンズ駆動部2は、撮像装置に対して着脱可能なユニットであってもよい。
 撮像素子3は、x方向とこれに直交するy方向に二次元状に画素が配置された撮像面を有している。
 撮像レンズ1は、x方向とこれに直交するy方向にそれぞれ移動可能であり、レンズ駆動部2によって駆動される。撮像レンズ1は、焦点距離を変更するためのズームレンズを含み、焦点距離可変の撮像光学系となっている。
 角速度検出部6、加減算部7x,7y、HPF8x,8y、増幅器9x,9y、積分器10x,10y、及び制御部11により、手ぶれ補正装置が構成される。
 角速度検出部6は、角速度を検出するものであり、例えばジャイロセンサが用いられる。本明細書では、角速度検出部6を、撮像素子3の撮像面の直交する2辺に沿う方向(x方向及びy方向)に伸びる軸回りの角速度を検出する2軸ジャイロセンサとして説明する。
 角速度検出部6からは、x方向に伸びるx軸回りの角速度検出信号ωxと、y方向に伸びるy軸回りの角速度検出信号ωyとが出力される。
 角速度検出信号ωxは、撮像レンズ1の光軸が重力方向に垂直な状態から、被写体側から見て光軸が右側に向いたときに検出されるものが符号プラスとなり、光軸が左側に向いたときに検出されるものが符号マイナスとなる。
 角速度検出信号ωyは、撮像レンズ1の光軸が重力方向に垂直な状態から、被写体側から見て光軸が上方に傾いたときに検出されるものが符号プラスとなり、光軸が下方に傾いたときに検出されるものが符号マイナスとなる。
 加減算部7xは、角速度検出部6から出力された角速度検出信号ωxにオフセット補正値Xを加算又は減算する。加算を行うか減算を行うかは、制御部11によって設定される。手ぶれ補正装置が起動した直後の初期状態では、オフセット補正値X=0である。
 HPF8xは、角速度検出部6から出力された角速度検出信号ωxに含まれる低周波成分を減衰させるフィルタ処理を行う。この低周波成分には、ノイズの他、オフセット信号も含まれる。
 HPF8xは、低周波成分が最終的にほぼゼロになるようにフィルタ処理を行うが、低周波成分がゼロになるまでには、信号入力からある程度の時間が必要となる。このため、この時間が経過するまでは角速度検出部6のオフセット補正が必要となる。また、HPF8を設けても、オフセット信号を完全には除去できるわけではない。このため、角速度検出部6のオフセット補正が必要となる。
 増幅器9xは、HPF8xから出力される角速度検出信号ωxにゲインを乗じて、角速度検出信号ωxを増幅する。
 積分器10xは、増幅器9xから出力された角速度検出信号ωxを時間で積分して、この時間で撮像装置がx軸回りに動いた角度であるぶれ角θ1を算出する。
 加減算部7yは、角速度検出部6から出力された角速度検出信号ωyにオフセット補正値Yを加算又は減算する。加算を行うか減算を行うかは、制御部11によって設定される。手ぶれ補正装置が起動した直後の初期状態では、オフセット補正値Y=0である。
 HPF8yは、角速度検出部6から出力された角速度検出信号ωyに含まれる低周波成分を減衰させるフィルタ処理を行う。この低周波成分には、ノイズの他、オフセット信号も含まれるが、角速度検出信号ωxと同様に、オフセット補正は必要となる。
 増幅器9yは、HPF8yから出力される角速度検出信号ωyにゲインを乗じて、角速度検出信号ωyを増幅する。
 積分器10yは、増幅器9yから出力された角速度検出信号ωyを時間で積分して、この時間で撮像装置がy軸回りに動いた角度であるぶれ角θ2を算出する。
 制御部11は、ぶれ角θ1に基づき、撮像素子3により撮像して得られる撮像画像データに生じるy方向の像ぶれを補正するための像ぶれ補正量であるレンズ移動量Dyを算出する。
 具体的には、撮像レンズ1の焦点距離をfとすると、f×tanθ1で求まる値が、実際に撮像装置がy方向に動いたぶれ量になる。このため、このぶれ量を相殺するために必要なレンズ移動量Dyは、Dy=-(f×tanθ1)となる。
 また、制御部11は、ぶれ角θ2に基づき、撮像素子3により撮像して得られる撮像画像データに生じるx方向の像ぶれを補正するための像ぶれ補正量であるレンズ移動量Dxを算出する。
 具体的には、f×tanθ2で求まる値が、実際に撮像装置がx方向に動いたぶれ量になる。このため、このぶれ量を相殺するために必要なレンズ移動量Dxは、Dx=-(f×tanθ2)となる。
 制御部11は、算出したレンズ移動量Dxとレンズ移動量Dyをレンズ駆動部2に送信し、レンズ駆動部2により撮像レンズ1をレンズ移動量分移動させて、像ぶれを補正する制御を行う。制御部11は像ぶれ補正部として機能する。
 また、制御部11は、メモリ5に記憶された像ぶれ補正前の撮像画像データ(第一の撮像画像データ)と、この撮像画像データの後に撮像して得られた像ぶれ補正後の撮像画像データ(第二の撮像画像データ)との間の第一の動きベクトルを算出する。そして、制御部11は、この第一の動きベクトルに基づいて、角速度検出部6の検出信号に含まれるオフセット信号を低減するオフセット補正を行う。制御部11は、第一の動きベクトル算出部及びオフセット補正部として機能する。
 以下、図1の撮像装置の手ぶれ補正機能オン時の動作を説明する。
 手ぶれ補正装置を搭載する撮像装置において、手ぶれ補正機能がオンにされると、手ぶれ補正装置が起動する。図2は、手ぶれ補正装置が起動してからの撮像装置の動作を説明するためのフローチャートである。図3は、図2の動作を説明するための図である。
 手ぶれ補正装置が起動すると、制御部11は、起動直前又は直後に撮像素子3により撮像して得られた撮像画像データG(n)(n=1)をメモリ5から取得する(ステップS1)。撮像画像データG(n)は、オフセット補正及び像ぶれ補正がなされていない状態で取得されたデータである。
 次に、制御部11は、図3に示すように、撮像画像データG(1)を得るための露光開始から、撮像画像データG(2)を得るための露光開始までの期間T(1)における角速度検出信号ωx,ωyの積分値(ぶれ角θ1,θ2)を積分器10x,10yから取得する。
 制御部11は、取得したぶれ角θ1,θ2に基づいて、撮像装置の動きによる撮像画像データの像ぶれをキャンセルするために必要なレンズ移動量Dx,Dyを算出する(ステップS2)。
 次に、制御部11は、算出したレンズ移動量Dx,Dyにしたがって撮像レンズ1を駆動して像ぶれ補正を行う(ステップS3)。この像ぶれ補正が行われている期間に、撮像画像データG(n+1)を得るための露光が行われる。
 この露光が終了し、撮像画像データG(n+1)がメモリ5に記憶されると、制御部11は、撮像画像データG(n+1)をメモリ5から取得する(ステップS4)。撮像画像データG(n+1)は、オフセット補正前及び像ぶれ補正後の撮像画像データとなる。
 そして、制御部11は、取得した撮像画像データG(n)と撮像画像データG(n+1)とでパターンマッチングを行い、撮像画像データG(n)及び撮像画像データG(n+1)間の第一の動きベクトル(図3の符号b1)を算出する(ステップS5)。
 第一の動きベクトルb1は、オフセット補正前かつ像ぶれ補正前の撮像画像データを基準としたときの、この撮像画像データより後に得られたオフセット補正前かつ像ぶれ補正後の撮像画像データの動きを示しており、角速度検出部6の検出信号に含まれるオフセット信号により誤補正された動きを反映したものとなる。
 第一の動きベクトルb1は、撮像面におけるx方向の成分であるx方向動きベクトルbx1と、撮像面におけるy方向の成分であるy方向動きベクトルby1とに分解される。
 x方向動きベクトルbx1は、図3において下から上に向かう方向をプラス、図3において上から下に向かう方向をマイナスとしている。y方向動きベクトルby1は、図3において左から右に向かう方向をプラス、図3において右から左に向かう方向をマイナスとしている。
 制御部11は、x方向動きベクトルbx1と撮像レンズ1の焦点距離fを用い、第一の補正値としてのオフセット補正値Ycを生成し、y方向動きベクトルby1と撮像レンズ1の焦点距離fを用い、第一の補正値としてのオフセット補正値Xcを生成する(ステップS6)。制御部11は第一の補正値生成部として機能する。
 x方向動きベクトルbx1は、2つの画像間のx方向の動きを表すものであるため、この動きを角速度検出信号ωyに変換する必要がある。x方向動きベクトルbx1の大きさの単位は画素数であるため、この画素数をy軸回りのぶれ角θyに変換する。tan(θy)={(bx1の大きさ(画素数))*(撮像素子3の画素ピッチ)}/fなので、この式からぶれ角θyが求まる。
 次に、ぶれ角θyは期間T(2)の間の積分値に相当するため、ぶれ角θyを期間T(2)で割った値を、増幅器9yで設定しているゲインで更に割った値が、オフセット補正値Ycの大きさとなる。
 同様に、y方向動きベクトルby1の大きさの単位は画素数であるため、この画素数をx軸回りのぶれ角θxに変換する。tan(θx)={(by1の大きさ(画素数))*(撮像素子3の画素ピッチ)}/fなので、この式から、ぶれ角θxが求まる。
 ぶれ角θxを期間T(2)で割った値を、増幅器9xで設定しているゲインで更に割った値が、オフセット補正値Xcの大きさとなる。
 オフセット補正値Xcとオフセット補正値Ycを、角速度検出部6の検出信号に加算すべきか減算すべきかは、オフセット補正値Xcとオフセット補正値Ycそれぞれの算出の元となった動きベクトルby1又は動きベクトルbx1の向きによって決まる。
 y方向動きベクトルby1の向きがプラスであれば、像ぶれ補正の結果、撮像レンズ1が-y方向に動いたことを示し、角速度検出信号ωxのオフセット信号がプラスであることが分かる。このため、このオフセット信号を相殺すべくオフセット補正値Xcを検出信号から減算する必要がある。また、y方向動きベクトルby1の向きがマイナスであれば、オフセット補正値Xcを検出信号に加算する必要がある。
 同様に、x方向動きベクトルbx1の向きがプラスであれば、像ぶれ補正の結果、撮像レンズ1が-x方向に動いたことを示し、角速度検出信号ωyのオフセット信号がプラスであることが分かる。このため、このオフセット信号を相殺すべくオフセット補正値Ycを検出信号から減算する必要がある。また、x方向動きベクトルbx1の向きがマイナスであれば、オフセット補正値Ycを検出信号に加算する必要がある。
 ステップS6の後、制御部11は、加減算部7xに設定するオフセット補正値Xを、初期値=0から、ステップS6で生成したXcに更新し、加減算部7yに設定するオフセット補正値Yを、初期値=0から、ステップS6で生成したYcに更新する(ステップS7)。
 続いて、制御部11は、加減算部7xに設定する補正方法を、オフセット補正値Xcの生成元の動きベクトルby1の符号がプラスであれば[減算]に設定し、動きベクトルby1の符号がマイナスであれば[加算]に設定する。同様に、制御部11は、加減算部7yに設定する補正方法を、オフセット補正値Ycの生成元の動きベクトルbx1の符号がプラスであれば[減算]に設定し、動きベクトルbx1の符号がマイナスであれば[加算]に設定する(ステップS8)。
 これらの設定により、角速度検出部6から出力される検出信号は、オフセット補正値Xc,Ycが加算又は減算されることでオフセット信号が低減されることになり、オフセット補正が行われる。以降は、オフセット補正された状態で像ぶれ補正量が算出されるため、正確な像ぶれ補正がなされる。
 以上のように、図1の撮像装置は、撮像画像データとこの撮像画像データよりも後に得られた像ぶれ補正後の撮像画像データとの間の第一の動きベクトルに基づいて、角速度検出部6のオフセット信号を低減するオフセット補正を行う。このように、角速度検出部6の検出信号そのものを補正してしまうため、オフセット補正値Xc,Ycと補正方法を設定した後は、オフセット信号に起因する補正動作(動きベクトル算出、オフセット補正値算出等)が不要となり、従来技術と比べて制御部11の演算量を減らすことができる。
 以上の説明では、加減算部7x,7yに設定するオフセット補正値Xc,Ycを、動きベクトルb1の大きさと焦点距離fとによって演算して生成した値にしている。
 この変形例として、オフセット補正値X,Yを一定量ずつ変化させていき、動きベクトルb1の大きさが閾値未満となった時点でのオフセット補正値X,Yを最終的なオフセット補正値として加減算部7x,7yに設定してもよい。
 図4は、手ぶれ補正装置が起動してからの撮像装置の動作の変形例を説明するためのフローチャートである。図5は、図4の動作を説明するための図である。図4において図2と同一処理には同一符号を付して説明を省略する。
 ステップS5の後、制御部11は、オフセット補正値Xとして予め決めた補正値Hxを仮設定し、オフセット補正値Yとして予め決めた補正値Hyを仮設定し、動きベクトルbx1,by1の向きにしたがって補正方法として[加算]又は[減算]を設定する(ステップS20)。
 具体的には、制御部11は、動きベクトルbx1(by1)の向きがプラスであれば加減算部7x(7y)に対して[減算]を設定し、動きベクトルbx1(by1)の向きがマイナスであれば加減算部7x(7y)に対して[加算]を設定する。
 次に、制御部11は、加減算部7x,7yによって補正値Hx,Hyが加算又は減算された検出信号に基づいて像ぶれ補正を行って得られた撮像画像データG(n+2)(第三の撮像画像データ(図5の撮像画像データG(3)))を取得する(ステップS21)。
 次に、制御部11は、補正値Hx,Hyの設定前に得られた撮像画像データG(1)と、撮像画像データG(n+2)との間の動きベクトルb1を算出する(ステップS22)。
 制御部11は、ステップS22で算出した動きベクトルb1のx方向成分である動きベクトルbx1の大きさを閾値Txと比較する(ステップS23)。
 動きベクトルbx1の大きさが閾値Tx以上であれば(ステップS23:NO)、制御部11は、オフセット補正値Xとして仮設定中のHyを一定量変化させる(ステップS26)。例えば、Hyの値を1.5倍した値に変化させる。
 制御部11は、ステップS26の後は、nをn+1にして(ステップS28)、ステップS21の処理を行う。
 ステップS23の判定がYESであれば、制御部11は、ステップS22で算出した動きベクトルb1のy方向成分である動きベクトルby1の大きさを閾値Tyと比較する(ステップS24)。
 動きベクトルby1の大きさが閾値Ty以上であれば(ステップS24:NO)、制御部11は、オフセット補正値Yとして仮設定中のHxを一定量変化させる(ステップS27)。例えば、Hxの値を1.5倍した値に変化させる。
 制御部11は、ステップS27の後は、nをn+1にして(ステップS28)、ステップS21の処理を行う。
 ステップS24の判定がYESであれば、制御部11は、この時点で仮設定されている補正値Hx,Hyを、最終的なオフセット補正値として設定する(ステップS25)。
 以上の動作により、オフセット補正前の撮像画像データと、補正値Hx,Hyによる検出信号の補正後かつ像ぶれ補正後の撮像画像データの間の動きベクトルb1の大きさは、図5に示すように収束していき、撮像画像データG(4)が得られたときにほぼゼロとなる。
 この撮像画像データG(4)を得た時点で仮設定しているオフセット補正値Xc,Ycを最終的な値として設定することで、オフセット信号を低減することができる。この構成によれば、オフセット補正値の算出が不要となるため、演算量を減らして消費電力を下げることができる。
 図1の撮像装置では、制御部11が、角速度検出信号に基づいて像ぶれ補正を行うため、撮像装置の小さな動きについては撮像画像に影響することはない。しかし、パンニング等のように、撮像装置がx方向やy方向に大きく動かされている場合には、像ぶれを補正しきれなくなり、オフセット補正前の撮像画像データと、この撮像画像データよりも後に得られたオフセット補正前かつ像ぶれ補正後の撮像画像データとの間には、オフセット信号に起因した像ぶれに加えて、パンニングに起因した像ぶれが残ることになる。
 図6は、パンニング等によって像ぶれを補正しきれない動きが生じたときの角速度検出信号ωxの変化を示す図である。
 図6に示すように、オフセット補正前にはオフセット信号は正の値であるが、パンニングによって補正しきれない動きがあると、オフセット補正前の撮像画像データと、この撮像画像データよりも後に得られたオフセット補正前かつ像ぶれ補正後の撮像画像データとの間の動きベクトルb1の大きさが、上記動きがないときよりも大きな値となる。このため、オフセット補正後の角速度検出信号ωxは負の値となる。
 そして、オフセット補正の結果、撮像装置の動きが全くない状態において、角速度検出信号ωxが負の値になってしまい、オフセット信号が残ることになる。
 このように、元々存在していたオフセット信号と、オフセット補正の結果によって生じたオフセット信号とで符号が異なっていると、図7に示すように、オフセット補正前の撮像画像データG(n)と、撮像画像データG(n)よりも後に得られたオフセット補正前かつ像ぶれ補正後の撮像画像データG(n+1)との間の第一の動きベクトルb1の向きと、撮像画像データG(n)と、オフセット補正後かつ像ぶれ補正後の撮像画像データG(n+2)の間の第二の動きベクトルb2の向きは逆となる。
 このため、動きベクトルb1,b2の向きが同じか否かで、パンニング等の像ぶれ補正処理によって補正しきれない動きの発生有無を判定することができる。
 図8は、手ぶれ補正装置が起動してからの撮像装置の動作の変形例を説明するためのフローチャートである。図8において、図2と同一処理には同一符号を付して説明を省略する。
 ステップS8の後、制御部11は、撮像画像データG(n+1)を得るための露光開始から、撮像画像データG(n+2)を得るための露光開始までの期間T(n+1)における角速度検出信号ωx,ωyの積分値を積分器10x,10yから取得する。
 そして、制御部11は、取得した積分値に基づいて、撮像装置の動きによる撮像画像データの像ぶれをキャンセルするために必要なレンズ移動量Dx,Dyを算出する(ステップS9)。
 次に、制御部11は、ステップS9で算出したレンズ移動量Dx,Dyにしたがって撮像レンズ1を駆動して像ぶれ補正を行う(ステップS10)。この像ぶれ補正が行われている期間に、撮像画像データG(n+2)を得るための露光が行われる。
 この露光が終了し、撮像画像データG(n+2)がメモリ5に記憶されると、制御部11は、撮像画像データG(n+2)をメモリ5から取得する(ステップS11)。撮像画像データG(n+2)は、オフセット補正後かつ像ぶれ補正後の撮像画像データとなる。
 制御部11は、取得した撮像画像データG(n)と撮像画像データG(n+2)とでパターンマッチングを行い、撮像画像データG(n)及び撮像画像データG(n+2)間の第二の動きベクトル(図7の符号b2)を算出する(ステップS12)。制御部11は第二の動きベクトル算出部として機能する。
 制御部11は、ステップS5で算出した第一の動きベクトルb1の向きと、ステップS12で算出した第二の動きベクトルb2の向きが異なるかどうかを判定する(ステップS13)。
 ここでは、動きベクトルb1,b2をそれぞれx方向成分とy方向成分に分け、同じ方向成分同士で向きが異なるかどうかを判定する。そして、x方向成分とy方向成分のいずれかで向きが異なる場合にはステップS13の判定をYESとし、x方向成分とy方向成分とでいずれも向きが同じになった場合にはステップS13の判定をNOとする。
 ステップS13の判定がYESの場合は、ステップS6で生成したオフセット補正値が正確ではないと判断できる。このため、制御部11は、加減算部7x,7yに設定するオフセット補正値X,Yを初期値(=0)に戻して(ステップS14)、ステップS1に処理を戻す。
 ステップS13の判定がNOの場合は、ステップS6で生成したオフセット補正値が正確であると判断できる。このため、制御部11は、加減算部7x,7yに設定したオフセット補正値Xc,Ycをそのままにして、処理を終了する。
 以上のように、パンニング等によって像ぶれを補正しきれないような動きがあった場合には、オフセット補正値の生成をやり直すことで、オフセット補正精度を向上させることができる。
 図9は、図1の撮像装置における手ぶれ補正装置の部分の変形例を示す図である。
 図9に示した手ぶれ補正装置は、増幅器9xa、積分器10xa、増幅器9ya、積分器10yaを追加した点を除いては図1の手ぶれ補正装置と同じ構成である。
 増幅器9xaは、増幅器9xと同じ機能であるが、加減算部7xの出力信号を直接増幅する点が増幅器9xとは異なる。
 積分器10xaは、積分器10xと同じ機能であり、増幅器9xaの出力信号を積分して制御部11に出力する。
 増幅器9yaは、増幅器9yと同じ機能であるが、加減算部7yの出力信号を直接増幅する点が増幅器9yとは異なる。
 積分器10yaは、積分器10yと同じ機能であり、増幅器9yaの出力信号を積分して制御部11に出力する。
 図9に示す手ぶれ補正装置では、制御部11がオフセット補正値Xcを生成する際に、第一の動きベクトルと焦点距離fに加えて、HPF8yでフィルタ処理前の検出信号に基づいて生成した像ぶれ補正量と、HPF8yでフィルタ処理後の検出信号に基づいて生成した像ぶれ補正量との差分の情報を更に利用する。
 また、図9に示す手ぶれ補正装置では、制御部11がオフセット補正値Ycを生成する際に、第一の動きベクトルと焦点距離fに加えて、HPF8xでフィルタ処理前の検出信号に基づいて生成した像ぶれ補正量と、HPF8xでフィルタ処理後の検出信号に基づいて生成した像ぶれ補正量との差分の情報を更に利用する。
 図1の手ぶれ補正装置では、制御部11が、HPF8xとHPF8yを通した信号に基づいて像ぶれ補正量を算出している。しかし、HPF8xとHPF8yを用いることで、角速度検出信号の一部の情報がカットされてしまう。このため、HPF8xとHPF8yを通した信号に基づいて算出される像ぶれ補正量は、HPF8xとHPF8yを通さずに加減算部7x,7yの出力を直接増幅して得た信号に基づいて算出される像ぶれ補正量に対して誤差を含むことになる。
 そこで、図9の制御部11は、積分器10xで積分して得たぶれ角から算出した像ぶれ補正量と、積分器10xaで積分して得たぶれ角から算出した像ぶれ補正量との差分を求める。そして、この差分を単位時間あたりの角速度検出信号ωxの値に変換し、この値をオフセット補正値Xcから減算する。
 このようにすることで、HPF8xを用いたことにより生じる像ぶれ補正誤差分をオフセット補正時に補正しなくてすむようになり、オフセット補正を精度良く行うことができる。
 同様に、図9の制御部11は、積分器10yで積分して得たぶれ角から算出した像ぶれ補正量と、積分器10yaで積分して得たぶれ角から算出した像ぶれ補正量との差分を求める。そして、この差分を単位時間あたりの角速度検出信号ωyの値に変換し、この値をオフセット補正値Ycから減算する。
 このようにすることで、HPF8yを用いたことにより生じる像ぶれ補正誤差分をオフセット補正時に補正しなくてすむようになり、オフセット補正を精度良く行うことができる。
 ここまでは、制御部11が行う像ぶれ補正の方法として、撮像レンズ1をx方向及びy方向に移動させる方法を例に説明した。しかし、像ぶれ補正の方法としては、撮像レンズ1を固定にし、撮像素子3をx方向及びy方向に移動させる方法を採用してもよいし、撮像レンズ1と撮像素子3をそれぞれ移動させる方法を採用してもよい。
 また、ここまでは、オフセット補正を手ぶれ補正装置の起動時にのみ行うものとしたが、起動後、定期的にオフセット補正値の設定をやり直してもよい。
 角速度検出部6のオフセット信号は、周辺環境(温度等)によって変化する。このため、環境がかわったことを検知し、このタイミングでオフセット補正値の再設定を行うことで、正確なオフセット補正が可能になる。また、オフセット補正値の設定を手動で開始できるようにしてもよい。
 図2の動作例では、制御部11がオフセット補正値Xc,Ycを演算により求めるものとした。この変形例として、第一の動きベクトルの大きさと、これに対応するオフセット補正値Xc,Ycとの関係を予め求めてテーブルを作成しておき、このテーブルからオフセット補正値Xc,Ycを読み出して設定してもよい。これにより演算を減らして消費電力を低減することができる。
 このように、第一の動きベクトルとテーブルを用いてオフセット補正を行う構成においても、第一の動きベクトルの大きさに対し、HPF8x,8yでフィルタ処理前の検出信号に基づいて生成した像ぶれ補正量と、HPF8x,8yでフィルタ処理後の検出信号に基づいて生成した像ぶれ補正量との差分の情報を更に関連付けて記憶しておく。
 このようにすることで、HPF8x,8yを用いたことにより生じる像ぶれ補正誤差分をオフセット補正時に補正しなくてすむようになり、オフセット補正の精度を向上させることができる。
 撮像レンズ1は焦点距離可変のものとしたが、固定焦点距離のものであっても、本発明を適用可能である。
 ここまでは、オフセット補正前かつ像ぶれ補正前の撮像画像データを基準としたときの、この撮像画像データより後に得られたオフセット補正前かつ像ぶれ補正後の撮像画像データの動きを第一の動きベクトルとして算出した。
 しかし、オフセット補正前かつ像ぶれ補正後の撮像画像データを基準としたときの、この撮像画像データより後に得られたオフセット補正前かつ像ぶれ補正後の撮像画像データの動きを第一の動きベクトルとして算出してもよい。
 撮像画像データを得るための露光時間が短いときは、各撮像画像データにおいて像ぶれが生じにくい。このため、像ぶれ補正前の撮像画像データを基準として第一の動きベクトルを算出しても、第一の動きベクトルはオフセット信号による撮像画像データ間の像ぶれを反映したものとなる。
 一方で、撮像画像データを得るための露光時間が長いときは、露光期間中に撮像装置が動くことによって撮像画像データにおいて像ぶれが生じやすい。図10に示した撮像画像データG(1)は、図11に示すように、1回の露光期間中に得られたものであり、十字の画像がy方向に少しずつずれて重なった画像が撮像されたものである。
 このように、撮像画像データG(1)において像ぶれがあると、像ぶれ補正前の撮像画像データG(1)と、図10に示した像ぶれ補正後の撮像画像データG(2)とで異なる被写体像が含まれることになる。このため、パターンマッチングがうまくできなくなって、第一の動きベクトルを正確に算出できない可能性がある。
 そこで、露光時間が長い場合には、像ぶれ補正後の撮像画像データを基準として第一の動きベクトルを算出することで、第一の動きベクトルの算出精度を上げることができ、精度の高いオフセット補正が可能となる。
 次に、露光時間が長いときにおける、図1に示した撮像装置の動作の変形例について説明する。
 図12は、図1に示した撮像装置の動作の変形例を説明するためのフローチャートである。
 手ぶれ補正装置が起動すると、制御部11は、起動直前又は直後に撮像素子3により撮像して得られた像ぶれが補正された撮像画像データG(n)(n=1)をメモリ5から取得する(ステップS31)。
 次に、制御部11は、撮像画像データG(n)に生じている像ぶれ量B(n)を算出する(ステップS32)。制御部11は像ぶれ量算出部として機能する。制御部11は、例えば特許文献2に記載された方法によって像ぶれ量B(n)を算出する。
 すなわち、制御部11は、撮像画像データG(n)中の1又は複数の箇所において、隣接する画素データの輝度の差を比較して、像の縁(エッジ)がぼけによって拡がった箇所を特定し、この拡がりの幅を像ぶれ量(単位:画素数)として算出する。
 像ぶれ量B(n)は、x方向成分とy方向成分に分解して算出する。像ぶれ量B(n)のうちx方向成分を像ぶれ量Bx(n)といい、像ぶれ量B(n)のうちy方向成分を像ぶれ量By(n)という。
 次に、制御部11は、像ぶれ量Bx(n)に対応する第二の補正値として補正値Ybを生成し、像ぶれ量By(n)に対応する第二の補正値として補正値Xbを生成する。更に、制御部11は、加減算部7xに設定するオフセット補正値Xとして補正値Xbを仮設定し、加減算部7yに設定するオフセット補正値Yとして補正値Ybを仮設定し、補正方法として[加算]又は[減算]を設定する(ステップS33)。制御部11は第二の補正値生成部として機能する。
 制御部11は、像ぶれ量Bx(n)を時間微分した値に、撮像素子3の画素ピッチと角速度検出部6の感度特性(1mVの出力がy軸回りの何deg/secに相当するかを示すデータ)との相関係数を乗じて、補正値Ybを生成する。
 像ぶれ量Bx(n)を時間微分することでぶれ速度(画素/sec)を得ることができる。このぶれ速度をy軸回りの角速度検出信号(mV)に変換するために、このぶれ速度に相関係数を乗じる。上記相関係数は、1画素分の移動がy軸回りの何°の角度の移動に相当するかを示す係数であり、像ぶれ量Bx(n)を時間微分して得たぶれ速度にこの相関係数を乗じることで、補正値Yb(単位:mV)を得ることができる。
 同様に、制御部11は、像ぶれ量By(n)を時間微分した値に、撮像素子3の画素ピッチと角速度検出部6の感度特性(1mVの出力がx軸回りの何deg/secに相当するかを示すデータ)との相関係数を乗じて、補正値Xbを生成する。
 ステップS33の後、制御部11は、加減算部7x,7yによって補正値Xb,Ybが加算又は減算された検出信号に基づいて像ぶれ補正を行って得られた撮像画像データG(n+1)を取得する(ステップS34)。
 次に、制御部11は、撮像画像データG(n+1)に生じている像ぶれ量B(n+1)を算出する(ステップS35)。像ぶれ量B(n)は第一の像ぶれ量に対応し、像ぶれ量B(n+1)は第二の像ぶれ量に対応する。
 次に、制御部11は、ステップS32で算出した像ぶれ量Bx(n)と、ステップS35で算出した像ぶれ量Bx(n+1)とを比較する(ステップS36)。
 像ぶれ量Bx(n+1)が像ぶれ量Bx(n)以上である場合(ステップS36:NO)は、角速度検出部6の検出信号に補正値Ybを加算又は減算した結果、x方向の像ぶれ量が減っておらず、ステップS33で仮設定した補正方法が謝っていると判断できる。このため、制御部11は、ステップS37において、加減算部7yに設定する補正方法を、加算であれば減算に変更し、減算であれば加算に変更する。
 像ぶれ量Bx(n+1)が像ぶれ量Bx(n)未満である場合(ステップS36:YES)、制御部11は、像ぶれ量By(n+1)と像ぶれ量By(n)を比較する(ステップS38)。
 像ぶれ量By(n+1)が像ぶれ量By(n)以上である場合(ステップS38:NO)は、角速度検出部6の検出信号に補正値Xbを加算又は減算した結果、y方向の像ぶれ量が減っておらず、ステップS33で仮設定した補正方法が謝っていると判断できる。このため、制御部11は、加減算部7xに設定する補正方法を、加算であれば減算に変更し、減算であれば加算に変更する(ステップS39)。
 像ぶれ量By(n+1)が像ぶれ量By(n)未満である場合(ステップS38:YES)、制御部11は、加減算部7x,7yに対し現時点で設定している補正方法及びXb,Ybを確定する(ステップS40)。
 ステップS40の処理により、角速度検出部6から出力される検出信号は、オフセット補正値Xb,Ybが加算又は減算されることでオフセット信号が低減されることになり、オフセット補正が行われる。以降は、オフセット補正された状態で像ぶれ補正量が算出されるため、正確な像ぶれ補正がなされる。
 以上のように、図12の動作例によれば、2つの撮像画像データ間の動きベクトルを算出しなくともオフセット補正が可能になる。この動作例においても、角速度検出部6の検出信号そのものを補正してしまうため、補正方法及びオフセット補正値Xb,Ybを設定した後は、オフセット信号に起因する補正動作が不要となり、従来技術と比べて制御部11の演算量を減らすことができる。
 図13は、図1に示した撮像装置の動作の別の変形例を説明するためのフローチャートである。図13において図12と同じ処理には同一符号を付して説明を省略する。
 ステップS32の後、制御部11は、加減算部7xに設定するオフセット補正値Xを補正値Hxに仮設定し、補正方法として[加算]又は[減算]を設定する。また、制御部11は、加減算部7yに設定するオフセット補正値Yとして補正値Hyを仮設定し、補正方法として[加算]又は[減算]を設定する(ステップS41)。
 次に、制御部11は、加減算部7x,7yによって補正値Hx,Hyが加算又は減算された検出信号に基づいて像ぶれ補正を行って得られた撮像画像データG(n+1)を取得する(ステップS42)。
 次に、制御部11は、撮像画像データG(n+1)に生じている像ぶれ量B(n+1)を算出する(ステップS43)。
 次に、制御部11は、ステップS32で算出した像ぶれ量Bx(n)と、ステップS43で算出した像ぶれ量Bx(n+1)とを比較する(ステップS44)。
 像ぶれ量Bx(n+1)が像ぶれ量Bx(n)以上である場合(ステップS44:NO)、制御部11は、加減算部7yに仮設定中の補正方法を、加算であれば減算に、減算であれば加算に変更する(ステップS50)。制御部11は、ステップS50の後は、nをn+1に更新して(ステップS54)、ステップS42の処理を行う。
 像ぶれ量Bx(n+1)が像ぶれ量Bx(n)未満である場合(ステップS44:YES)、制御部11は、ステップS32で算出した像ぶれ量By(n)と、ステップS43で算出した像ぶれ量By(n+1)とを比較する(ステップS45)。
 像ぶれ量By(n+1)が像ぶれ量By(n)以上である場合(ステップS45:NO)、制御部11は、加減算部7xに仮設定中の補正方法を、加算であれば減算に、減算であれば加算に変更する(ステップS51)。ステップS51の後はステップS54に移行する。
 像ぶれ量By(n+1)が像ぶれ量By(n)未満である場合(ステップS45:YES)、制御部11は、像ぶれ量Bx(n+1)が閾値TH1未満であるか否かを判定する(ステップS46)。
 ステップS46の判定がNOのとき、制御部11は、加減算部7yに設定するオフセット補正値をHyから一定量変化させる(ステップS52)。例えばHyの値を1.5倍にした値に変更する。ステップS52の後はステップS54に移行する。
 ステップS46の判定がYESのとき、制御部11は、像ぶれ量By(n+1)が閾値TH2未満であるか否かを判定する(ステップS47)。
 ステップS47の判定がNOのとき、制御部11は、加減算部7xに設定するオフセット補正値をHxから一定量変化させる。例えばHxの値を1.5倍にした値に変更する。ステップS53の後はステップS54に移行する。
 ステップS47の判定がYESのとき、制御部11は、現時点で設定している補正方法及びオフセット補正値Hx,Hyを、最終的な補正方法及びオフセット補正値として設定する(ステップS48)。
 ステップS48の処理により、角速度検出部6から出力される検出信号は、オフセット補正値Hx,Hyが加算又は減算されることでオフセット信号が低減されることになり、オフセット補正が行われる。以降は、オフセット補正された状態で像ぶれ補正量が算出されるため、正確な像ぶれ補正がなされる。
 このように、制御部11は、角速度検出部6の検出信号に補正値Hx,Hyを加算又は減算した後の検出信号に基づいて像ぶれが補正された撮像画像データから算出した像ぶれ量が閾値未満になるまで補正値Hx,Hyを一定量ずつ変化させていき、その像ぶれ量が閾値未満になった状態での補正値Hx,Hyを角速度検出部6の検出信号に加算又は減算してオフセット補正を行う。
 以上の動作により、像ぶれ補正後の撮像画像データに生じる像ぶれ量は収束していき、最終的にはほぼゼロとなる。この時点で仮設定している補正方法及びオフセット補正値X,Yを最終的な値として設定することで、オフセット信号を低減することができる。この構成によれば、像ぶれ量に対応する補正値の算出が不要となるため、演算量を減らして消費電力を下げることができる。
 以上説明してきたように、本明細書に以下の事項が開示されている。
 開示された手ぶれ補正装置は、角速度を検出する角速度検出部と、上記角速度検出部の検出信号に基づき、撮像光学系を通して被写体を撮像する撮像素子と上記撮像光学系との少なくとも一方を動かして、上記撮像素子により撮像して得られる撮像画像データに生じる像ぶれを補正する像ぶれ補正部と、上記撮像素子により撮像して得られた第一の撮像画像データと上記第一の撮像画像データよりも後に得られ上記像ぶれ補正部によって像ぶれが補正された第二の撮像画像データとの間の第一の動きベクトルを算出する第一の動きベクトル算出部と、上記第一の動きベクトルに基づいて、上記角速度検出部の検出信号に含まれるオフセット信号を低減するオフセット補正を行うオフセット補正部と、を備えるものである。
 開示された手ぶれ補正装置は、上記オフセット補正部は、上記第一の動きベクトル算出部によって算出され、上記第一の動きベクトルの向きにしたがって補正値を加算又は減算した後の上記検出信号に基づいて像ぶれが補正された第三の撮像画像データと上記第一の撮像画像データとの間の第一の動きベクトルの大きさが閾値未満になるまで上記補正値を一定量ずつ変化させていき、上記第一の動きベクトルの大きさが上記閾値未満になったときの上記補正値を上記検出信号に加算又は減算して上記オフセット信号を低減するものである。
 開示された手ぶれ補正装置は、上記撮像光学系は焦点距離可変のものであり、上記第一の動きベクトルの大きさと上記撮像光学系の焦点距離とを用いて補正値を生成する第一の補正値生成部を更に備え、上記オフセット補正部は、上記第一の動きベクトルの向きにしたがって、上記角速度検出部の検出信号に上記補正値を加算又は減算してオフセット補正を行うものである。
 開示された手ぶれ補正装置は、上記角速度検出部の検出信号の低周波成分を減衰させるフィルタ処理を行うフィルタ処理部を更に備え、上記像ぶれ補正部は、上記フィルタ処理後の検出信号に基づいて生成した像ぶれ補正量にしたがって像ぶれを補正し、上記第一の補正値生成部は、上記フィルタ処理前の上記検出信号に基づいて生成した像ぶれ補正量と、上記フィルタ処理後の検出信号に基づいて生成した像ぶれ補正量との差分を更に用いて上記補正値を生成するものである。
 開示された手ぶれ補正装置は、上記角速度検出部の検出信号の低周波成分を減衰させるフィルタ処理を行うフィルタ処理部を更に備え、上記像ぶれ補正部は、上記フィルタ処理後の検出信号に基づいて生成した像ぶれ補正量にしたがって像ぶれを補正し、上記オフセット補正部は、上記フィルタ処理前の上記検出信号に基づいて生成した像ぶれ補正量と、上記フィルタ処理後の検出信号に基づいて生成した像ぶれ補正量との差分を更に用いて上記オフセット補正を行うものである。
 開示された手ぶれ補正装置は、上記第一の撮像画像データと、上記オフセット補正部によるオフセット信号低減後の上記角速度検出部の検出信号に基づいて像ぶれが補正された撮像画像データとの間の第二の動きベクトルを算出する第二の動きベクトル算出部を更に備え、上記第一の動きベクトルの向きと、上記第二の動きベクトルの向きが逆である場合に、上記オフセット補正部は、新たに算出される上記第一の動きベクトルに基づいて上記オフセット補正をやり直すものである。
 開示された手ぶれ補正装置は、上記オフセット補正部は、少なくとも上記手ぶれ補正装置の起動時に上記オフセット補正を行うものである。
 開示された手ぶれ補正装置は、角速度を検出する角速度検出部と、上記角速度検出部の検出信号に基づき、撮像光学系を通して被写体を撮像する撮像素子と上記撮像光学系との少なくとも一方を動かして、上記撮像素子により撮像して得られる撮像画像データに生じる像ぶれを補正する像ぶれ補正部と、上記像ぶれ補正部によって像ぶれが補正された撮像画像データからその撮像画像データに生じている像ぶれ量を算出する像ぶれ量算出部と、上記像ぶれ量に基づいて、上記角速度検出部の検出信号に含まれるオフセット信号を低減するオフセット補正を行うオフセット補正部と、を備えるものである。
 開示された手ぶれ補正装置は、上記像ぶれ量に対応する補正値を生成する第二の補正値生成部を更に備え、上記オフセット補正部は、上記角速度検出部の検出信号に上記補正値を加算又は減算してオフセット補正を行うものである。
 開示された手ぶれ補正装置は、上記オフセット補正部は、上記補正値を加算又は減算する前の上記検出信号に基づいて像ぶれが補正された撮像画像データから上記像ぶれ量算出部によって算出された第一の像ぶれ量と、上記補正値を加算又は減算した後の上記検出信号に基づいて像ぶれが補正された撮像画像データから上記像ぶれ量算出部によって算出された第二の像ぶれ量との大小関係にしたがって、上記検出信号に上記補正値を加算するか減算するかを決定するものである。
 開示された手ぶれ補正装置は、上記第二の補正値生成部は、上記像ぶれ量を時間微分した値に、上記撮像素子の画素ピッチと上記角速度検出部の感度特性との相関係数を乗じて、上記補正値を生成するものである。
 開示された手ぶれ補正装置は、上記オフセット補正部は、上記角速度検出部の検出信号に補正値を加算又は減算した後の上記検出信号に基づいて像ぶれが補正された撮像画像データから上記像ぶれ量算出部によって算出される像ぶれ量が閾値未満になるまで上記補正値を一定量ずつ変化させていき、その像ぶれ量が閾値未満になった状態での上記補正値を上記角速度検出部の検出信号に加算又は減算してオフセット補正を行うものである。
 開示された手ぶれ撮像装置は、上記手ぶれ補正装置を備えるものである。
 本発明は、特にデジタルカメラやカメラ付きスマートフォン等の撮像機能を有する電子機器(撮像装置と称す)に適用して利便性が高く、有効である。
 以上、本発明を特定の実施形態によって説明したが、本発明はこの実施形態に限定されるものではなく、開示された発明の技術思想を逸脱しない範囲で種々の変更が可能である。
 本出願は、2014年3月25日出願の日本特許出願(特願2014-062194)に基づくものであり、その内容はここに取り込まれる。
1 撮像レンズ(撮像光学系)
3 撮像素子
6 角速度検出部
7x,7y 加減算部
8x,8y ハイパスフィルタ(フィルタ処理部)
11 制御部(第一の動きベクトル算出部、第二の動きベクトル算出部、第一の補正値生成部、第二の補正値生成部、オフセット補正部、像ぶれ補正部、像ぶれ量算出部)

Claims (13)

  1.  角速度を検出する角速度検出部と、
     前記角速度検出部の検出信号に基づき、撮像光学系を通して被写体を撮像する撮像素子と前記撮像光学系との少なくとも一方を動かして、前記撮像素子により撮像して得られる撮像画像データに生じる像ぶれを補正する像ぶれ補正部と、
     前記撮像素子により撮像して得られた第一の撮像画像データと前記第一の撮像画像データよりも後に得られ前記像ぶれ補正部によって像ぶれが補正された第二の撮像画像データとの間の第一の動きベクトルを算出する第一の動きベクトル算出部と、
     前記第一の動きベクトルに基づいて、前記角速度検出部の検出信号に含まれるオフセット信号を低減するオフセット補正を行うオフセット補正部と、を備える手ぶれ補正装置。
  2.  請求項1記載の手ぶれ補正装置であって、
     前記オフセット補正部は、前記第一の動きベクトル算出部によって算出され、前記第一の動きベクトルの向きにしたがって補正値を加算又は減算した後の前記検出信号に基づいて像ぶれが補正された第三の撮像画像データと前記第一の撮像画像データとの間の第一の動きベクトルの大きさが閾値未満になるまで前記補正値を一定量ずつ変化させていき、前記第一の動きベクトルの大きさが前記閾値未満になったときの前記補正値を前記検出信号に加算又は減算して前記オフセット信号を低減する手ぶれ補正装置。
  3.  請求項1記載の手ぶれ補正装置であって、
     前記撮像光学系は焦点距離可変のものであり、
     前記第一の動きベクトルの大きさと前記撮像光学系の焦点距離とを用いて補正値を生成する第一の補正値生成部を更に備え、
     前記オフセット補正部は、前記第一の動きベクトルの向きにしたがって、前記角速度検出部の検出信号に前記補正値を加算又は減算してオフセット補正を行う手ぶれ補正装置。
  4.  請求項3記載の手ぶれ補正装置であって、
     前記角速度検出部の検出信号の低周波成分を減衰させるフィルタ処理を行うフィルタ処理部を更に備え、
     前記像ぶれ補正部は、前記フィルタ処理後の検出信号に基づいて生成した像ぶれ補正量にしたがって像ぶれを補正し、
     前記第一の補正値生成部は、前記フィルタ処理前の前記検出信号に基づいて生成した像ぶれ補正量と、前記フィルタ処理後の検出信号に基づいて生成した像ぶれ補正量との差分を更に用いて前記補正値を生成する手ぶれ補正装置。
  5.  請求項1記載の手ぶれ補正装置であって、
     前記角速度検出部の検出信号の低周波成分を減衰させるフィルタ処理を行うフィルタ処理部を更に備え、
     前記像ぶれ補正部は、前記フィルタ処理後の検出信号に基づいて生成した像ぶれ補正量にしたがって像ぶれを補正し、
     前記オフセット補正部は、前記フィルタ処理前の前記検出信号に基づいて生成した像ぶれ補正量と、前記フィルタ処理後の検出信号に基づいて生成した像ぶれ補正量との差分を更に用いて前記オフセット補正を行う手ぶれ補正装置。
  6.  請求項3~5のいずれか1項記載の手ぶれ補正装置であって、
     前記第一の撮像画像データと、前記オフセット補正部によるオフセット信号低減後の前記角速度検出部の検出信号に基づいて像ぶれが補正された撮像画像データとの間の第二の動きベクトルを算出する第二の動きベクトル算出部を更に備え、
     前記第一の動きベクトルの向きと、前記第二の動きベクトルの向きが逆である場合に、前記オフセット補正部は、新たに算出される前記第一の動きベクトルに基づいて前記オフセット補正をやり直す手ぶれ補正装置。
  7.  請求項1~6のいずれか1項記載の手ぶれ補正装置であって、
     前記オフセット補正部は、少なくとも前記手ぶれ補正装置の起動時に前記オフセット補正を行う手ぶれ補正装置。
  8.  角速度を検出する角速度検出部と、
     前記角速度検出部の検出信号に基づき、撮像光学系を通して被写体を撮像する撮像素子と前記撮像光学系との少なくとも一方を動かして、前記撮像素子により撮像して得られる撮像画像データに生じる像ぶれを補正する像ぶれ補正部と、
     前記像ぶれ補正部によって像ぶれが補正された撮像画像データから当該撮像画像データに生じている像ぶれ量を算出する像ぶれ量算出部と、
     前記像ぶれ量に基づいて、前記角速度検出部の検出信号に含まれるオフセット信号を低減するオフセット補正を行うオフセット補正部と、を備える手ぶれ補正装置。
  9.  請求項8記載の手ぶれ補正装置であって、
     前記像ぶれ量に対応する補正値を生成する第二の補正値生成部を更に備え、
     前記オフセット補正部は、前記角速度検出部の検出信号に前記補正値を加算又は減算してオフセット補正を行う手ぶれ補正装置。
  10.  請求項9記載の手ぶれ補正装置であって、
     前記オフセット補正部は、前記補正値を加算又は減算する前の前記検出信号に基づいて像ぶれが補正された撮像画像データから前記像ぶれ量算出部によって算出された第一の像ぶれ量と、前記補正値を加算又は減算した後の前記検出信号に基づいて像ぶれが補正された撮像画像データから前記像ぶれ量算出部によって算出された第二の像ぶれ量との大小関係にしたがって、前記検出信号に前記補正値を加算するか減算するかを決定する手ぶれ補正装置。
  11.  請求項9又は10記載の手ぶれ補正装置であって、
     前記第二の補正値生成部は、前記像ぶれ量を時間微分した値に、前記撮像素子の画素ピッチと前記角速度検出部の感度特性との相関係数を乗じて、前記補正値を生成する手ぶれ補正装置。
  12.  請求項8記載の手ぶれ補正装置であって、
     前記オフセット補正部は、前記角速度検出部の検出信号に補正値を加算又は減算した後の前記検出信号に基づいて像ぶれが補正された撮像画像データから前記像ぶれ量算出部によって算出される像ぶれ量が閾値未満になるまで前記補正値を一定量ずつ変化させていき、当該像ぶれ量が閾値未満になった状態での前記補正値を前記角速度検出部の検出信号に加算又は減算してオフセット補正を行う手ぶれ補正装置。
  13.  請求項1~12のいずれか1項記載の手ぶれ補正装置を備える撮像装置。
PCT/JP2014/079696 2014-03-25 2014-11-10 手ぶれ補正装置、撮像装置 WO2015145858A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016509897A JP6040338B2 (ja) 2014-03-25 2014-11-10 手ぶれ補正装置、撮像装置
US15/273,799 US9986164B2 (en) 2014-03-25 2016-09-23 Camera shaking correction device and imaging apparatus with offset correction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014062194 2014-03-25
JP2014-062194 2014-03-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/273,799 Continuation US9986164B2 (en) 2014-03-25 2016-09-23 Camera shaking correction device and imaging apparatus with offset correction

Publications (1)

Publication Number Publication Date
WO2015145858A1 true WO2015145858A1 (ja) 2015-10-01

Family

ID=54194428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/079696 WO2015145858A1 (ja) 2014-03-25 2014-11-10 手ぶれ補正装置、撮像装置

Country Status (3)

Country Link
US (1) US9986164B2 (ja)
JP (1) JP6040338B2 (ja)
WO (1) WO2015145858A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212681A (ja) * 2016-05-27 2017-11-30 キヤノン株式会社 防振制御装置、光学機器および防振制御プログラム
WO2018030166A1 (ja) * 2016-08-12 2018-02-15 キヤノン株式会社 像ブレ補正装置、光学機器、および像ブレ補正方法
WO2018047406A1 (ja) * 2016-09-07 2018-03-15 富士フイルム株式会社 ぶれ補正装置、ぶれ補正方法、ぶれ補正プログラム、レンズ装置、及び、撮像装置
CN108377330A (zh) * 2017-01-31 2018-08-07 佳能株式会社 图像抖动校正设备、镜头设备、摄像设备和控制方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598549B2 (ja) * 2015-07-23 2019-10-30 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置およびその制御方法
US9912868B2 (en) * 2015-09-15 2018-03-06 Canon Kabushiki Kaisha Image-blur correction apparatus, tilt correction apparatus, method of controlling image-blur correction apparatus, and method of controlling tilt correction apparatus
JP6700874B2 (ja) * 2016-03-08 2020-05-27 キヤノン株式会社 像ブレ補正装置及びその制御方法、プログラム、記憶媒体
JP7058945B2 (ja) * 2017-04-24 2022-04-25 キヤノン株式会社 像ブレ補正装置およびその制御方法、撮像装置
JP7354129B2 (ja) * 2018-02-28 2023-10-02 レール ビジョン リミテッド 光学センサの内蔵試験のためのシステムおよび方法
JP7197785B2 (ja) * 2019-01-28 2022-12-28 日本電信電話株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
US11290650B2 (en) * 2019-07-04 2022-03-29 Canon Kabushiki Kaisha Image blur information acquisition apparatus and method, and storage medium
JP2021149067A (ja) * 2020-03-23 2021-09-27 キヤノン株式会社 像ブレ補正装置及びその制御方法、プログラム、記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151542A (ja) * 2003-10-21 2005-06-09 Nikon Corp ブレ補正装置、およびカメラシステム
JP2009211023A (ja) * 2007-04-19 2009-09-17 Panasonic Corp 撮像装置の手ぶれ補正機能の評価方法および手ぶれモデル波形の生成方法
JP2011022354A (ja) * 2009-07-15 2011-02-03 Canon Inc ブレ補正装置
JP2012163772A (ja) * 2011-02-07 2012-08-30 Canon Inc 撮像装置およびその制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007221291A (ja) 2006-02-15 2007-08-30 Seiko Epson Corp 画像処理装置、撮影装置、画像処理方法、及び、制御プログラム
JP4740008B2 (ja) 2006-03-27 2011-08-03 三洋電機株式会社 手ぶれ検出装置およびデジタルカメラ
US8169510B2 (en) * 2007-12-18 2012-05-01 Sony Corporation Data processing device, data processing method, and storage medium
JP5210198B2 (ja) * 2009-02-13 2013-06-12 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム
JP2014143530A (ja) * 2013-01-23 2014-08-07 Sony Corp 情報処理装置と情報処理方法および撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151542A (ja) * 2003-10-21 2005-06-09 Nikon Corp ブレ補正装置、およびカメラシステム
JP2009211023A (ja) * 2007-04-19 2009-09-17 Panasonic Corp 撮像装置の手ぶれ補正機能の評価方法および手ぶれモデル波形の生成方法
JP2011022354A (ja) * 2009-07-15 2011-02-03 Canon Inc ブレ補正装置
JP2012163772A (ja) * 2011-02-07 2012-08-30 Canon Inc 撮像装置およびその制御方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212681A (ja) * 2016-05-27 2017-11-30 キヤノン株式会社 防振制御装置、光学機器および防振制御プログラム
WO2018030166A1 (ja) * 2016-08-12 2018-02-15 キヤノン株式会社 像ブレ補正装置、光学機器、および像ブレ補正方法
US10791270B2 (en) 2016-08-12 2020-09-29 Canon Kabushiki Kaisha Image stabilization apparatus capable of accurately estimating an offset component of an angular velocity sensor, optical apparatus, and image stabilization method
WO2018047406A1 (ja) * 2016-09-07 2018-03-15 富士フイルム株式会社 ぶれ補正装置、ぶれ補正方法、ぶれ補正プログラム、レンズ装置、及び、撮像装置
JP6496883B2 (ja) * 2016-09-07 2019-04-10 富士フイルム株式会社 ぶれ補正装置、ぶれ補正方法、ぶれ補正プログラム、レンズ装置、及び、撮像装置
JPWO2018047406A1 (ja) * 2016-09-07 2019-04-18 富士フイルム株式会社 ぶれ補正装置、ぶれ補正方法、ぶれ補正プログラム、レンズ装置、及び、撮像装置
CN109690397A (zh) * 2016-09-07 2019-04-26 富士胶片株式会社 模糊校正装置、模糊校正方法、模糊校正程序、透镜装置及摄像装置
US10652467B2 (en) 2016-09-07 2020-05-12 Fujifilm Corporation Shake correction device, shake correction method, shake correction program, lens device, and imaging device
CN109690397B (zh) * 2016-09-07 2021-02-12 富士胶片株式会社 模糊校正装置、模糊校正方法、记录介质、透镜装置及摄像装置
US11089222B2 (en) 2016-09-07 2021-08-10 Fujifilm Corporation Shake correction device, shake correction method, shake correction program, lens device, and imaging device
CN108377330A (zh) * 2017-01-31 2018-08-07 佳能株式会社 图像抖动校正设备、镜头设备、摄像设备和控制方法
JP2018124357A (ja) * 2017-01-31 2018-08-09 キヤノン株式会社 像ブレ補正装置およびその制御方法、撮像装置、レンズ装置

Also Published As

Publication number Publication date
US9986164B2 (en) 2018-05-29
JPWO2015145858A1 (ja) 2017-04-13
JP6040338B2 (ja) 2016-12-07
US20170013198A1 (en) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6040338B2 (ja) 手ぶれ補正装置、撮像装置
US9264616B2 (en) Image capturing apparatus, method of controlling the same, and storage medium for correcting image blurring of a captured image
US8811809B2 (en) Image stabilization apparatus, control method therefor, optical apparatus and imaging apparatus
KR102036084B1 (ko) 흔들림 보정장치, 촬상 장치 및 흔들림 보정방법
US8767079B2 (en) Image capture apparatus and control method thereof
JP6257207B2 (ja) 像振れ補正装置およびその制御方法、レンズ鏡筒、並びに撮像装置
CN104345517A (zh) 图像抖动校正设备和方法、镜筒、光学设备以及摄像设备
JP2016024235A5 (ja)
KR20160140193A (ko) 영상 보정 회로 및 그 보정 방법
JP2012060472A (ja) 光学機器及びそれを備えた撮像装置、光学機器の制御方法
JP2017219635A5 (ja)
KR102449354B1 (ko) 이미지 안정화 모듈 및 카메라 모듈
JP6171575B2 (ja) ブレ補正装置及び光学機器
JP5599039B2 (ja) 像ブレ補正機能付き光学装置
JP2012163772A (ja) 撮像装置およびその制御方法
JP6268981B2 (ja) ブレ補正装置、交換レンズ及びカメラ
JP6171576B2 (ja) ブレ補正装置及び光学機器
JP5699806B2 (ja) 撮像装置
CN106921832B (zh) 光学式图像稳定化模块以及相机模块
JP7175702B2 (ja) 像ブレ補正装置およびその制御方法、撮像装置
JP6590018B2 (ja) ブレ補正装置及びカメラ
JP6468343B2 (ja) 交換レンズ及び光学機器
JP6318502B2 (ja) ブレ補正装置及び光学機器
JP6230316B2 (ja) 像振れ補正装置及びその制御方法、並びにプログラム
WO2020012960A1 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14887009

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016509897

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14887009

Country of ref document: EP

Kind code of ref document: A1