JP2022098082A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2022098082A
JP2022098082A JP2020211423A JP2020211423A JP2022098082A JP 2022098082 A JP2022098082 A JP 2022098082A JP 2020211423 A JP2020211423 A JP 2020211423A JP 2020211423 A JP2020211423 A JP 2020211423A JP 2022098082 A JP2022098082 A JP 2022098082A
Authority
JP
Japan
Prior art keywords
image
blur
unit
amount
detection data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020211423A
Other languages
Japanese (ja)
Inventor
征司 門田
Seiji Kadota
直也 羽田
Naoya Haneda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2020211423A priority Critical patent/JP2022098082A/en
Priority to PCT/JP2021/044816 priority patent/WO2022138122A1/en
Publication of JP2022098082A publication Critical patent/JP2022098082A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

To make it possible to reduce power consumption during image blur correction.SOLUTION: Detection data indicating a shake of an image capturing unit is acquired at predetermined time intervals. Control information for controlling a blur correcting unit that corrects image blur caused by the shake of the image capturing unit is generated on the basis of the acquired detection data. The time intervals at which the detection data is acquired are changed according to the state of the image blur.SELECTED DRAWING: Figure 1

Description

本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、像ブレ補正を行っている際の消費電力を低減できるようにした情報処理装置、情報処理方法、及び、プログラムに関する。 The present technology relates to an information processing device, an information processing method, and a program, and more particularly to an information processing device, an information processing method, and a program capable of reducing power consumption when image blur correction is performed.

特許文献1、2には、撮影装置において像ブレ補正する必要がない場合には、自動で像ブレ補正を停止して消費電力の低減を図る技術が開示されている。 Patent Documents 1 and 2 disclose a technique for automatically stopping image blur correction to reduce power consumption when it is not necessary to correct image blur in the photographing apparatus.

特開平9-5813号公報Japanese Unexamined Patent Publication No. 9-5913 特開平4-20947号公報Japanese Unexamined Patent Publication No. 4-20947

特許文献1、2では、像ブレが発生している状況下で像ブレ補正を行っている際の消費電力を低減することができない。 In Patent Documents 1 and 2, it is not possible to reduce the power consumption when image blur correction is performed in a situation where image blur is occurring.

本技術はこのような状況に鑑みてなされたものであり、像ブレ補正を行っている際の消費電力を低減できるようにする。 This technique was made in view of such a situation, and makes it possible to reduce the power consumption when performing image stabilization.

本技術の情報処理装置、又は、プログラムは、撮像部のブレを示す検出データを所定の時間間隔で取得し、取得した前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報を生成する処理部であって、前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔を変更する処理部を有する情報処理装置、又は、そのような情報処理装置として、コンピュータを機能させるためのプログラムである。 The information processing device or program of the present technology acquires detection data indicating blurring of the imaging unit at predetermined time intervals, and corrects image blurring caused by the blurring of the imaging unit based on the acquired detection data. An information processing device that is a processing unit that generates control information for controlling the blur correction unit, and has a processing unit that changes the time interval for acquiring the detection data according to the image blur state, or an information processing unit thereof. It is a program for operating a computer as such an information processing device.

本技術の情報処理方法は、処理部を有する情報処理装置の前記処理部が、撮像部のブレを示す検出データを所定の時間間隔で取得し、取得した前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報を生成し、前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔を変更する情報処理方法である。 In the information processing method of the present technology, the processing unit of the information processing apparatus having the processing unit acquires detection data indicating blurring of the imaging unit at predetermined time intervals, and based on the acquired detection data, the information processing unit of the imaging unit. This is an information processing method that generates control information for controlling a blur correction unit that corrects an image blur caused by the blur, and changes the time interval for acquiring the detection data according to the state of the image blur.

本技術においては、撮像部のブレを示す検出データが所定の時間間隔で取得され、取得された前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報が生成され、前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔が変更される。 In the present technique, detection data indicating blurring of the imaging unit is acquired at predetermined time intervals, and based on the acquired detection data, a blur correction unit that corrects image blurring caused by the blurring of the imaging unit is controlled. The control information is generated, and the time interval for acquiring the detection data is changed according to the state of the image blur.

本技術が適用されたカメラの実施の形態の構成例を示したブロック図である。It is a block diagram which showed the structural example of the embodiment of the camera to which this technique is applied. ブレ補正部によるブレ補正処理を説明する図である。It is a figure explaining the blur correction processing by a blur correction part. ブレ具合とサンプリング部でのサンプリング周波数との関係等を表した図である。It is a figure which showed the relationship between the degree of blurring and the sampling frequency in a sampling part. ブレ補正装置が行うIMUデータのサンプリング周波数の設定処理の手順を例示したフローチャートである。It is a flowchart which exemplifies the procedure of the setting process of the sampling frequency of IMU data performed by a blur correction device. 図1のブレ補正装置のハードウェア構成を例示したブロックである。It is a block exemplifying the hardware configuration of the blur correction device of FIG. 一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the hardware of the computer which executes a series of processing by a program.

以下、図面を参照しながら本技術の実施の形態について説明する。 Hereinafter, embodiments of the present technology will be described with reference to the drawings.

<本技術が適用されたカメラの実施の形態>
図1は、本技術が適用されたカメラの実施の形態の構成例を示したブロック図である。
<Embodiment of a camera to which this technique is applied>
FIG. 1 is a block diagram showing a configuration example of an embodiment of a camera to which the present technology is applied.

図1において、本技術が適用されたカメラ(撮像装置)の実施の形態であるカメラ1は、撮像部11により撮像した被写体の画像をカメラ1が備える表示部14に表示し、又は、記憶部15に記憶する。カメラ1が撮像する画像は、所定周期のフレームからなる動画像であってもよいし、静止画像であってもよい。 In FIG. 1, the camera 1, which is an embodiment of a camera (imaging device) to which the present technology is applied, displays an image of a subject captured by the imaging unit 11 on a display unit 14 included in the camera 1, or a storage unit. Store in 15. The image captured by the camera 1 may be a moving image composed of frames having a predetermined period, or may be a still image.

カメラ1は、撮像部11、画像処理部12、出力制御部13、表示部14、記憶部15、及び、ブレ補正装置21を有する。 The camera 1 includes an image pickup unit 11, an image processing unit 12, an output control unit 13, a display unit 14, a storage unit 15, and a blur correction device 21.

撮像部11は、被写体の画像を撮像する。撮像部11は、光学系11Aと撮像素子11Bを有する。光学系11Aは、被写体からの光を集光して、被写体の画像(光像)を撮像素子11Bの受光面に結像する。撮像素子11Bは、受光面に結像された画像を光電変換して電気信号(画像信号)として画像処理部12に供給する。 The image pickup unit 11 captures an image of the subject. The image pickup unit 11 has an optical system 11A and an image pickup element 11B. The optical system 11A collects light from the subject and forms an image (optical image) of the subject on the light receiving surface of the image pickup device 11B. The image pickup device 11B photoelectrically converts the image formed on the light receiving surface and supplies it to the image processing unit 12 as an electric signal (image signal).

画像処理部12は、撮像部11(撮像素子11B)からの画像に対して、ホワイトバランス、補間処理(デモザイキング処理)、色変換、階調変換、ノイズリダクション等の一般的な画像処理、及び、後述のブレ補正部36によるブレ補正(像ブレ補正)のための処理を行う。画像処理部12は、処理後の画像を出力制御部13に供給する。 The image processing unit 12 performs general image processing such as white balance, interpolation processing (demosaiking processing), color conversion, gradation conversion, noise reduction, etc., on the image from the image pickup unit 11 (imaging element 11B), and , The process for blur correction (image blur correction) by the blur correction unit 36 described later is performed. The image processing unit 12 supplies the processed image to the output control unit 13.

出力制御部13は、画像処理部12からの画像により、出力先に応じた出力画像を生成し、出力先に応じた形式の信号で出力画像を出力する。例えば、撮像部11で撮像された画像を表示部14に表示させる場合には、出力制御部13は、画像処理部12からの画像に対して、所定の情報を適宜付加した出力画像を生成し、表示部14に対応した規格の信号で表示部14に出力する。撮像部11で撮像された画像を記憶部15に記憶させる場合には、画像処理部12からの画像を所定規格の信号で記憶部15に供給する。 The output control unit 13 generates an output image according to the output destination based on the image from the image processing unit 12, and outputs the output image as a signal in a format according to the output destination. For example, when displaying the image captured by the imaging unit 11 on the display unit 14, the output control unit 13 generates an output image in which predetermined information is appropriately added to the image from the image processing unit 12. , A standard signal corresponding to the display unit 14 is output to the display unit 14. When the image captured by the image pickup unit 11 is stored in the storage unit 15, the image from the image processing unit 12 is supplied to the storage unit 15 as a signal of a predetermined standard.

表示部14は、例えばカメラ1の背面等に設置されたディスプレイである。表示部14は、出力制御部13からの出力画像を表示し、ユーザに提示する。 The display unit 14 is, for example, a display installed on the back surface of the camera 1. The display unit 14 displays the output image from the output control unit 13 and presents it to the user.

記憶部15は、出力制御部13からの画像を記憶媒体に記憶させる。 The storage unit 15 stores the image from the output control unit 13 in the storage medium.

(ブレ補正装置21)
ブレ補正装置21(像ブレ補正装置)は、カメラ1(撮像部11)に生じた手ブレ等のブレに起因する画像のブレ(像ブレ)を補正(低減)する。像ブレとは、撮像部11で撮像される画像内における静止被写体の像の位置が、カメラ1のブレに起因して変動することをいう。静止被写体は、実空間において静止している被写体である。
(Blur correction device 21)
The image stabilization device 21 (image stabilization device) corrects (reduces) image blur (image blur) caused by blur such as camera shake that occurs in the camera 1 (imaging unit 11). The image blur means that the position of the image of the still subject in the image captured by the image pickup unit 11 fluctuates due to the blur of the camera 1. A stationary subject is a subject that is stationary in real space.

ブレ補正装置21は、IMUセンサ31、サンプリング部32、バッファメモリ33、ブレ量算出部34、ブレ補正テーブル部35、ブレ補正部36、及び、ブレ補正レベル判定処理部37を有する。 The image stabilization device 21 includes an IMU sensor 31, a sampling unit 32, a buffer memory 33, an image stabilization unit 34, an image stabilization table unit 35, an image stabilization unit 36, and an image stabilization level determination processing unit 37.

IMUセンサ31は、カメラ1(撮像部11)のブレを検出するブレ検出センサである。具体的には、IMUセンサ31は、加速度センサと角速度センサとを含む。加速度センサは、カメラ1(光学系11A)に固定された直交3軸のそれぞれの軸方向の加速度を検出する。角速度センサは、前記直交3軸のそれぞれの軸周り方向の角速度を検出する。 The IMU sensor 31 is a blur detection sensor that detects blurring of the camera 1 (imaging unit 11). Specifically, the IMU sensor 31 includes an acceleration sensor and an angular velocity sensor. The accelerometer detects acceleration in each of the three orthogonal axes fixed to the camera 1 (optical system 11A). The angular velocity sensor detects the angular velocity in the direction around each of the three orthogonal axes.

IMUセンサ31は、カメラ1のブレを示す検出信号として、加速度センサにより検出した直交3軸の各軸方向の加速度を示す加速度信号と、角速度センサにより検出した直交3軸の各軸周り方向の角速度を示す角速度信号とサンプリング部32に供給する。 The IMU sensor 31 includes acceleration signals indicating acceleration in each axis of the three orthogonal axes detected by the acceleration sensor and angular speeds in the directions around each axis of the three orthogonal axes detected by the angular velocity sensor as detection signals indicating blurring of the camera 1. Is supplied to the angular velocity signal indicating the above and the sampling unit 32.

サンプリング部32は、IMUセンサ31からの検出信号(加速度信号及び角速度信号)を所定の時間間隔でサンプリング(抽出)してアナログ信号からデジタル信号に変換する。サンプリング部32は、IMUセンサ31の検出信号(加速度信号及び角速度信号)からサンプリングにより所定の時間間隔で取得した検出データ(加速度データ及び角速度データ)をバッファメモリ33に供給する。以下においてIMUセンサ31から所定の時間間隔(サンプリング周期)で取得した検出データをIMUデータともいう。なお、IMUセンサ31が検出信号をデジタル信号として出力する場合であってもよい。その場合、サンプリング部32では、IMUセンサ31からの検出信号をデジタル信号に変換する処理は不要である。 The sampling unit 32 samples (extracts) the detection signals (acceleration signal and angular velocity signal) from the IMU sensor 31 at predetermined time intervals and converts them from analog signals to digital signals. The sampling unit 32 supplies the detection data (acceleration data and angular velocity data) acquired at predetermined time intervals by sampling from the detection signals (acceleration signal and angular velocity signal) of the IMU sensor 31 to the buffer memory 33. Hereinafter, the detection data acquired from the IMU sensor 31 at a predetermined time interval (sampling cycle) is also referred to as IMU data. The IMU sensor 31 may output the detection signal as a digital signal. In that case, the sampling unit 32 does not need to convert the detection signal from the IMU sensor 31 into a digital signal.

サンプリング部32がIMUセンサ31から検出データを取得する時間間隔(サンプリング周期)は、後述のブレ補正レベル判定処理部37の判定結果に基づいて変更される。ブレ補正レベル判定処理部37の判定結果は、像ブレの大きさのレベルを表す。なお、本実施の形態では、サンプリング部32が検出データを取得する時間間隔の変更は、サンプリング部32が行うサンプリングの単位時間あたりの回数(サンプリング周波数)の変更により行われることとする。 The time interval (sampling cycle) in which the sampling unit 32 acquires the detection data from the IMU sensor 31 is changed based on the determination result of the image stabilization level determination processing unit 37 described later. The determination result of the image stabilization level determination processing unit 37 represents the level of the magnitude of image stabilization. In the present embodiment, the time interval for acquiring the detection data by the sampling unit 32 is changed by changing the number of times per unit time (sampling frequency) of sampling performed by the sampling unit 32.

バッファメモリ33は、サンプリング部32からの検出データを一時的に記憶する。バッファメモリ33には、最新の検出データを記憶した時点から過去に所定時間遡った時点までのサンプリング部32からの検出データが蓄積される。バッファメモリ33に蓄積された検出データは、古い時刻の検出データから順にブレ量算出部34に供給される(読み出される)。バッファメモリ33に蓄積された検出データは、ブレ量算出部34に供給されると、バッファメモリ33から消去される。 The buffer memory 33 temporarily stores the detection data from the sampling unit 32. In the buffer memory 33, the detection data from the sampling unit 32 from the time when the latest detection data is stored to the time when a predetermined time goes back in the past is accumulated. The detection data stored in the buffer memory 33 is supplied (read) to the blur amount calculation unit 34 in order from the detection data at the oldest time. When the detection data stored in the buffer memory 33 is supplied to the blur amount calculation unit 34, the detection data is erased from the buffer memory 33.

ブレ量算出部34は、バッファメモリ33から読み出した検出データに基づいてカメラ1に生じたブレ量αを算出し、ブレ補正テーブル部35に供給する。ブレ量αは、例えば、カメラ1に固定された直交3軸の各軸方向及び各軸周り方向のブレの大きさを表す。ブレ量αについては後述する。 The blur amount calculation unit 34 calculates the blur amount α generated in the camera 1 based on the detection data read from the buffer memory 33, and supplies the blur amount α to the blur correction table unit 35. The amount of blur α represents, for example, the magnitude of blur in each of the three orthogonal axes fixed to the camera 1 in each axial direction and in the direction around each axis. The amount of blur α will be described later.

ここで、ブレ量算出部34は、所定時間おきの時点でのブレ量αを算出する。そのため、ブレ量算出部34は、ある時点(前時点)のブレ量αの算出後に、次の時点(後時点)のブレ量αを算出する際には、前時点から後時点までの間にIMUセンサ31から取得された検出データを後時点のブレ量αの算出に用いる。後時点のブレ量αの算出は、前時点に対して所定時間経過後に開始されるので、少なくともその期間で取得された検出データがバッファメモリ33に蓄積される。 Here, the blur amount calculation unit 34 calculates the blur amount α at predetermined time intervals. Therefore, when the blur amount calculation unit 34 calculates the blur amount α at the next time point (post-point point) after calculating the blur amount α at a certain time point (previous time point), it is between the previous time point and the later time point. The detection data acquired from the IMU sensor 31 is used to calculate the amount of blur α at a later point in time. Since the calculation of the blur amount α at the later time point is started after a predetermined time has elapsed with respect to the previous time point, the detection data acquired at least during that period is accumulated in the buffer memory 33.

サンプリング部32が検出データを取得する時間間隔は、サンプリング部32でのサンプリング周波数が高い(大きい)程、短くなる。そのため、サンプリング部32でのサンプリング周波数が高い程、ブレ量αの算出精度が高くなり、ブレ補正の精度も高くなる。その一方で、サンプリング部32でのサンプリング周波数が高い程、バッファメモリ33に蓄積される検出データのデータ量が多くなる。これと同時に、ブレ量αの算出に使用される検出データのデータ量及び処理量が多くなる。そのため、ブレ量αの算出等の処理に要する消費電力が増加する。 The time interval for the sampling unit 32 to acquire the detection data becomes shorter as the sampling frequency in the sampling unit 32 is higher (larger). Therefore, the higher the sampling frequency in the sampling unit 32, the higher the calculation accuracy of the blur amount α and the higher the accuracy of the blur correction. On the other hand, the higher the sampling frequency in the sampling unit 32, the larger the amount of detection data stored in the buffer memory 33. At the same time, the data amount and the processing amount of the detection data used for calculating the blur amount α increase. Therefore, the power consumption required for processing such as calculation of the blur amount α increases.

反対に、サンプリング部32が検出データを取得する時間間隔は、サンプリング部32でのサンプリング周波数が低い(小さい)程、長くなる。そのため、サンプリング部32でのサンプリング周波数が低い程、ブレ量αの算出精度は低くなり、ブレ補正の精度も低くなる。その一方で、サンプリング部32でのサンプリング周波数が低い程、バッファメモリ33に蓄積される検出データのデータ量が少なくなる。これと同時に、ブレ量αの算出に使用される検出データのデータ量及び処理量が少なくなる。そのため、ブレ量αの算出等の処理に要する消費電力が減少する。 On the contrary, the time interval for the sampling unit 32 to acquire the detection data becomes longer as the sampling frequency in the sampling unit 32 is lower (smaller). Therefore, the lower the sampling frequency in the sampling unit 32, the lower the calculation accuracy of the blur amount α and the lower the accuracy of the blur correction. On the other hand, the lower the sampling frequency in the sampling unit 32, the smaller the amount of detection data stored in the buffer memory 33. At the same time, the amount of detection data and the amount of processing used to calculate the amount of blur α are reduced. Therefore, the power consumption required for processing such as calculation of the blur amount α is reduced.

像ブレの大きさや周波数が小さい場合には、ブレ量αの時間的変化が小さい。その場合には、サンプリング部32でのサンプリング周波数が低くても、ブレ量αの算出精度への影響は少なく、ブレ補正の精度は、サンプリング周波数が高い場合と大きくは相違しない。 When the magnitude and frequency of the image blur are small, the change in the amount of blur α over time is small. In that case, even if the sampling frequency in the sampling unit 32 is low, the influence on the calculation accuracy of the blur amount α is small, and the accuracy of the blur correction is not significantly different from the case where the sampling frequency is high.

したがって、像ブレの小さい程、又は、像ブレの周波数が小さい(低い)程、サンプリング部32でのサンプリング周波数を低くすることで、ブレ補正の精度の低下を招くことなく、ブレ補正を行ってる際にも消費電力を低減することが可能となる。本実施の形態では、像ブレの大きさのみを考慮してサンプリング部32のサンプリング周波数を変更する場合について説明する。ただし、サンプリング部32でのサンプリング周波数は、像ブレの周波数のみを考慮して変更される場合であってもよいし、像ブレの大きさと周波数の両方を考慮して変更される場合であってもよい。即ち、本技術は、像ブレの状態に応じてサンプリング部32でのサンプリング周波数を変更することで、ブレ補正の精度を低下させることなく、ブレ補正を行っている際にもブレ補正に要する消費電力を低減することができる。 Therefore, the smaller the image blur or the smaller (lower) the frequency of the image blur, the lower the sampling frequency in the sampling unit 32, so that the blur correction is performed without deteriorating the accuracy of the blur correction. In some cases, it is possible to reduce power consumption. In the present embodiment, a case where the sampling frequency of the sampling unit 32 is changed in consideration of only the magnitude of the image blur will be described. However, the sampling frequency in the sampling unit 32 may be changed in consideration of only the frequency of image blur, or may be changed in consideration of both the magnitude and frequency of image blur. May be good. That is, in this technique, by changing the sampling frequency in the sampling unit 32 according to the state of image blurring, the consumption required for blurring correction even when blurring correction is performed without deteriorating the accuracy of blurring correction. Power can be reduced.

ブレ補正テーブル部35は、ブレ量算出部34からのカメラ1のブレ量αに対して、カメラ1のブレに起因する像ブレを補正するブレ補正部36を制御する制御情報としてのブレ補正量γを算出する。ブレ補正量γの算出には、ブレ量αに対して適正なブレ補正量γを対応付けたブレ補正テーブルが用いられる。ブレ補正テーブルは事前に作成される。ブレ補正テーブル部35は、算出したブレ補正量γをブレ補正部36に供給する。ただし、ブレ補正テーブル部35は、ブレ補正量算出部として、ブレ量αに対して適正なブレ補正量γを算出する所定の関係式を用いて算出してもよい。ブレ補正量γについては後述する。 The blur correction table unit 35 is a blur correction amount as control information for controlling the blur correction unit 36 that corrects the image blur caused by the blur of the camera 1 with respect to the blur amount α of the camera 1 from the blur amount calculation unit 34. Calculate γ. A blur correction table in which an appropriate blur correction amount γ is associated with the blur correction amount α is used for calculating the blur correction amount γ. The image stabilization table is created in advance. The image stabilization table unit 35 supplies the calculated image stabilization amount γ to the image stabilization unit 36. However, the image stabilization table unit 35 may be calculated using a predetermined relational expression for calculating an appropriate image stabilization amount γ with respect to the image stabilization amount α as the image stabilization amount calculation unit. The blur correction amount γ will be described later.

ブレ補正部36は、撮像部11で撮像する被写体の範囲(撮影範囲)をブレ補正量γに基づいて制御する。ブレ補正の方式としては、電子式と光学式とが周知である。本実施の形態のブレ補正装置21は、電子式のブレ補正を採用している。ブレ補正部36は、撮像部11から画像処理部12に供給された画像(元画像)の一部の範囲(領域)を有効画像として切り出す。ブレ補正部36は、元画像から有効画像を切り出す範囲(切出し範囲)を制御対象として、切出し範囲の位置等をブレ補正量γに基づいて制御する。これによって、有効画像の範囲内に写る被写体の範囲が、カメラ1のブレに抗して安定化し、有効画像における像ブレが補正される。 The image stabilization unit 36 controls the range (shooting range) of the subject to be imaged by the image pickup unit 11 based on the image stabilization amount γ. As a method of image stabilization, an electronic method and an optical method are well known. The image stabilization device 21 of the present embodiment employs electronic image stabilization. The image stabilization unit 36 cuts out a part of a range (region) of the image (original image) supplied from the image pickup unit 11 to the image processing unit 12 as an effective image. The blur correction unit 36 controls the position of the cutout range and the like based on the blur correction amount γ, with the range for cutting out the effective image from the original image (cutout range) as the control target. As a result, the range of the subject captured within the range of the effective image is stabilized against the blur of the camera 1, and the image blur in the effective image is corrected.

なお、本技術は、電子式のブレ補正の代わりに光学式のブレ補正を採用したブレ補正装置に対しても有効である。光学式のブレ補正を採用した場合のブレ補正装置21におけるブレ補正部36は、撮像部11の光学系11Aに配置された補正光学系(補正レンズ)、又は、撮像素子11Bを制御対象として、制御対象の位置を変更する機構を有する。制御対象の位置の変更には、制御対象の姿勢の変更(回転等)も含まれるものとする。この場合、ブレ補正テーブル部35は、像ブレを補正するための制御対象の位置を指定する制御情報としてのブレ補正量γを算出してブレ補正部36に供給する。ブレ補正部36は、ブレ補正量γに従って制御対象の位置を制御する。 It should be noted that this technique is also effective for an image stabilization device that employs optical image stabilization instead of electronic image stabilization. The image stabilization unit 36 in the image stabilization device 21 when the optical image stabilization is adopted uses the correction optical system (correction lens) arranged in the optical system 11A of the image pickup unit 11 or the image pickup element 11B as a control target. It has a mechanism to change the position of the controlled object. The change in the position of the controlled object includes the change in the posture of the controlled object (rotation, etc.). In this case, the blur correction table unit 35 calculates the blur correction amount γ as control information for designating the position of the control target for correcting the image blur and supplies it to the blur correction unit 36. The image stabilization unit 36 controls the position of the control target according to the image stabilization amount γ.

ブレ補正レベル判定処理部37は、ブレ補正テーブル部35で算出されたブレ補正量γに基づいて、ブレ補正レベルを判定する。ブレ補正レベルは、ブレ補正量γの大きさを複数の段階に区分けして表す複数のレベルからなる。本実施の形態の電子式のブレ補正を行うブレ補正部36の場合、後述のようにブレ補正量γの大きさは、直接的に像ブレの大きさを表すため、ブレ補正レベルは、像ブレの大きさ(ブレ具合)のレベルを表す。 The image stabilization level determination processing unit 37 determines the image stabilization level based on the image stabilization amount γ calculated by the image stabilization table unit 35. The image stabilization level is composed of a plurality of levels that represent the magnitude of the image stabilization amount γ by dividing it into a plurality of stages. In the case of the image stabilization unit 36 that performs electronic image stabilization according to the present embodiment, the image stabilization level is an image because the magnitude of the image stabilization amount γ directly represents the magnitude of image stabilization as described later. Represents the level of blur (degree of blur).

ブレ補正レベルは、像ブレ(ブレ補正量γ)の大きさを、大きい順に、大レベル、中レベル、小レベル、及び、無レベルの4段階に区分けするレベルからなる。ブレ補正レベル判定処理部37は、ブレ補正量γに基づいて像ブレの大きさが4つのレベルのうちのいずれに属するかを判定する。なお、ブレ補正レベルは、4つのレベルとする場合に限らず、任意の複数のレベルとすることができる。ブレ補正レベルについては後述する。 The image stabilization level is composed of four levels in which the magnitude of image stabilization (image stabilization amount γ) is divided into four levels in descending order: large level, medium level, small level, and no level. The image stabilization level determination processing unit 37 determines which of the four levels the image stabilization magnitude belongs to based on the image stabilization amount γ. The image stabilization level is not limited to four levels, and may be any plurality of levels. The image stabilization level will be described later.

ブレ補正レベル判定処理部37は、ブレ補正量γに基づいて判定したブレ補正レベルをサンプリング部32に供給する。サンプリング部32は、ブレ補正レベル判定処理部37からのブレ補正レベルに基づいてサンプリング周波数を変更する。原則として、サンプリング部32でのサンプリング周波数は、ブレ補正レベルが大きい(高い)程、高い値に設定され、ブレ補正レベルが小さい(低い)ほど、低い値に設定される。ブレ補正レベルが大きいとは、像ブレが大きいレベルであり、ブレ補正レベルが小さいとは、像ブレが小さいレベルであることを意味する。 The image stabilization level determination processing unit 37 supplies the image stabilization level determined based on the image stabilization amount γ to the sampling unit 32. The sampling unit 32 changes the sampling frequency based on the image stabilization level from the image stabilization level determination processing unit 37. As a general rule, the sampling frequency in the sampling unit 32 is set to a higher value as the blur correction level is larger (higher), and is set to a lower value as the blur correction level is smaller (lower). A large image stabilization level means a large level of image stabilization, and a small image stabilization level means a small level of image stabilization.

サンプリング部32でのサンプリング周波数が、ブレ補正レベルに応じて変更されることで、ブレ補正の精度が低下することなく、ブレ補正を行っている際にもブレ補正に要する消費電力が低減する。 By changing the sampling frequency in the sampling unit 32 according to the blur correction level, the accuracy of the blur correction does not decrease, and the power consumption required for the blur correction is reduced even when the blur correction is performed.

(ブレ補正装置21のブレ補正処理)
次に、ブレ補正装置21のブレ補正処理について詳説する。
(Blur correction processing of the shake correction device 21)
Next, the image stabilization process of the image stabilization device 21 will be described in detail.

ブレ補正装置21では、カメラ1(撮像部11)に生じた手ブレ等のブレがIMUセンサ31に含まれる加速度センサと角速度センサとにより検出される。加速度センサは、カメラ1(光学系11A)に固定された直交3軸のそれぞれの軸方向に生じたカメラ1の加速度を検出する。角速度センサは、前記直交3軸のそれぞれの軸周り方向に生じたカメラ1の角速度を検出する。 In the image stabilization device 21, blurring such as camera shake generated in the camera 1 (imaging unit 11) is detected by the acceleration sensor and the angular velocity sensor included in the IMU sensor 31. The accelerometer detects the acceleration of the camera 1 generated in each of the three orthogonal axes fixed to the camera 1 (optical system 11A). The angular velocity sensor detects the angular velocity of the camera 1 generated in the direction around each of the three orthogonal axes.

なお、カメラ1に固定された直交3軸は、互いに直交するx軸、y軸、及び、z軸であるとする。x軸は、カメラ1の横方向(左右方向)に沿った軸とする。y軸は、カメラ1の縦方向(上下方向)に沿った軸とする。z軸は、撮像部11の光学系11Aの光軸方向(カメラ1の前後方向)に沿った軸とする。 It is assumed that the three orthogonal axes fixed to the camera 1 are the x-axis, the y-axis, and the z-axis that are orthogonal to each other. The x-axis is an axis along the lateral direction (horizontal direction) of the camera 1. The y-axis is an axis along the vertical direction (vertical direction) of the camera 1. The z-axis is an axis along the optical axis direction (front-back direction of the camera 1) of the optical system 11A of the image pickup unit 11.

IMUセンサ31からは、カメラ1のブレを示す検出信号として、加速度センサにより検出された直交3軸の各軸方向の加速度を示す角速度信号と、角速度センサにより検出された各軸周り方向の角速度を示す角速度信号とが出力される。 From the IMU sensor 31, the angular velocity signal indicating the acceleration in each axis of the three orthogonal axes detected by the acceleration sensor and the angular velocity in the direction around each axis detected by the angular velocity sensor are used as detection signals indicating the blurring of the camera 1. The indicated angular velocity signal is output.

IMUセンサ31から出力された検出信号(加速度信号及び角速度信号)は、サンプリング部32により所定のサンプリング周波数でサンプリングされ、検出データとしてバッファメモリ33に一時的に記憶される。これによって、バッファメモリ33には、サンプリング部32によりサンプリング周波数に対応した時間間隔(サンプリング周期)で取得されたカメラ1のブレを示す検出データ(各軸方向の加速度及び各軸周り方向の角速度を示す検出データ)が蓄積される。 The detection signal (acceleration signal and angular velocity signal) output from the IMU sensor 31 is sampled by the sampling unit 32 at a predetermined sampling frequency, and is temporarily stored in the buffer memory 33 as detection data. As a result, the buffer memory 33 stores the detection data (acceleration in each axis direction and angular velocity in each axis direction) indicating the shake of the camera 1 acquired by the sampling unit 32 at the time interval (sampling cycle) corresponding to the sampling frequency. The indicated detection data) is accumulated.

サンプリング部32でのサンプリング周波数は、ブレ補正レベル判定処理部37により判定されたブレ補正レベルに応じた値に設定される(後述) The sampling frequency in the sampling unit 32 is set to a value corresponding to the image stabilization level determined by the image stabilization level determination processing unit 37 (described later).

バッファメモリ33に蓄積された検出データは、ブレ量算出部34に読み出され、ブレ量算出部34により、カメラ1に生じたブレ量αが算出される。バッファメモリ33に一時的に記憶された検出データは、ブレ量算出部34に読み出されると、バッファメモリ33から消去される。 The detection data stored in the buffer memory 33 is read out by the blur amount calculation unit 34, and the blur amount calculation unit 34 calculates the blur amount α generated in the camera 1. When the detection data temporarily stored in the buffer memory 33 is read by the blur amount calculation unit 34, it is erased from the buffer memory 33.

ここで、ブレ量αは、直交3軸(x軸、y軸、z軸)の各軸方向及び各軸周り方向のブレの大きさを表す。カメラ1のブレには、x軸周り方向(ピッチ方向)の角度ブレ、y軸周り方向(ヨー方向)の角度ブレ、z軸周り方向(ロール方向)の回転ブレ、x軸方向(横方向)のシフトブレ、y軸方向(縦方向)のシフトブレ、及び、z軸方向(前後方向)のシフトブレが存在する。 Here, the amount of blur α represents the magnitude of blur in each of the three orthogonal axes (x-axis, y-axis, z-axis) and in the direction around each axis. Camera 1 shakes include angle shake in the x-axis direction (pitch direction), angle shake in the y-axis direction (yaw direction), rotation shake in the z-axis direction (roll direction), and x-axis direction (lateral direction). There are shift blurs in the y-axis direction (vertical direction), and shift blurs in the z-axis direction (front-back direction).

ピッチ方向の角度ブレ(大きさ)θxは、x軸周り方向の角速度ωxの1階積分により算出され得る。ヨー方向の角度ブレ(大きさ)θyは、y軸周り方向の角速度ωyの1階積分により算出され得る。ロール方向の回転ブレ(大きさ)θzは、z軸周り方向の角速度ωzの1階積分により算出され得る。 The angular velocity (magnitude) θx in the pitch direction can be calculated by the first-order integral of the angular velocity ωx in the direction around the x-axis. The angular velocity (magnitude) θy in the yaw direction can be calculated by the first-order integral of the angular velocity ωy in the direction around the y-axis. The rotational shake (magnitude) θz in the roll direction can be calculated by the first-order integral of the angular velocity ωz in the direction around the z-axis.

x軸方向のシフトブレ(大きさ)Dxは、x軸方向の加速度axの2階積分により算出され得る。y軸方向のシフトブレDyは、y軸方向の加速度ayの2階積分により算出され得る。z軸方向のシフトブレDzは、z軸方向の加速度azの2階積分により算出され得る。 The shift blur (magnitude) Dx in the x-axis direction can be calculated by the second-order integral of the acceleration ax in the x-axis direction. The shift blur Dy in the y-axis direction can be calculated by the second-order integral of the acceleration ay in the y-axis direction. The shift blur Dz in the z-axis direction can be calculated by the second-order integral of the acceleration az in the z-axis direction.

ブレ量αは、角度ブレθx、θy、回転ブレθz、シフトブレDx、Dy、Dzを成分とする値であり、ブレ量α(θx、θy、θz、Dx、Dy、Dz)により表される。ブレ量α(各成分)は、ブレ量算出部34により、バッファメモリ33から読み出された検出データに基づいて所定時間おきに算出される。 The amount of blur α is a value having angular blur θx, θy, rotational blur θz, shift blur Dx, Dy, and Dz as components, and is represented by the amount of blur α (θx, θy, θz, Dx, Dy, Dz). The blur amount α (each component) is calculated by the blur amount calculation unit 34 at predetermined time intervals based on the detection data read from the buffer memory 33.

ブレ量算出部34が最新(現時刻)のブレ量αを算出する際には、前回のブレ量αの算出時刻から現時刻までの間にバッファメモリ33に記憶された検出データを順に読み出して、積分処理等により現時刻のブレ量αを算出する。ブレ量α(θx、θy、θz、Dx、Dy、Dz)の成分のうち、θx、θy、及び、θzは、それぞれ、検出データのうちのx軸周り方向の角速度データ、y軸周り方向の角速度データ、及び、z軸周り方向の角速度データを用いた1階積分の処理等により算出される。Dx、Dy、及び、Dzは、それぞれ、検出データのうちのx軸方向の加速度データ、y軸方向の加速度データ、及び、z軸方向の加速度データを用いた2階積分の処理等により算出される。 When the blur amount calculation unit 34 calculates the latest (current time) blur amount α, the detection data stored in the buffer memory 33 between the previous calculation time of the blur amount α and the current time is read out in order. , The amount of blur α at the current time is calculated by integration processing or the like. Of the components of the amount of blur α (θx, θy, θz, Dx, Dy, Dz), θx, θy, and θz are the angular velocity data in the x-axis direction and the y-axis direction in the detection data, respectively. It is calculated by processing the first-order integration using the angular velocity data and the angular velocity data in the direction around the z-axis. Dx, Dy, and Dz are calculated by processing the second-order integration using the acceleration data in the x-axis direction, the acceleration data in the y-axis direction, and the acceleration data in the z-axis direction among the detected data, respectively. To.

なお、サンプリング部32でのサンプリング周波数が低い程、ブレ量αの1回分の算出に用いられる検出データの数が少なくなるため、処理量が少なく、消費電力が低減される。 The lower the sampling frequency in the sampling unit 32, the smaller the number of detection data used for calculating the blur amount α for one time, so that the processing amount is small and the power consumption is reduced.

ブレ量αの算出方法は、特定の方法に限らない。例えば、x軸方向及びy軸方向のシフトブレは、それらのシフトブレの検出位置(例えば、光学系11Aの主点位置)に対して離れた位置を回転中心とするヨー方向(y軸周り方向)及びピッチ方向(x軸周り方向)の角度ブレに起因するとみなす場合がある。この場合に、ブレ量算出部34は、x軸方向及びy軸方向のシフトブレの検出位置と回転中心との間の距離とヨー方向及びピッチ方向の角度ブレ(大きさ)θy、θxのそれぞれからx軸方向及びy軸方向のそれぞれのシフトブレ(大きさ)Dx、Dyを算出することも可能である。 The method of calculating the amount of blur α is not limited to a specific method. For example, shift blurs in the x-axis direction and the y-axis direction are the yaw direction (direction around the y-axis) centered on a position distant from the detection position of the shift blurs (for example, the main point position of the optical system 11A). It may be considered to be caused by angular deviation in the pitch direction (direction around the x-axis). In this case, the blur amount calculation unit 34 determines the distance between the detection position of the shift blur in the x-axis direction and the y-axis direction and the center of rotation, and the angular blur (magnitude) θy and θx in the yaw direction and the pitch direction, respectively. It is also possible to calculate the shift blur (magnitude) Dx and Dy in the x-axis direction and the y-axis direction, respectively.

ブレ量αの成分として、(θx、θy、θz、Dx、Dy、Dz)のうち、z軸方向のシフトブレDzを考慮せずに、(θx、θy、θz、Dx、Dy)のみをブレ量αの成分として算出する場合であってもよい。この場合には、IMUセンサ31の加速度センサはz軸方向の加速度を検出しなくてもよい。像ブレは、一般的にピッチ方向(x軸周り方向)、及び、ヨー方向(y軸周り方向)の角度ブレθx、及び、θyの影響が大きいため、ブレ量αの成分として(θx、θy)のみを算出する場合であってもよい。この場合には、IMUセンサ31の加速度センサは不要であり、角速度センサは、z軸周りの角速度を検出しなくてもよい。 Of the (θx, θy, θz, Dx, Dy, Dz) components of the amount of blur α, only (θx, θy, θz, Dx, Dy) is the amount of blur without considering the shift blur Dz in the z-axis direction. It may be calculated as a component of α. In this case, the acceleration sensor of the IMU sensor 31 does not have to detect the acceleration in the z-axis direction. Image blur is generally affected by angular blur θx in the pitch direction (direction around the x-axis) and yaw direction (direction around the y-axis), and θy, so it is a component of the amount of blur α (θx, θy). ) May be calculated. In this case, the acceleration sensor of the IMU sensor 31 is unnecessary, and the angular velocity sensor does not have to detect the angular velocity around the z-axis.

ブレ量算出部34は、ブレ量αを算出する前に、バッファメモリ33から読み出した検出データに対してハイパスフィルタの処理を行う場合であってもよい。即ち、ブレの周波数は一般に1Hz乃至15Hz程度である。そこで、ブレ量算出部34は、バッファメモリ33からの検出データに対してハイパスフィルタ(デジタルフィルタ)の処理を行うことで、例えば、IMUセンサ31の検出信号から1Hzよりも低い低周波のノイズ成分、ドリフト成分、ユーザ等による画角変更操作に起因する信号成分を除去した場合の検出データを取得するようにしてもよい。 The blur amount calculation unit 34 may perform a high-pass filter process on the detection data read from the buffer memory 33 before calculating the blur amount α. That is, the frequency of blurring is generally about 1 Hz to 15 Hz. Therefore, the blur amount calculation unit 34 processes the detection data from the buffer memory 33 with a high-pass filter (digital filter), so that, for example, a noise component having a low frequency lower than 1 Hz from the detection signal of the IMU sensor 31 is used. , The detection data when the signal component caused by the drift component, the image angle changing operation by the user, or the like is removed may be acquired.

ブレ量算出部34で算出されたブレ量α(θx、θy、θz、Dx、Dy、Dz)は、ブレ補正テーブル部35に供給され、ブレ補正テーブル部35において、ブレ補正量γが算出される。 The blur amount α (θx, θy, θz, Dx, Dy, Dz) calculated by the blur amount calculation unit 34 is supplied to the blur correction table unit 35, and the blur correction amount γ is calculated in the blur correction table unit 35. To.

ブレ補正テーブル部35は、カメラ1のブレ量αに対して、像ブレを補正するブレ補正部36を制御する制御情報としての適正なブレ補正量γを対応付けたブレ補正テーブルを有する。ブレ補正テーブル部35は、ブレ量算出部34からのブレ量αに対応する適正なブレ補正量γをブレ補正テーブルを用いて算出する。なお、ブレ補正テーブル部35の処理は、ブレ量算出部34からのブレ量αに対して適正なブレ補正量γを所定の関係式により算出する処理に代えてもよい。 The image stabilization table unit 35 has an image stabilization table in which an appropriate image stabilization amount γ is associated with the image stabilization amount α of the camera 1 as control information for controlling the image stabilization unit 36. The image stabilization table unit 35 calculates an appropriate image stabilization amount γ corresponding to the image stabilization amount α from the image stabilization unit 34 using the image stabilization table. The process of the image stabilization table unit 35 may be replaced with the process of calculating an appropriate image stabilization amount γ with respect to the image stabilization amount α from the image stabilization unit 34 by a predetermined relational expression.

ブレ補正テーブル部35で算出されたブレ補正量γは、ブレ補正部36に供給され、ブレ補正部36がブレ補正量γに基づいて制御される。 The image stabilization amount γ calculated by the image stabilization table unit 35 is supplied to the image stabilization unit 36, and the image stabilization unit 36 is controlled based on the image stabilization amount γ.

ブレ補正部36は、撮像部11から画像処理部12に供給された画像の一部の範囲(領域)を有効画像として切り出す範囲(切出し範囲)を制御対象とする。ブレ補正部36の制御対象である切出し範囲の位置等は、ブレ補正量γに基づいて変更される。 The image stabilization unit 36 controls a range (cutout range) of a part of the image supplied from the image pickup unit 11 to the image processing unit 12 as an effective image. The position of the cutout range, which is the control target of the image stabilization unit 36, is changed based on the image stabilization amount γ.

図2は、ブレ補正部36によるブレ補正処理を説明する図である。 FIG. 2 is a diagram illustrating the image stabilization process by the image stabilization unit 36.

図2において、画像61は、撮像素子11Bにより撮像されて撮像部11から画像処理部12に供給される画像を表す。画像61は、撮像部11から画像処理部12に所定の時間間隔で供給される各フレームの画像を表すので、画像61に写る同一被写体の像(被写体像)の位置は、カメラ1のブレ、撮影方向の変更、及び、被写体の移動等により変化する。なお、画像61の横方向及び縦方向をそれぞれ画像上におけるx軸方向及びy軸方向とする。 In FIG. 2, the image 61 represents an image imaged by the image sensor 11B and supplied from the image pickup unit 11 to the image processing unit 12. Since the image 61 represents an image of each frame supplied from the image pickup unit 11 to the image processing unit 12 at predetermined time intervals, the position of the image of the same subject (subject image) reflected in the image 61 is the blur of the camera 1. It changes due to changes in the shooting direction and movement of the subject. The horizontal and vertical directions of the image 61 are the x-axis direction and the y-axis direction on the image, respectively.

画像範囲61Aは、画像61の全体範囲(輪郭)を表す。画像61の画像範囲61Aは、撮像素子11Bの受光面で撮像し得る画像の全体範囲である場合であってもよいし、その一部の範囲である場合であってもよい。 The image range 61A represents the entire range (contour) of the image 61. The image range 61A of the image 61 may be the entire range of the image that can be captured by the light receiving surface of the image sensor 11B, or may be a partial range thereof.

有効画像62は、撮像部11から画像処理部12に供給された画像61の画像範囲61Aのうちから、ブレ補正部36により切り出される画像を表す。画像範囲61Aのうちの有効画像以外の部分の画像は無効画像として除去される。ブレ補正部36により切り出された有効画像62は、画像処理部12での他の処理が行われた後、出力制御部13に供給される。なお、有効画像62は、撮像素子11Bにより撮像される画像の範囲のうち、除去されずに表示部14や記憶部15に出力される範囲の画像とも解釈し得る。 The effective image 62 represents an image cut out by the blur correction unit 36 from the image range 61A of the image 61 supplied from the image pickup unit 11 to the image processing unit 12. The image of the portion other than the valid image in the image range 61A is removed as an invalid image. The effective image 62 cut out by the image stabilization unit 36 is supplied to the output control unit 13 after other processing by the image processing unit 12 is performed. The effective image 62 can also be interpreted as an image in the range of the image captured by the image pickup device 11B that is not removed and is output to the display unit 14 and the storage unit 15.

切出し範囲62Aは、有効画像62の全体範囲(輪郭)であり、ブレ補正部36により画像範囲61Aから有効画像62が切り出される範囲を表す。切出し範囲62Aは、例えば長方形の形状を有し、画像範囲61Aと比較して横幅及び縦幅が短く、画像範囲61Aに内包される。切出し範囲62Aは、ブレ補正部36における制御対象であり、切出し範囲62Aの位置及び傾きがブレ補正量γに基づいて変更される。 The cutout range 62A is the entire range (contour) of the effective image 62, and represents the range in which the effective image 62 is cut out from the image range 61A by the image stabilization unit 36. The cutout range 62A has, for example, a rectangular shape, has a shorter horizontal width and vertical width than the image range 61A, and is included in the image range 61A. The cutout range 62A is a control target in the image stabilization unit 36, and the position and inclination of the cutout range 62A are changed based on the image stabilization amount γ.

切出し範囲62Aは、例えば、ブレ補正の開始時等において基準状態に設定される。基準状態では、切出し範囲62Aは、例えば、中心位置が画像範囲61Aの中心位置と一致し、かつ、切出し範囲62Aの横方向が画像上におけるx軸方向と平行となる傾きに設定される。 The cutting range 62A is set to a reference state, for example, at the start of image stabilization. In the reference state, the cutout range 62A is set to, for example, an inclination in which the center position coincides with the center position of the image range 61A and the lateral direction of the cutout range 62A is parallel to the x-axis direction on the image.

被写体像63は、切出し範囲62Aが基準状態に設定されているときに、有効画像62内に写る静止被写体の像の一例を表す。静止被写体とは、実空間で静止している被写体を表す。 The subject image 63 represents an example of an image of a still subject captured in the effective image 62 when the cutout range 62A is set to the reference state. A still subject represents a subject that is stationary in real space.

このような状況下において、カメラ1にブレが生じ、画像範囲61A内において静止被写体の写る位置及び傾きが、像ブレにより被写体像63の位置及び傾きから被写体像63-1の位置及び傾きに変化したとする。 Under such circumstances, blurring occurs in the camera 1, and the position and tilt of the still subject in the image range 61A changes from the position and tilt of the subject image 63 to the position and tilt of the subject image 63-1 due to the image blurring. Suppose you did.

このときの像ブレの量を像ブレ量βとすると、像ブレ量βは、画像上におけるx軸方向の像ブレの大きさを表す変化量Δx、画像上におけるy軸方向の像ブレの大きさを表す変化量Δy、及び、画像上における回転方向の像ブレの大きさを表す変化量Δθを成分として像ブレ量β(Δx、Δy、Δθ)により表される。 Assuming that the amount of image blur at this time is the image blur amount β, the image blur amount β is the amount of change Δx representing the magnitude of the image blur in the x-axis direction on the image, and the magnitude of the image blur in the y-axis direction on the image. It is represented by the amount of image blur β (Δx, Δy, Δθ) with the amount of change Δy representing the amount of change and the amount of change Δθ representing the magnitude of image blurring in the rotation direction on the image as components.

変化量Δxは、切出し範囲62Aが基準状態に設定されているときの被写体像63の位置に対して、像ブレにより変化した被写体像63-1の位置の画像上におけるx軸方向(第1の直線方向)の変位の大きさを表す。 The amount of change Δx is the x-axis direction (first) on the image of the position of the subject image 63-1 changed due to image blurring with respect to the position of the subject image 63 when the cutout range 62A is set to the reference state. Represents the magnitude of displacement in the linear direction).

変化量Δyは、切出し範囲62Aが基準状態に設定されているときの被写体像63の位置に対して、像ブレにより変化した被写体像63-1の位置の画像上におけるy軸方向(第2の直線方向)の変位の大きさを表す。 The amount of change Δy is the y-axis direction (second) on the image at the position of the subject image 63-1 changed due to image blurring with respect to the position of the subject image 63 when the cutout range 62A is set to the reference state. Represents the magnitude of displacement in the linear direction).

変化量Δθは、切出し範囲62Aが基準状態に設定されているときの被写体像63の傾きに対して、像ブレにより変化した被写体像63-1の傾きへの画像上における回転方向の角度変化の大きさを表す。ただし、図2では、変化量Δθは0として表されている。 The amount of change Δθ is the change in the angle of the rotation direction on the image to the inclination of the subject image 63-1 changed by the image blur with respect to the inclination of the subject image 63 when the cutout range 62A is set to the reference state. Represents the size. However, in FIG. 2, the amount of change Δθ is represented as 0.

このような像ブレ量β(Δx、Δy、Δθ)の像ブレに対して、切出し範囲62Aが、基準状態の位置及び傾きに対して、像ブレ量β(Δx、Δy、Δθ)と同じ変化量でx軸方向、y軸方向、及び、回転方向に変化し、切出し範囲62A-1の位置及び傾きに変更されたとする。このとき、切出し範囲62A-1から切り出される有効画像62-1における被写体像63-1の位置及び傾きは、基準状態の切出し範囲62Aから切り出される有効画像62における被写体像63の位置及び傾きと一致する。したがって、有効画像62-1は、像ブレが補正された画像となる。 For such an image blur of the image blur amount β (Δx, Δy, Δθ), the cutout range 62A has the same change as the image blur amount β (Δx, Δy, Δθ) with respect to the position and inclination of the reference state. It is assumed that the amount changes in the x-axis direction, the y-axis direction, and the rotation direction, and the position and inclination of the cutting range 62A-1 are changed. At this time, the position and inclination of the subject image 63-1 in the effective image 62-1 cut out from the cutout range 62A-1 coincide with the position and inclination of the subject image 63 in the effective image 62 cut out from the cutout range 62A in the reference state. do. Therefore, the effective image 62-1 is an image in which image blur is corrected.

そこで、ブレ補正テーブル部35は、ブレ量算出部34から供給されたカメラ1のブレ量α(θx、θy、θz、Dx、Dy、Dz)に対して、そのブレに起因する像ブレ量β(Δx、Δy、Δθ)をブレ補正量γ(Δx、Δy、Δθ)として算出する。ブレ補正部36は、ブレ補正テーブル部35から供給されるブレ補正量γ(Δx、Δy、Δθ)に従って切出し範囲62Aの位置及び傾きを基準状態の位置及び傾きに対して変更する。これにより、像ブレが補正される。 Therefore, the image stabilization table unit 35 has an image blur amount β due to the blur with respect to the blur amount α (θx, θy, θz, Dx, Dy, Dz) of the camera 1 supplied from the blur amount calculation unit 34. (Δx, Δy, Δθ) is calculated as the blur correction amount γ (Δx, Δy, Δθ). The image stabilization unit 36 changes the position and inclination of the cutting range 62A with respect to the position and inclination in the reference state according to the image stabilization amount γ (Δx, Δy, Δθ) supplied from the image stabilization table unit 35. This corrects the image blur.

ここで、ブレ補正量γ(Δx、Δy、Δθ)の成分である変更量Δxは、画像上におけるx軸方向への切出し範囲62Aの基準状態の位置からの変更量を表す。ブレ補正量γ(Δx、Δy、Δθ)の成分である変更量Δyは、画像上におけるy軸方向への切出し範囲62Aの基準状態の位置からの変更量を表す。ブレ補正量γ(Δx、Δy、Δθ)の成分である変更量Δθは、画像上における回転方向への切出し範囲62Aの基準状態の傾きからの変更量を表す。ブレ補正量γ(Δx、Δy、Δθ)の成分である変更量Δx、Δy、Δθは、それぞれ像ブレ量β(Δx、Δy、Δθ)の成分である変化量Δx、Δy、Δθと等価である。 Here, the change amount Δx, which is a component of the blur correction amount γ (Δx, Δy, Δθ), represents the change amount from the position of the reference state of the cutout range 62A in the x-axis direction on the image. The change amount Δy, which is a component of the blur correction amount γ (Δx, Δy, Δθ), represents the change amount from the position of the reference state of the cutout range 62A in the y-axis direction on the image. The change amount Δθ, which is a component of the blur correction amount γ (Δx, Δy, Δθ), represents the change amount from the inclination of the reference state of the cutout range 62A in the rotation direction on the image. The change amounts Δx, Δy, and Δθ, which are components of the image stabilization amount γ (Δx, Δy, Δθ), are equivalent to the change amounts Δx, Δy, and Δθ, which are components of the image blur amount β (Δx, Δy, Δθ), respectively. be.

ブレ補正量γ(Δx、Δy、Δθ)の成分である変更量Δx、Δy、及び、Δθ、即ち、像ブレ量β(Δx、Δy、Δθ)の成分である変化量Δx、Δy、及び、Δθは、ブレ量α(θx、θy、θz、Dx、Dy、Dz)に対して次式(1)乃至(3)のような関係を有する。 The amount of change Δx, Δy, which is a component of the amount of blur correction γ (Δx, Δy, Δθ), and Δθ, that is, the amount of change Δx, Δy, and the amount of change, which is a component of the amount of image blur β (Δx, Δy, Δθ). Δθ has a relationship as shown in the following equations (1) to (3) with respect to the amount of blur α (θx, θy, θz, Dx, Dy, Dz).

Δx=a1・θy+b1・Dx ・・・(1)
Δy=a2・θx+b2・Dy ・・・(2)
Δθ=a3・θz ・・・(3)
ただし、a1、b1、a2、b2、a3は、所定の定数である。
Δx = a1 ・ θy + b1 ・ Dx ・ ・ ・ (1)
Δy = a2 ・ θx + b2 ・ Dy ・ ・ ・ (2)
Δθ = a3 ・ θz ・ ・ ・ (3)
However, a1, b1, a2, b2, and a3 are predetermined constants.

ブレ量α(θx、θy、θz、Dx、Dy、Dz)の成分であるカメラ1のz軸方向のシフトブレDzは、主にピント位置の変動による像ブレに影響し、光学系11aのフォーカス調整によりブレ補正が行われる。フォーカス調整としてカメラ1がオートフォーカスの機能を有する場合には、連続的なオートフォーカスにより自動的に補正される。従って、上式(1)乃至(3)では、シフトブレDzは、ブレ補正量γ(Δx、Δy、Δθ)の算出には寄与しないものとしている。ブレ補正において、シフトブレDzの検出は必ずしも必要ではなく、ブレ検出センサとしてのIMUセンサ31によるカメラ1のz軸方向の加速度の検出は行わない場合であってもよい。 The shift blur Dz in the z-axis direction of the camera 1, which is a component of the blur amount α (θx, θy, θz, Dx, Dy, Dz), mainly affects the image blur due to the fluctuation of the focus position, and the focus adjustment of the optical system 11a. Blurring correction is performed by. When the camera 1 has an autofocus function as focus adjustment, it is automatically corrected by continuous autofocus. Therefore, in the above equations (1) to (3), the shift blur Dz does not contribute to the calculation of the blur correction amount γ (Δx, Δy, Δθ). In the image stabilization, it is not always necessary to detect the shift image Dz, and the IMU sensor 31 as the image detection sensor may not detect the acceleration of the camera 1 in the z-axis direction.

式(1)における切出し範囲(像ブレ)のx軸方向の変更量Δx(変化量Δx)の算出には、カメラ1のヨー方向(y軸周り方向)の角度ブレθyが大きく寄与し、カメラ1のx軸方向のシフトブレDxの寄与は小さい。したがって、ブレ補正において、カメラ1のシフトブレDxの検出は必ずしも必要ではなく、ブレ検出センサとしてのIMUセンサ31によるカメラ1のx軸方向の加速度の検出は行わない場合であってもよい。 The angle blur θy in the yaw direction (direction around the y-axis) of the camera 1 greatly contributes to the calculation of the change amount Δx (change amount Δx) in the x-axis direction of the cutout range (image blur) in the equation (1). The contribution of the shift blur Dx in the x-axis direction of 1 is small. Therefore, it is not always necessary to detect the shift blur Dx of the camera 1 in the blur correction, and the acceleration in the x-axis direction of the camera 1 may not be detected by the IMU sensor 31 as the blur detection sensor.

同様に、式(2)における切出し範囲(像ブレ)のy軸方向のへ変更量Δy(変化量Δy)の算出には、カメラ1のピッチ方向(x軸周り方向)の角度ブレθxが大きく寄与し、カメラ1のy軸方向のシフトブレDyの寄与は小さい。したがって、ブレ補正において、カメラ1のシフトブレDyの検出は必ずしも必要ではなく、ブレ検出センサとしてのIMUセンサ31によるカメラ1のy軸方向の加速度の検出は行わない場合であってもよい。 Similarly, in the calculation of the change amount Δy (change amount Δy) in the y-axis direction of the cutout range (image blur) in the equation (2), the angle blur θx in the pitch direction (x-axis direction) of the camera 1 is large. The contribution of the shift blur Dy in the y-axis direction of the camera 1 is small. Therefore, it is not always necessary to detect the shift blur Dy of the camera 1 in the blur correction, and the acceleration in the y-axis direction of the camera 1 may not be detected by the IMU sensor 31 as the blur detection sensor.

式(3)における切出し範囲(像ブレ)の変更量Δθ(変化量Δθ)は、像ブレに対する影響が小さいため、必ずしも算出する必要はない。したがって、ブレ補正量γ(Δx、Δy、Δθ)として変更量Δx及びΔyのみを算出し、切出し範囲をx軸方向及びy軸方向のみに変位させるようにしてもよい。この場合に、ブレ補正において、カメラ1のロール方向(z軸周り方向)の回転ブレθzの検出は必ずしも必要ではなく、ブレ検出センサとしてのIMUセンサ31によるカメラ1のz軸周り方向の角速度の検出は行わない場合であってもよい。 The change amount Δθ (change amount Δθ) of the cutout range (image blur) in the equation (3) does not necessarily have to be calculated because it has a small effect on the image blur. Therefore, only the change amounts Δx and Δy may be calculated as the blur correction amount γ (Δx, Δy, Δθ), and the cutting range may be displaced only in the x-axis direction and the y-axis direction. In this case, it is not always necessary to detect the rotational blur θz in the roll direction (direction around the z-axis) of the camera 1 in the blur correction, and the angular velocity of the camera 1 in the z-axis direction by the IMU sensor 31 as the blur detection sensor. It may be the case that the detection is not performed.

上述のように、式(1)をΔx=a1・θy、式(2)をΔy=a2・θxとしてブレ補正量γ(像ブレ量β)を算出する場合、ブレ補正センサとしてのIMUセンサ31は、加速度センサを備えず、角速度センサのみを備えていてもよい。 As described above, when the blur correction amount γ (image blur amount β) is calculated by setting the equation (1) as Δx = a1 · θy and the equation (2) as Δy = a2 · θx, the IMU sensor 31 as the blur correction sensor 31. May include only an angular velocity sensor without an accelerometer.

(サンプリング部32のサンプリング周波数)
次に、サンプリング部32のサンプリング周波数について説明する。
(Sampling frequency of sampling unit 32)
Next, the sampling frequency of the sampling unit 32 will be described.

図1において、サンプリング部32のサンプリング周波数は、ブレ補正レベル判定処理部37の判定結果であるブレ補正レベルに応じて変更される。ブレ補正レベル判定処理部37は、ブレ補正テーブル部35で算出されたブレ補正量γに基づいて像ブレ(ブレ補正量γ)の大きさ(包括的な大きさ)を算出してブレ補正レベルを判定する。 In FIG. 1, the sampling frequency of the sampling unit 32 is changed according to the image stabilization level which is the determination result of the image stabilization level determination processing unit 37. The image stabilization level determination processing unit 37 calculates the size (comprehensive size) of the image shake (image stabilization amount γ) based on the image stabilization amount γ calculated by the image stabilization table unit 35, and the image stabilization level. To judge.

ブレ補正量γの大きさは、像ブレを補正するために動作させるブレ補正部36の制御対象の動作範囲の包括的な大きさを表す。同時に、ブレ補正量γの大きさは、カメラ1のブレに起因する像ブレ(像ブレ量β)の大きさ(包括的な大きさ)を意味する。 The magnitude of the blur correction amount γ represents the comprehensive magnitude of the operating range of the controlled object of the blur correction unit 36 operated to correct the image blur. At the same time, the magnitude of the blur correction amount γ means the magnitude (comprehensive magnitude) of the image blur (image blur amount β) caused by the blur of the camera 1.

即ち、本実施の形態のブレ補正装置21のように電子式のブレ補正を採用した場合には、上述のようにブレ補正量γは像ブレ量βと等価であるため、下記のように算出されるブレ補正量γの大きさは像ブレの大きさを直接的に表す。ブレ補正装置が光学式のブレ補正を採用している場合、ブレ補正量γは、ブレ補正部の制御対象を動作させる制御情報として、制御対象の動作内容に応じた量となるので、必ずしも像ブレ量βと一致しない。しかしながら、ブレ補正量γは像ブレ量βと間接的に関係するので、光学式のブレ補正の場合であっても、ブレ補正量γの大きさは像ブレの大きさを意味する。光学式のブレ補正の場合には、ブレ補正量γの大きさではなく、像ブレ量βをブレ量αから算出し、像ブレ量βの大きさを算出してもよい。 That is, when electronic image stabilization is adopted as in the image stabilization device 21 of the present embodiment, the image stabilization amount γ is equivalent to the image image stabilization amount β as described above, so the calculation is as follows. The magnitude of the blur correction amount γ to be performed directly represents the magnitude of image blur. When the image stabilization device employs optical image stabilization, the image stabilization amount γ is an amount that corresponds to the operation content of the control target as control information for operating the control target of the image stabilization unit, so it is not necessarily an image. It does not match the amount of blur β. However, since the blur correction amount γ is indirectly related to the image blur amount β, the magnitude of the blur correction amount γ means the magnitude of the image blur even in the case of optical blur correction. In the case of optical image stabilization, the image stabilization amount β may be calculated from the image stabilization amount α instead of the magnitude of the image stabilization amount γ, and the magnitude of the image blur amount β may be calculated.

なお、以下において、ブレ補正量γの大きさという代わりに像ブレの大きさという。カメラ1のブレ(ブレ量α)の大きさも像ブレの大きさと関連があるので、像ブレの大きさは、カメラ1のブレの大きさも意味する。したがって、像ブレの大きさとカメラ1のブレの大きさとの両方の意味を含めてブレ具合ともいう。 In the following, the magnitude of the image blur is referred to instead of the magnitude of the image stabilization amount γ. Since the magnitude of the blur (blur amount α) of the camera 1 is also related to the magnitude of the image blur, the magnitude of the image blur also means the magnitude of the blur of the camera 1. Therefore, it is also referred to as the degree of blurring, including the meanings of both the magnitude of image blurring and the magnitude of blurring of the camera 1.

ブレ補正量γ、即ち、像ブレ量βは複数の成分を有するので、ブレ補正レベル判定処理部37は、像ブレの大きさとして、像ブレの包括的な大きさ(ブレ具合G)を、ブレ補正量γ(Δx、Δy、Δθ)に基づいて、例えば次式(4)及び(5)により算出する。 Since the blur correction amount γ, that is, the image blur amount β has a plurality of components, the blur correction level determination processing unit 37 determines the comprehensive magnitude of the image blur (blurring degree G) as the magnitude of the image blur. It is calculated by, for example, the following equations (4) and (5) based on the image stabilization amount γ (Δx, Δy, Δθ).

g=a4・(Δx)+b4・(Δy)+c4・(Δθ) ・・・(4)
G=max{g}} ・・・(5)
ただし、a4、b4、及び、c4は所定の定数である。
g = a4 ・ (Δx) 2 + b4 ・ (Δy) 2 + c4 ・ (Δθ) 2・ ・ ・ (4)
G = max {g}} ・ ・ ・ (5)
However, a4, b4, and c4 are predetermined constants.

式(4)によれば、変数gの値が、変更量Δx、Δy、及び、Δθに基づいて算出される。変更量Δx、Δy、及び、Δθは振動する値であるので、変数gの値も変動する。式(5)によれば、その振動する変数gの値の最大値がブレ具合Gとして算出される。 According to the equation (4), the value of the variable g is calculated based on the change amounts Δx, Δy, and Δθ. Since the change amounts Δx, Δy, and Δθ are oscillating values, the value of the variable g also fluctuates. According to the equation (5), the maximum value of the vibrating variable g is calculated as the degree of blurring G.

ただし、ブレ具合Gは、変数gの平均値であってもよい。式(4)の変数gは、例えば、右辺第3項を除く変化量Δx及びΔyとにより算出される値としてもよい。この場合に定数a4及びb4を同一値として、画像上で像ブレにより像が変位する範囲の大きさをブレ具合Gとしてもよい。ブレ具合Gは、式(4)及び(5)で算出される値でなくてもよく、像ブレの包括的な大きさを評価する値であればよい。ブレ具合Gは、ブレ量算出部34で算出されたブレ量αに基づいて算出される値であってもよいし、IMUセンサ31から取得された検出データに基づいて算出される値であってもよい。 However, the degree of blurring G may be the average value of the variables g. The variable g in the equation (4) may be, for example, a value calculated by the changes Δx and Δy excluding the third term on the right side. In this case, the constants a4 and b4 may be set to the same value, and the size of the range in which the image is displaced due to image blurring on the image may be set to the degree of blurring G. The degree of blurring G does not have to be the value calculated by the equations (4) and (5), and may be a value for evaluating the comprehensive magnitude of image blurring. The blur condition G may be a value calculated based on the blur amount α calculated by the blur amount calculation unit 34, or a value calculated based on the detection data acquired from the IMU sensor 31. May be good.

ブレ補正レベル判定処理部37は、算出したブレ具合Gのブレ補正レベルを判定する。ブレ補正レベルは、上述のようにブレ具合Gが大きい順に大レベル、中レベル、小レベル、及び、無レベルの4つのレベルを有する。 The image stabilization level determination processing unit 37 determines the calculated image stabilization level of the degree G. As described above, the image stabilization level has four levels, that is, a large level, a medium level, a small level, and no level in descending order of the degree of blur G.

ブレ補正レベル判定処理部37は、ブレ具合Gを、事前に決められた閾値H1、H2、及び、H3(ただし、0<H1<H2<H3)と比較して、ブレ具合Gのブレ補正レベルを判定する。ブレ具合Gが、閾値H1未満である場合には、ブレ具合Gのブレ補正レベルが無レベルと判定する。無レベルは、ブレ補正が不要な程に像ブレがほとんど生じていない場合を示す。ブレ具合Gが、閾値H1以上で、かつ、閾値H2未満である場合には、ブレ具合Gのブレ補正レベルが小レベルと判定される。ブレ具合Gが、閾値H2以上で、かつ、閾値H3未満である場合には、ブレ具合Gのブレ補正レベルが中レベルと判定される。ブレ具合Gが、閾値H3以上である場合には、ブレ具合Gのブレ補正レベルが大レベルと判定される。 The image stabilization level 37 determines the image stabilization level of the image stabilization G by comparing the image stabilization level G with the predetermined threshold values H1, H2, and H3 (however, 0 <H1 <H2 <H3). Is determined. When the blur condition G is less than the threshold value H1, it is determined that the blur correction level of the blur condition G is no level. No level indicates a case where image blur is hardly generated to the extent that image stabilization is unnecessary. When the blur condition G is equal to or higher than the threshold value H1 and less than the threshold value H2, the blur correction level of the blur condition G is determined to be a small level. When the blur condition G is equal to or higher than the threshold value H2 and less than the threshold value H3, the blur correction level of the blur condition G is determined to be a medium level. When the blur condition G is equal to or higher than the threshold value H3, the blur correction level of the blur condition G is determined to be a large level.

ブレ補正レベル判定処理部37により判定されたブレ具合Gのブレ補正レベルは、サンプリング部32に供給される。 The image stabilization level of the image stabilization G determined by the image stabilization level determination processing unit 37 is supplied to the sampling unit 32.

サンプリング部32は、ブレ補正レベル判定処理部37からの判定結果であるブレ具合Gのブレ補正レベルに基づいて、検出データ(IMUデータ)を取得する際のサンプリング周波数を設定する。 The sampling unit 32 sets the sampling frequency when acquiring the detection data (IMU data) based on the image stabilization level of the image stabilization G, which is the determination result from the image stabilization level determination processing unit 37.

サンプリング部32は、例えば、サンプリング周波数を事前に決められた3種類の周波数f1、f2、及び、f3(ただし、0<f1<f2<f3)のいずれかに設定する。 The sampling unit 32 sets, for example, the sampling frequency to one of three predetermined frequencies f1, f2, and f3 (where 0 <f1 <f2 <f3).

図3は、ブレ具合Gとサンプリング部32でのサンプリング周波数との関係等を表した図である。 FIG. 3 is a diagram showing the relationship between the degree of blurring G and the sampling frequency in the sampling unit 32.

図3の状況A乃至Dは、それぞれ像ブレの大きさが異なる場合を表す。状況Aでは、像ブレが標準(普通)よりも大きく、ブレ補正レベル判定処理部37ではブレ具合Gのブレ補正レベルが大レベルと判定される。この場合、サンプリング部32でのサンプリング周波数は、選択可能な周波数f1乃至f3のうちの最大の周波数f3に設定される。 Situations A to D in FIG. 3 represent cases where the magnitude of image blur is different. In the situation A, the image blur is larger than the standard (normal), and the blur correction level determination processing unit 37 determines that the blur correction level of the blur condition G is a large level. In this case, the sampling frequency in the sampling unit 32 is set to the maximum frequency f3 among the selectable frequencies f1 to f3.

状況Bでは、像ブレが標準(普通)の大きさであり、ブレ補正レベル判定処理部37ではブレ具合Gのブレ補正レベルが中レベルと判定される。この場合、サンプリング部32でのサンプリング周波数は、選択可能な周波数f1乃至f3のうちの中間の周波数f2に設定される。 In the situation B, the image blur is a standard (normal) magnitude, and the blur correction level determination processing unit 37 determines that the blur correction level of the blur condition G is a medium level. In this case, the sampling frequency in the sampling unit 32 is set to the intermediate frequency f2 among the selectable frequencies f1 to f3.

状況Cでは、像ブレが標準(普通)よりも小さく、ブレ補正レベル判定処理部37ではブレ具合Gのブレ補正レベルが小レベルと判定される。この場合、サンプリング部32でのサンプリング周波数は、選択可能な周波数f1乃至f3のうちの最小の周波数f1に設定される。 In the situation C, the image blur is smaller than the standard (normal), and the blur correction level determination processing unit 37 determines that the blur correction level of the blur condition G is a small level. In this case, the sampling frequency in the sampling unit 32 is set to the smallest frequency f1 among the selectable frequencies f1 to f3.

状況Dでは、像ブレがほとんど生じておらず、ブレ補正レベル判定処理部37ではブレ具合Gのブレ補正レベルが無レベルと判定される。この場合、サンプリング部32でのサンプリング周波数は、選択可能な周波数f1乃至f3のうちの最小の周波数f1に設定される。 In the situation D, almost no image blurring occurs, and the blur correction level determination processing unit 37 determines that the blur correction level of the blur condition G is no level. In this case, the sampling frequency in the sampling unit 32 is set to the smallest frequency f1 among the selectable frequencies f1 to f3.

状況Aにおいて、サンプリング部32のサンプリング周波数が最大の周波数f3に設定された場合、バッファメモリ33に蓄積される検出データ(IMUデータ)の蓄積量が他の状況B乃至Dと比べて大きく、最大となる。このとき、ブレ量算出部34でのブレ量αの算出等に使用される検出データのデータ量が多くなるため、ブレ補正に要する処理量(後述のDSP(Digital Signal Processor)の処理量)が他の状況B乃至Dと比べて最大となる。そのため、消費電力も最大となるが、像ブレの大きさに対して適正な精度でブレ量αの算出及びブレ補正量γの算出等が行われる。 In the situation A, when the sampling frequency of the sampling unit 32 is set to the maximum frequency f3, the accumulated amount of the detection data (IMU data) stored in the buffer memory 33 is larger than that in the other situations B to D, and is the maximum. It becomes. At this time, since the data amount of the detection data used for calculating the blur amount α in the blur amount calculation unit 34 becomes large, the processing amount required for the blur correction (the processing amount of the DSP (Digital Signal Processor) described later) becomes large. It is the maximum compared to other situations B to D. Therefore, although the power consumption is maximized, the blur amount α and the blur correction amount γ are calculated with appropriate accuracy for the magnitude of the image blur.

状況Bにおいて、サンプリング部32のサンプリング周波数が中間の周波数f2に設定された場合、バッファメモリ33に蓄積される検出データ(IMUデータ)の蓄積量が他の状況A、C、及び、Dと比べて中程度(普通)となる。このとき、ブレ量算出部34でのブレ量αの算出等に使用される検出データのデータ量が中程度であるため、ブレ補正に要する処理量(DSPの処理量)が他の状況A、C、及び、Dと比べて普通となる。そのため、消費電力も普通であり、像ブレの大きさに対して適正な精度でブレ量αの算出及びブレ補正量γの算出等が行われる。 In situation B, when the sampling frequency of the sampling unit 32 is set to the intermediate frequency f2, the amount of detection data (IMU data) stored in the buffer memory 33 is compared with the other situations A, C, and D. Medium (normal). At this time, since the data amount of the detection data used for the calculation of the blur amount α by the blur amount calculation unit 34 is medium, the processing amount (DSP processing amount) required for the blur correction is the other situation A. It becomes normal compared with C and D. Therefore, the power consumption is also normal, and the blur amount α and the blur correction amount γ are calculated with appropriate accuracy for the magnitude of the image blur.

状況Cにおいて、サンプリング部32のサンプリング周波数が最小の周波数f1に設定された場合、バッファメモリ33に蓄積される検出データ(IMUデータ)の蓄積量が状況A及びBと比べて最小となる。このとき、ブレ量算出部34でのブレ量αの算出等に使用される検出データのデータ量が少なくなるため、ブレ補正に要す処理量(DSPの処理量)が状況A、及び、Bと比べて最小となる。そのため、状況A、及び、Bと比べて消費電力も最小となる。像ブレが小さいため、ブレ量算出部34でのブレ量αの算出等に用いられる検出データのデータ量が少なくても適正な精度でブレ量αの算出及びブレ補正量γの算出等が行われる。 In the situation C, when the sampling frequency of the sampling unit 32 is set to the minimum frequency f1, the storage amount of the detection data (IMU data) stored in the buffer memory 33 becomes the minimum as compared with the situations A and B. At this time, since the data amount of the detection data used for calculating the blur amount α in the blur amount calculation unit 34 is reduced, the processing amount (DSP processing amount) required for the blur correction is the situations A and B. Is the smallest compared to. Therefore, the power consumption is also the minimum as compared with the situations A and B. Since the image blur is small, even if the amount of detection data used for calculating the blur amount α in the blur amount calculation unit 34 is small, the blur amount α and the blur correction amount γ can be calculated with appropriate accuracy. Will be.

状況Dにおいて、サンプリング部32のサンプリング周波数が最小の周波数f1に設定された場合、バッファメモリ33に蓄積される検出データ(IMUデータ)の蓄積量が状況A及びBと比べて最小となり、状況Cと同等となる。また、状況Dのように、ブレ具合Gのブレ補正レベルが無レベルと判定された場合、ブレ補正を行う必要がないため、ブレ補正の処理を行うDSPをスリープ状態にしてブレ量αやブレ補正量γの算出を行わずにブレ補正を停止させることができる。そのため、他の状況A乃至Cと比べて消費電力が最小となる。 In the situation D, when the sampling frequency of the sampling unit 32 is set to the minimum frequency f1, the accumulated amount of the detection data (IMU data) stored in the buffer memory 33 becomes the minimum as compared with the situations A and B, and the situation C Is equivalent to. Further, as in the situation D, when the blur correction level of the blur condition G is determined to be no level, it is not necessary to perform the blur correction, so the DSP that performs the blur correction processing is put into the sleep state and the blur amount α or the blur is set. It is possible to stop the image stabilization without calculating the correction amount γ. Therefore, the power consumption is minimized as compared with other situations A to C.

<ブレ補正装置21におけるサンプリング周波数の設定処理>
図4は、ブレ補正装置21が行うIMUデータのサンプリング周波数の設定処理の手順を例示したフローチャートである。
<Sampling frequency setting process in the image stabilizer 21>
FIG. 4 is a flowchart illustrating the procedure for setting the sampling frequency of the IMU data performed by the image stabilization device 21.

ステップS11では、ブレ補正装置21がブレ補正を開始すると、サンプリング部32は、サンプリング周波数を所定の初期値(例えば、最大の周波数f3)に設定し、ブレ補正テーブル部35は、ブレ補正量γを算出する。処理はステップS11からステップS12に進む。なお、ブレ量算出部34でのブレ量αの算出及びブレ補正テーブル部35でのブレ補正量γの算出、ブレ補正部36での切出し範囲の制御等は、以下においてブレ補正の処理として適宜行われているものとし明示しない。 In step S11, when the image stabilization device 21 starts image stabilization, the sampling unit 32 sets the sampling frequency to a predetermined initial value (for example, the maximum frequency f3), and the image stabilization table unit 35 sets the image stabilization amount γ. Is calculated. The process proceeds from step S11 to step S12. It should be noted that the calculation of the blur amount α in the blur amount calculation unit 34, the calculation of the blur correction amount γ in the blur correction table unit 35, the control of the cutting range in the blur correction unit 36, etc. are appropriate as the blur correction processing below. It is assumed that it has been done and is not specified.

ステップS12では、ブレ補正レベル判定処理部37は、ブレ補正テーブル部35で算出されたブレ補正量γに基づいて、ブレ具合Gのブレ補正レベルが大レベル(ブレ具合Gが大)か否かを判定する。即ち、ブレ補正量γに基づいて上式(4)及び(5)により算出されるブレ具合Gが閾値H3以上であるか否かを判定する。 In step S12, the image stabilization level determination processing unit 37 determines whether or not the image stabilization level of the image stabilization G is a large level (the image stabilization level G is large) based on the image stabilization amount γ calculated by the image stabilization table unit 35. To judge. That is, it is determined whether or not the blur condition G calculated by the above equations (4) and (5) is equal to or higher than the threshold value H3 based on the blur correction amount γ.

ステップS12において、ブレ具合Gが大と判定された場合には、処理はステップS12からステップS13に進む。 If it is determined in step S12 that the degree of blurring G is large, the process proceeds from step S12 to step S13.

ステップS13では、サンプリング部32は、サンプリング周波数を最大(周波数f3)に設定する。処理はステップS13からステップS14に進む。 In step S13, the sampling unit 32 sets the sampling frequency to the maximum (frequency f3). The process proceeds from step S13 to step S14.

ステップS14では、ブレ補正装置21でのブレ補正の処理が行われのDSPでの処理量が最大となる。処理はステップS14からステップS12に戻る。 In step S14, the image stabilization process of the image stabilization device 21 is performed, and the processing amount of the DSP is maximized. The process returns from step S14 to step S12.

ステップS12において、ブレ具合Gが大でないと判定された場合、処理はステップS12からステップS15に進む。 If it is determined in step S12 that the degree of blurring G is not large, the process proceeds from step S12 to step S15.

ステップS15では、ブレ補正レベル判定処理部37は、ブレ補正テーブル部35で算出されたブレ補正量γに基づいて、ブレ具合Gのブレ補正レベルが中レベル(ブレ具合Gが普通)か否かを判定する。即ち、ブレ補正量γに基づいて上式(4)及び(5)により算出されるブレ具合Gが閾値H2以上で、かつ、閾値H3未満であるか否かを判定する。 In step S15, the image stabilization level determination processing unit 37 determines whether or not the image stabilization level of the image stabilization G is a medium level (normal image stabilization G) based on the image stabilization amount γ calculated by the image stabilization table unit 35. To judge. That is, it is determined whether or not the blur condition G calculated by the above equations (4) and (5) based on the blur correction amount γ is equal to or more than the threshold value H2 and is less than the threshold value H3.

ステップS15において、ブレ具合Gが普通と判定された場合には、処理はステップS15からステップS16に進む。 If it is determined in step S15 that the degree of blurring G is normal, the process proceeds from step S15 to step S16.

ステップS16では、サンプリング部32は、サンプリング周波数を普通(周波数f2)に設定する。処理はステップS16からステップS17に進む。 In step S16, the sampling unit 32 sets the sampling frequency to normal (frequency f2). The process proceeds from step S16 to step S17.

ステップS17では、ブレ補正装置21でのブレ補正の処理が行われのDSPでの処理量が普通となる。処理はステップS17からステップS12に戻る。 In step S17, the amount of processing in the DSP after the image stabilization processing in the image stabilization device 21 is performed becomes normal. The process returns from step S17 to step S12.

ステップS15において、ブレ具合Gが普通でないと判定された場合、処理はステップS15からステップS18に進む。 If it is determined in step S15 that the degree of blurring G is not normal, the process proceeds from step S15 to step S18.

ステップS18では、ブレ補正レベル判定処理部37は、ブレ補正テーブル部35で算出されたブレ補正量γに基づいて、ブレ具合Gのブレ補正レベルが小レベル(ブレ具合が小)か否かを判定する。即ち、ブレ補正量γに基づいて上式(4)及び(5)により算出されるブレ具合Gが閾値H1以上で、かつ、閾値H2未満であるか否かを判定する。 In step S18, the image stabilization level determination processing unit 37 determines whether or not the image stabilization level of the image stabilization G is a small level (the image stabilization is small) based on the image stabilization amount γ calculated by the image stabilization table unit 35. judge. That is, it is determined whether or not the blur condition G calculated by the above equations (4) and (5) based on the blur correction amount γ is equal to or more than the threshold value H1 and is less than the threshold value H2.

ステップS18において、ブレ具合Gが小と判定された場合には、処理はステップS18からステップS19に進む。 If it is determined in step S18 that the degree of blurring G is small, the process proceeds from step S18 to step S19.

ステップS19では、サンプリング部32は、サンプリング周波数を最小(周波数f1)に設定する。処理はステップS19からステップS20に進む。 In step S19, the sampling unit 32 sets the sampling frequency to the minimum (frequency f1). The process proceeds from step S19 to step S20.

ステップS20では、ブレ補正装置21でのブレ補正の処理が行われのDSPでの処理量が最小となる。処理はステップS20からステップS12に戻る。 In step S20, the image stabilization process of the image stabilization device 21 is performed, and the amount of processing by the DSP is minimized. The process returns from step S20 to step S12.

ステップS18において、ブレ具合Gが小でないと判定された場合、即ち、ブレ補正レベル判定処理部37でブレ具合Gのブレ補正レベルが無レベルであると判定された場合、処理は、ステップS18からステップS21に進む。 In step S18, when it is determined that the blur condition G is not small, that is, when the blur correction level determination processing unit 37 determines that the blur correction level of the blur condition G is no level, the process starts from step S18. The process proceeds to step S21.

ステップS21では、サンプリング部32は、サンプリング周波数を最小(周波数f1)に設定する。処理は、ステップS21からステップS22に進む。 In step S21, the sampling unit 32 sets the sampling frequency to the minimum (frequency f1). The process proceeds from step S21 to step S22.

ステップS22では、DSPがスリープ状態に設定され、ブレ補正装置21でのブレ補正のためのDSPでの処理が停止する。処理は、ステップS22からステップS12に戻る。なお、DSPがスリープ状態に設定された場合、ブレ量αやブレ補正量γの算出が停止されるので、ステップS12、ステップS15、及び、ステップS18のブレ補正レベルの判定も停止する。そこで、DSPがスリープ状態に設定された場合、一定時間経過後にDSPのスリープ状態を解除して、ブレ量αの算出及びブレ補正量γの算出が行われるようにし、ステップS12、ステップS15、及び、ステップS18のブレ補正レベルの判定が行われるようにしてもよい。または、DSPがスリープ状態に設定された場合、検出データに所定の変化(値の増加等)が生じた場合にDSPのスリープ状態を解除して、ステップS12、ステップS15、及び、ステップS18のブレ補正レベルの判定が行われるようにしてもよい。 In step S22, the DSP is set to the sleep state, and the processing by the DSP for blur correction in the blur correction device 21 is stopped. The process returns from step S22 to step S12. When the DSP is set to the sleep state, the calculation of the blur amount α and the blur correction amount γ is stopped, so that the determination of the blur correction level in steps S12, S15, and S18 is also stopped. Therefore, when the DSP is set to the sleep state, the sleep state of the DSP is released after a certain period of time so that the blur amount α and the blur correction amount γ are calculated, and steps S12, S15, and , The blur correction level in step S18 may be determined. Alternatively, when the DSP is set to the sleep state, the DSP is released from the sleep state when a predetermined change (value increase, etc.) occurs in the detected data, and the shake of step S12, step S15, and step S18 occurs. The correction level may be determined.

なお、ブレ補正の処理は、DSP以外の処理部で行われる場合であってもよく、その場合でもブレ補正レベルに応じてサンプリング周波数を変更することで消費電力が低減される。 The image stabilization process may be performed by a processing unit other than the DSP, and even in that case, the power consumption is reduced by changing the sampling frequency according to the image stabilization level.

以上の処理手順により、ブレ具合Gのブレ補正レベルに応じたサンプリング周波数で検出データ(IMUデータ)のサンプリングが行われる。これによって、ブレ補正レベルが低い(小さい)程、サンプリング周波数が低くなるので、ブレ補正の処理に要する消費電力が低減される。ブレ補正レベルが低い場合、即ち、像ブレが小さい場合には、ブレ量αの時間的変化が小さいので、サンプリング部32でのサンプリング周波数が低くても、ブレ量αの算出精度への影響は少ない。従って、ブレ補正の精度は、サンプリング周波数が高い場合と比較してほとんど低下しない。 By the above processing procedure, the detection data (IMU data) is sampled at the sampling frequency corresponding to the blur correction level of the blur condition G. As a result, the lower (smaller) the blur correction level, the lower the sampling frequency, so that the power consumption required for the blur correction process is reduced. When the blur correction level is low, that is, when the image blur is small, the change in the blur amount α over time is small, so even if the sampling frequency in the sampling unit 32 is low, the effect on the calculation accuracy of the blur amount α is large. Few. Therefore, the accuracy of image stabilization hardly decreases as compared with the case where the sampling frequency is high.

特許文献1(特開平9-5813号公報)、及び、特許文献2(特開平4-20947号公報)では、ブレ補正が不要な状況下でブレ補正を行わないことで消費電力を低減させているが、ブレ補正が必要な状況下では消費電力は低減されない。これに対して本技術では、ブレ補正を行いながら、像ブレの状態に応じて消費電力を低減することができるので、特許文献1、2の技術とは相違する。 In Patent Document 1 (Japanese Patent Laid-Open No. 9-5830) and Patent Document 2 (Japanese Patent Laid-Open No. 4-20947), power consumption is reduced by not performing image stabilization in a situation where image stabilization is not required. However, the power consumption is not reduced under the condition that the image stabilization is required. On the other hand, this technique is different from the techniques of Patent Documents 1 and 2 because it is possible to reduce the power consumption according to the state of image blur while performing blur correction.

<ハードウェア構成>
次に、図1のブレ補正装置21のハードウェア構成例について説明する。
図5は、図1のブレ補正装置21のハードウェア構成を例示したブロックである。
<Hardware configuration>
Next, a hardware configuration example of the image stabilization device 21 of FIG. 1 will be described.
FIG. 5 is a block illustrating the hardware configuration of the image stabilization device 21 of FIG.

図5のカメラ1は、図1のブレ補正装置21を搭載したカメラである。カメラ1による画像の取得に関する処理は、図1と同じであるので説明を省略する。 The camera 1 of FIG. 5 is a camera equipped with the image stabilization device 21 of FIG. Since the process for acquiring an image by the camera 1 is the same as that in FIG. 1, the description thereof will be omitted.

カメラ1は、ブレ補正に関連して、システムCPU(Central Processing Unit)81、DSP(Digital Signal Processor)82、IMUセンサ83、及び、バッテリ84を有する。なお、IMUセンサ83は、図1のIMUセンサ31に相当する。 The camera 1 has a system CPU (Central Processing Unit) 81, a DSP (Digital Signal Processor) 82, an IMU sensor 83, and a battery 84 in relation to blur correction. The IMU sensor 83 corresponds to the IMU sensor 31 in FIG.

システムCPU81は、CPU、RAM、ROM、各種入出力装置などを1つのICチップに搭載したワンチップCPU(マイクロプロセッサ)である。システムCPU81は、IMUセンサ83から出力される検出信号をサンプリングして検出データ(IMUデータ)を取得する。システムCPU81は、DSP82に対してIMUセンサ83からのIMUデータを供給し、像ブレを補正するためのブレ補正量γの算出処理、ブレ具合Gのブレ補正レベルの判定処理を行わせる。システムCPU81は、DSP82により算出されたブレ補正量γを取得し、カメラ1の不図示のブレ補正部(図1のブレ補正部36)に供給する。システムCPU81は、DSP82からブレ具合Gのブレ補正レベルを取得し、ブレ補正レベルに基づいて、IMUセンサ83からの検出信号をサンプリングする際のサンプリング周波数を設定する。 The system CPU 81 is a one-chip CPU (microprocessor) in which a CPU, RAM, ROM, various input / output devices, and the like are mounted on one IC chip. The system CPU 81 samples the detection signal output from the IMU sensor 83 and acquires the detection data (IMU data). The system CPU 81 supplies the IMU data from the IMU sensor 83 to the DSP 82, and causes the DSP 82 to perform a blur correction amount γ calculation process for image blur correction and a blur correction level determination process for the blur condition G. The system CPU 81 acquires the image stabilization amount γ calculated by the DSP 82 and supplies it to the image stabilization unit (abrasion correction unit 36 in FIG. 1) of the camera 1. The system CPU 81 acquires the image stabilization level of the degree of blur G from the DSP 82, and sets the sampling frequency when sampling the detection signal from the IMU sensor 83 based on the image stabilization level.

DSP82は、システムCPU81からのIMUデータを取得し、ブレ量α及びブレ補正量γを算出する。DSP82は、ブレ補正量γに基づいて、ブレ具合Gのブレ補正レベルを判定する。DSP82は、算出したブレ補正量γ、及び、ブレ補正レベルの判定結果をシステムCPU81に供給する。 The DSP 82 acquires the IMU data from the system CPU 81 and calculates the blur amount α and the blur correction amount γ. The DSP 82 determines the blur correction level of the blur condition G based on the blur correction amount γ. The DSP 82 supplies the calculated image stabilization amount γ and the determination result of the image stabilization level to the system CPU 81.

バッテリ84は、例えば、二次電池であり、カメラ1が搭載する回路やアクチュエータ等を駆動する電力を供給する。ただし、バッテリ84は、一次電池であってもよいし、カメラ1の電源としてバッテリ84ではなく、商用電源が用いられる場合であってもよい。 The battery 84 is, for example, a secondary battery and supplies electric power for driving a circuit, an actuator, or the like mounted on the camera 1. However, the battery 84 may be a primary battery, or may be a case where a commercial power source is used as the power source of the camera 1 instead of the battery 84.

システムCPU81は、ソフトウェア実行部91、記憶部92、RAM93、及び、RAM94を有する。 The system CPU 81 has a software execution unit 91, a storage unit 92, a RAM 93, and a RAM 94.

ソフトウェア実行部91は、記憶部92から読み出されてRAM93に一時的に記憶されたプログラムを実行する演算処理部である。ソフトウェア実行部91は、プログラムを実行することにより、カメラ1の各部の制御に関する処理を実行する。 The software execution unit 91 is an arithmetic processing unit that executes a program read from the storage unit 92 and temporarily stored in the RAM 93. The software execution unit 91 executes a process related to control of each unit of the camera 1 by executing a program.

記憶部92は、不揮発性メモリ(ROM)であり、ソフトウェア実行部91が実行するプログラムやソフトウェア実行部91が参照する各種データを記憶する。 The storage unit 92 is a non-volatile memory (ROM), and stores programs executed by the software execution unit 91 and various data referred to by the software execution unit 91.

RAM93は、ソフトウェア実行部91が記憶部92から読み出して実行するプログラムや参照するデータ等を一次的に格納する。 The RAM 93 temporarily stores a program to be read and executed by the software execution unit 91 from the storage unit 92, data to be referred to, and the like.

RAM94は、IMUセンサ83から出力された検出信号に対して、不図示のサンプリング部(図1のサンプリング部32)でサンプリングして取得された検出データ(IMUデータ)を一次的に記憶する。RAM94は、図1のバッファメモリ33に相当する。 The RAM 94 temporarily stores the detection data (IMU data) obtained by sampling the detection signal output from the IMU sensor 83 by a sampling unit (sampling unit 32 in FIG. 1) (not shown). The RAM 94 corresponds to the buffer memory 33 in FIG.

ソフトウェア実行部91は、プログラムの実行により、カメラ制御部101、充電管理部102、IMUデータ取得部103、及び、DSP制御部104としての処理を実行する。 The software execution unit 91 executes processing as the camera control unit 101, the charge management unit 102, the IMU data acquisition unit 103, and the DSP control unit 104 by executing the program.

カメラ制御部101は、カメラ1の各部の動作を制御する。例えば、カメラ制御部101は、図1の撮像部11、画像処理部12(ブレ補正部36を含む))、出力制御部13、表示部14、及び、記憶部15等の動作を制御する。 The camera control unit 101 controls the operation of each unit of the camera 1. For example, the camera control unit 101 controls the operations of the image pickup unit 11, the image processing unit 12 (including the image stabilization unit 36), the output control unit 13, the display unit 14, the storage unit 15, and the like in FIG.

充電管理部102は、カメラ1が商用電源に接続されている場合に、バッテリ84の充電を制御する。 The charge management unit 102 controls charging of the battery 84 when the camera 1 is connected to a commercial power source.

IMUデータ取得部103は、IMUセンサ83からの検出信号をサンプリングして検出データ(IMUデータ)を一時的にRAM94に記憶させ、RAM94に蓄積されたIMUデータを読み出して取得する。IMUデータ取得部103はブレ具合(ブレ補正レベル)に応じたサンプリング周波数の設定等のIMUデータ取得時のサンプリングに関する制御も行う。 The IMU data acquisition unit 103 samples the detection signal from the IMU sensor 83, temporarily stores the detection data (IMU data) in the RAM 94, and reads and acquires the IMU data stored in the RAM 94. The IMU data acquisition unit 103 also controls sampling at the time of IMU data acquisition, such as setting a sampling frequency according to the degree of blur (shake correction level).

DSP制御部104は、DSP82を制御し、DSP82に対して所定の処理を実行させ、その処理に必要なデータを供給して処理結果を取得する。例えば、DSP制御部104は、IMUデータ取得部103で取得されたIMUデータをDSP82に供給して、ブレ量α及びブレ補正量γの算出処理や、ブレ補正レベルの判定処理等をDSP82に実行させる。DSP制御部104は、ブレ具合のブレ補正レベルが無レベルの場合には、DSP82を、例えば一定時間の間、スリープ状態に設定してDSP82での消費電力を低減する。 The DSP control unit 104 controls the DSP 82, causes the DSP 82 to execute a predetermined process, supplies data necessary for the process, and acquires a process result. For example, the DSP control unit 104 supplies the IMU data acquired by the IMU data acquisition unit 103 to the DSP 82, and executes the calculation process of the blur amount α and the blur correction amount γ, the determination process of the blur correction level, and the like to the DSP 82. Let me. When the blur correction level of the blur condition is no level, the DSP control unit 104 sets the DSP 82 to a sleep state for a certain period of time, for example, to reduce the power consumption of the DSP 82.

DSP82は、ソフトウェア実行部111、及び、RAM112を有する。 The DSP 82 has a software execution unit 111 and a RAM 112.

ソフトウェア実行部111は、システムCPU81のDSP制御部104から供給されてRAM112に一時的に記憶されたプログラムを実行する演算処理部である。ソフトウェア実行部111は、プログラムを実行することにより、例えば、ブレ補正量γの算出処理やブレ補正レベルの判定処理などを行い、処理結果をDSP制御部104に供給する。 The software execution unit 111 is an arithmetic processing unit that executes a program supplied from the DSP control unit 104 of the system CPU 81 and temporarily stored in the RAM 112. By executing the program, the software execution unit 111 performs, for example, calculation processing of the image stabilization amount γ, determination processing of the image stabilization level, and the like, and supplies the processing result to the DSP control unit 104.

RAM112は、ソフトウェア実行部111がDSP制御部104から供給されて実行するプログラムや、ソフトウェア実行部111が参照するデータ等を一時的に記憶する。 The RAM 112 temporarily stores a program supplied and executed by the software execution unit 111 from the DSP control unit 104, data referred to by the software execution unit 111, and the like.

ソフトウェア実行部111は、プログラムの実行により、ブレ補正テーブル部121、ブレ補正レベル判定処理部122、及び、DSP処理部123としての処理を実行する。 The software execution unit 111 executes the processing as the image stabilization table unit 121, the image stabilization level determination processing unit 122, and the DSP processing unit 123 by executing the program.

ブレ補正テーブル部121は、図1のブレ補正テーブル部35に相当するので、処理の説明は省略する。ブレ補正テーブル部121で算出されたブレ補正量γは、システムCPU81のDSP制御部104を介してカメラ制御部101に供給される。カメラ制御部101は、ブレ補正量γを不図示の画像処理部(図1の画像処理部12に相当)のブレ補正部(図1のブレ補正部36に相当)に供給する。 Since the image stabilization table unit 121 corresponds to the image stabilization table unit 35 in FIG. 1, the description of the process will be omitted. The image stabilization amount γ calculated by the image stabilization table unit 121 is supplied to the camera control unit 101 via the DSP control unit 104 of the system CPU 81. The camera control unit 101 supplies the image stabilization amount γ to the image stabilization unit (corresponding to the image stabilization unit 36 in FIG. 1) of the image processing unit (corresponding to the image processing unit 12 in FIG. 1) (not shown).

ブレ補正レベル判定処理部122は、図1のブレ補正レベル判定処理部37に相当するので、処理の説明は省略する。ブレ補正レベル判定処理部122で判定されたブレ具合Gのブレ補正レベルは、システムCPU81のDSP制御部104を介してIMUデータ取得部103に供給される。IMUデータ取得部103は、ブレ補正レベルに基づいてIMUデータ取得時のサンプリング周波数を設定する。 Since the image stabilization level determination processing unit 122 corresponds to the image stabilization level determination processing unit 37 in FIG. 1, the description of the processing will be omitted. The image stabilization level of the image stabilization G determined by the image stabilization level determination processing unit 122 is supplied to the IMU data acquisition unit 103 via the DSP control unit 104 of the system CPU 81. The IMU data acquisition unit 103 sets the sampling frequency at the time of IMU data acquisition based on the blur correction level.

DSP処理部123は、図1のブレ量算出部34に相当するので、処理の説明は省略する。DSP処理部123は、算出したブレ量αをブレ補正テーブル部121に供給する。 Since the DSP processing unit 123 corresponds to the blur amount calculation unit 34 in FIG. 1, the description of the processing will be omitted. The DSP processing unit 123 supplies the calculated blur amount α to the blur correction table unit 121.

以上、図1のブレ補正装置21では、像ブレの大きさ(ブレ具合G)のブレ補正レベルに応じて、IMUセンサ31から検出データを取得する際のサンプリング部32でのサンプリング周波数(検出データを取得する時間間隔)を変更する形態について説明したが、本技術はこれに限らない。 As described above, in the blur correction device 21 of FIG. 1, the sampling frequency (detection data) in the sampling unit 32 when acquiring the detection data from the IMU sensor 31 according to the blur correction level of the image blur magnitude (blurring degree G). Although the mode of changing the time interval for acquiring the data) has been described, the present technology is not limited to this.

本技術は、ブレ補正装置21が、サンプリング部32でのサンプリング周波数を、ブレ補正レベルではなく、ブレ具合Gに応じて直接的かつ無段階的に変更する場合を含む。この場合に、ブレ補正装置21は、ブレ具合Gが大きい程、サンプリング周波数を高くする。ブレ具合Gの大きさが変化してもサンプリング周波数を一定となる範囲が存在していてもよい。 The present technique includes a case where the blur correction device 21 directly and steplessly changes the sampling frequency in the sampling unit 32 according to the blur degree G instead of the blur correction level. In this case, the image stabilization device 21 increases the sampling frequency as the degree of blur G increases. There may be a range in which the sampling frequency is constant even if the magnitude of the degree of blur G changes.

本技術は、ブレ補正装置21が、像ブレの状態を表すブレ具合Gとして像ブレの大きさを算出する代わりに、像ブレの周波数が高い程、ブレ具合Gが大きくなるように、像ブレの周波数(の高さ)をブレ具合Gとして算出する場合を含む。この場合に、ブレ補正装置21は、ブレ具合Gが大きい程(又は、ブレ具合Gのブレ補正レベルが高い程)、サンプリング部32でのサンプリング周波数を高くする。ブレ具合G(又は、ブレ補正レベル)の大きさが変化してもサンプリング周波数を一定とする範囲が存在していてもよい。ブレ具合が小さい場合(像ブレの周波数が低い場合)には、ブレ量αの時間的変化が小さくなるため、サンプリング周波数を低下させてもブレ補正の精度は低下せず、消費電力が低減される。本技術は、ブレ補正装置21が、ブレ具合Gとして、像ブレの大きさと周波数の両方を考慮した値を算出する場合を含む。即ち、像ブレが大きい程、ブレ具合Gが大きくなり、像ブレの周波数が高い程、ブレ具合Gが大きくなるように、ブレ具合Gを算出する場合を含む。 In this technique, instead of the image stabilization device 21 calculating the magnitude of the image blur as the blur condition G indicating the state of the image blur, the higher the frequency of the image blur, the larger the image blur G. Includes the case where the frequency (height) of is calculated as the degree of blurring G. In this case, the image stabilization device 21 increases the sampling frequency in the sampling unit 32 as the image stabilization G increases (or the image stabilization level of the image stabilization G increases). Even if the magnitude of the degree of blur G (or the blur correction level) changes, there may be a range in which the sampling frequency is constant. When the degree of blurring is small (when the frequency of image blurring is low), the change in the amount of blurring α over time becomes small, so even if the sampling frequency is lowered, the accuracy of blurring correction does not decrease, and power consumption is reduced. To. The present technique includes a case where the image stabilization device 21 calculates a value considering both the magnitude and frequency of image blur as the blur degree G. That is, the case where the blur condition G is calculated so that the larger the image blur, the larger the blur condition G, and the higher the image blur frequency, the larger the blur condition G is included.

本技術は、ブレ補正装置21が、カメラ1(撮像部11)のブレを示す検出データを、IMUセンサ31以外から取得する場合を含む。例えば、撮像部11で撮像された画像における被写体像の位置等の時間的変化から、直接的に像ブレを検出する場合に、ブレ補正装置21が、その像ブレを示す検出データをカメラ1のブレを示す検出データとして取得する場合を含む。 The present technique includes a case where the blur correction device 21 acquires detection data indicating blur of the camera 1 (imaging unit 11) from other than the IMU sensor 31. For example, when the image shake is directly detected from the temporal change of the position of the subject image in the image captured by the image pickup unit 11, the image shake correction device 21 uses the detection data indicating the image shake of the camera 1. This includes the case of acquiring as detection data indicating blurring.

本技術は、ブレ補正装置21が、像ブレの状態(大きさや周波数等)を表すブレ具合Gとして、像ブレの方向別のブレ具合Gを算出する場合を含む。即ち、像ブレには、画像上におけるx軸方向及びy軸方向のように互いに方向が異なる2つの直線方向の像ブレと、画像上における回転方向の像ブレとが存在する。ブレ補正装置21は、各方向の像ブレの状態を表すブレ具合Gを算出する。この場合に、ブレ補正装置21は、各方向の像ブレに関係(寄与)する検出データごとにサンプリング周波数を各方向のブレ具合Gに応じて変更する。例えば、画像上におけるx軸方向の像ブレに関係する検出データは、カメラ1のx軸方向の加速度データとy軸周り方向の角速度データである。それらの検出データについてのサンプリング周波数は、x軸方向の像ブレの状態を表すブレ具合Gに応じて変更する。同様に、画像上におけるy軸方向の像ブレに関係する検出データは、カメラ1のy軸方向の加速度データとx軸周り方向の角速度データである。それらの検出データについてのサンプリング周波数は、y軸方向の像ブレの状態を表すブレ具合Gに応じて変更する。画像上における回転方向の像ブレに関係する検出データは、カメラ1のz軸周り方向の角速度データである。その検出データについてのサンプリング周波数は、回転方向の像ブレの状態を表すブレ具合Gに応じて変更する。 The present technique includes a case where the image stabilization device 21 calculates a blur condition G for each direction of image blur as a blur condition G representing an image blur state (magnitude, frequency, etc.). That is, the image blur includes two linear image blurs having different directions such as the x-axis direction and the y-axis direction on the image, and a rotation direction image blur on the image. The image stabilization device 21 calculates the degree of blur G, which represents the state of image blur in each direction. In this case, the image stabilization device 21 changes the sampling frequency for each detection data related to (contribution to) image blur in each direction according to the degree of blur G in each direction. For example, the detection data related to the image blur in the x-axis direction on the image are the acceleration data in the x-axis direction of the camera 1 and the angular velocity data in the direction around the y-axis. The sampling frequency of the detected data is changed according to the degree of blurring G indicating the state of image blurring in the x-axis direction. Similarly, the detection data related to the image blur in the y-axis direction on the image are the acceleration data in the y-axis direction of the camera 1 and the angular velocity data in the direction around the x-axis. The sampling frequency for these detected data is changed according to the degree of blurring G, which represents the state of image blurring in the y-axis direction. The detection data related to the image blur in the rotation direction on the image is the angular velocity data in the z-axis direction of the camera 1. The sampling frequency of the detected data is changed according to the degree of blurring G indicating the state of image blurring in the rotation direction.

なお、ブレ補正装置21が、像ブレの3つの方向のうちのいずれか1つ又は2つの方向のみのブレ具合Gを算出し、それらの1つ又は2つの方向に関係(寄与)する検出データについてのみ方向別のブレ具合Gに応じてサンプリング周波数を変更する場合であってもよい。画像上における2つの直線方向の像ブレの状態を包括的に表す直線方向のブレ具合Gを算出し、2つの直線方向の像ブレに関係する検出データのサンプリング周波数を直線方向のブレ具合Gに応じて同一の値に変更する場合であってもよい。 The image stabilization device 21 calculates the degree of blur G in only one or two of the three directions of image blur, and the detection data is related (contributed) to those one or two directions. The sampling frequency may be changed according to the degree of blurring G for each direction. Calculate the linear blur condition G that comprehensively represents the state of the two linear image blurs on the image, and set the sampling frequency of the detection data related to the two linear image blurs to the linear blur condition G. It may be changed to the same value accordingly.

以上の本技術が適用されたブレ補正装置は、例えば、動物にカメラを装着して動物の生態観測を行う場合のように、激しく動く動体にカメラを設置してカメラで撮影した画像を記録する場合に、そのカメラに搭載することが考えられる。これによれば、カメラに生じるブレが激しい場合でも像ブレが補正された安定した画像が得られると同時にバッテリの消費電力が低減されるので長時間の画像記録が可能となる。 The image stabilization device to which this technology is applied can record images taken by a camera by installing the camera on a moving object that moves violently, for example, when a camera is attached to an animal to observe the ecology of the animal. In some cases, it may be mounted on the camera. According to this, even when the blurring that occurs in the camera is severe, a stable image in which the image blurring is corrected can be obtained, and at the same time, the power consumption of the battery is reduced, so that the image can be recorded for a long time.

<プログラム>
上述したカメラ1(ブレ補正装置21)での一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<Program>
The series of processes in the camera 1 (shake correction device 21) described above can be executed by hardware or by software. When a series of processes are executed by software, the programs constituting the software are installed in the computer. Here, the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.

図6は、カメラ1(ブレ補正装置21)が実行する各処理をコンピュータがプログラムにより実行する場合の、コンピュータのハードウエアの構成例を示すブロック図である。 FIG. 6 is a block diagram showing a configuration example of computer hardware when a computer executes each process executed by the camera 1 (shake correction device 21) by a program.

コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。 In a computer, a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203 are connected to each other by a bus 204.

バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。 An input / output interface 205 is further connected to the bus 204. An input unit 206, an output unit 207, a storage unit 208, a communication unit 209, and a drive 210 are connected to the input / output interface 205.

入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。 The input unit 206 includes a keyboard, a mouse, a microphone, and the like. The output unit 207 includes a display, a speaker, and the like. The storage unit 208 includes a hard disk, a non-volatile memory, and the like. The communication unit 209 includes a network interface and the like. The drive 210 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。 In the computer configured as described above, the CPU 201 loads the program stored in the storage unit 208 into the RAM 203 via the input / output interface 205 and the bus 204 and executes the above-mentioned series. Is processed.

コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。 The program executed by the computer (CPU201) can be recorded and provided on the removable media 211 as a package media or the like, for example. The program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。 In a computer, the program can be installed in the storage unit 208 via the input / output interface 205 by mounting the removable media 211 in the drive 210. Further, the program can be received by the communication unit 209 via a wired or wireless transmission medium and installed in the storage unit 208. In addition, the program can be pre-installed in the ROM 202 or the storage unit 208.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed in chronological order according to the order described in the present specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

本技術は以下のような構成も取ることができる。
(1)
撮像部のブレを示す検出データを所定の時間間隔で取得し、取得した前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報を生成する処理部であって、
前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔を変更する処理部
を有する情報処理装置。
(2)
前記処理部は、前記像ブレの大きさに応じて前記時間間隔を変更する
前記(1)に記載の情報処理装置。
(3)
前記処理部は、前記像ブレの大きさが複数のレベルのうちのいずれのレベルかを判定し、判定したレベルに応じて前記時間間隔を変更する
前記(1)又は(2)に記載の情報処理装置。
(4)
前記処理部は、前記像ブレが大きい程、前記時間間隔を短くする
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記処理部は、前記像ブレの周波数に応じて前記時間間隔を変更する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記処理部は、前記像ブレの周波数が高い程、前記時間間隔を短くする
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記処理部は、前記像ブレの状態を互いに異なる複数の方向ごとに検出し、前記方向ごとの前記像ブレの状態に応じて前記方向ごとに前記像ブレに関係する前記撮像部の前記ブレを示す検出データを取得する前記時間間隔を変更する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記複数の方向は、前記撮像部により撮像される画像上の2つの直線方向、又は、前記画像上の直線方向及び回転方向を含む
前記(7)に記載の情報処理装置。
(9)
前記検出データは、前記撮像部の前記ブレの角速度及び加速度のうちの少なくとも角速度を含むデータである
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記検出データは、前記撮像部の光学系の光軸方向に沿った第1の軸と、前記第1の軸に直交し、かつ、互いに直交する第2の軸及び第3の軸とに対する軸周り方向の角速度及び軸方向の加速度のうちのいずれかを含む
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記処理部は、前記像ブレの状態を前記検出データ又は前記制御情報に基づいて検出する
前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記ブレ補正部は、前記撮像部により撮像された画像から有効な画像を切り出す切出し範囲を制御対象とし、前記制御情報は、前記切出し範囲の位置を制御する情報を含む
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記ブレ補正部は、前記撮像部の光学系に配置された補正光学系又は撮像素子を制御対象とし、前記制御情報は、前記制御対象の位置を制御する情報を含む
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(14)
処理部
を有する情報処理装置の
前記処理部が、
撮像部のブレを示す検出データを所定の時間間隔で取得し、取得した前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報を生成し、
前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔を変更する
情報処理方法。
(15)
コンピュータを、
撮像部のブレを示す検出データを所定の時間間隔で取得し、取得した前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報を生成する処理部であって、
前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔を変更する処理部
として機能させるためのプログラム。
The present technology can also take the following configurations.
(1)
Detection data indicating blurring of the imaging unit is acquired at predetermined time intervals, and based on the acquired detection data, control information for controlling the image stabilization unit that corrects image blurring caused by the blurring of the imaging unit is generated. It ’s a processing unit,
An information processing device having a processing unit that changes the time interval for acquiring the detection data according to the state of the image blur.
(2)
The information processing apparatus according to (1), wherein the processing unit changes the time interval according to the magnitude of the image blur.
(3)
The information according to (1) or (2) above, wherein the processing unit determines which of the plurality of levels the image blur is, and changes the time interval according to the determined level. Processing equipment.
(4)
The information processing apparatus according to any one of (1) to (3), wherein the processing unit shortens the time interval as the image blur increases.
(5)
The information processing apparatus according to any one of (1) to (4), wherein the processing unit changes the time interval according to the frequency of the image blur.
(6)
The information processing apparatus according to any one of (1) to (5), wherein the processing unit shortens the time interval as the frequency of the image blur increases.
(7)
The processing unit detects the state of the image blur in each of a plurality of different directions, and causes the blur of the image pickup unit related to the image blur in each direction according to the state of the image blur in each direction. The information processing apparatus according to any one of (1) to (6), which changes the time interval for acquiring the detected detection data.
(8)
The information processing apparatus according to (7), wherein the plurality of directions include two linear directions on an image captured by the image pickup unit, or a linear direction and a rotation direction on the image.
(9)
The information processing apparatus according to any one of (1) to (8) above, wherein the detected data includes at least the angular velocity of the angular velocity and acceleration of the blur of the imaging unit.
(10)
The detection data is an axis with respect to a first axis along the optical axis direction of the optical system of the imaging unit and a second axis and a third axis orthogonal to the first axis and orthogonal to each other. The information processing apparatus according to any one of (1) to (9) above, which includes any of an angular velocity in the circumferential direction and an acceleration in the axial direction.
(11)
The information processing apparatus according to any one of (1) to (10), wherein the processing unit detects a state of image blur based on the detection data or the control information.
(12)
The blur correction unit targets a cutout range for cutting out an effective image from the image captured by the image pickup unit, and the control information includes information for controlling the position of the cutout range (1) to (11). ) Is described in any of the information processing devices.
(13)
The blur correction unit targets a correction optical system or an image pickup element arranged in the optical system of the image pickup unit, and the control information includes information for controlling the position of the control target (1) to (11). ) Is described in any of the information processing devices.
(14)
The processing unit of the information processing device having the processing unit
Detection data indicating blurring of the imaging unit is acquired at predetermined time intervals, and based on the acquired detection data, control information for controlling the image stabilization unit that corrects image stabilization caused by the blurring of the imaging unit is generated. ,
An information processing method that changes the time interval for acquiring the detection data according to the state of the image blur.
(15)
Computer,
Detection data indicating blurring of the imaging unit is acquired at predetermined time intervals, and based on the acquired detection data, control information for controlling the image stabilization unit that corrects image blurring caused by the blurring of the imaging unit is generated. It ’s a processing unit,
A program for functioning as a processing unit that changes the time interval for acquiring the detection data according to the state of the image blur.

1 カメラ, 11 撮像部, 12 画像処理部, 21 ブレ補正装置, 31 IMUセンサ, 32 サンプリング部, 33 バッファメモリ, 34 ブレ量算出部, 35 ブレ補正テーブル部, 36 ブレ補正部, 37 ブレ補正レベル判定処理部 1 Camera, 11 Imaging unit, 12 Image processing unit, 21 Image stabilization unit, 31 IMU sensor, 32 Sampling unit, 33 Buffer memory, 34 Image stabilization unit, 35 Image stabilization table unit, 36 Image stabilization unit, 37 Image stabilization level Judgment processing unit

Claims (15)

撮像部のブレを示す検出データを所定の時間間隔で取得し、取得した前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報を生成する処理部であって、
前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔を変更する処理部
を有する情報処理装置。
Detection data indicating blurring of the imaging unit is acquired at predetermined time intervals, and based on the acquired detection data, control information for controlling the image stabilization unit that corrects image blurring caused by the blurring of the imaging unit is generated. It ’s a processing unit,
An information processing device having a processing unit that changes the time interval for acquiring the detection data according to the state of the image blur.
前記処理部は、前記像ブレの大きさに応じて前記時間間隔を変更する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the processing unit changes the time interval according to the magnitude of the image blur.
前記処理部は、前記像ブレの大きさが複数のレベルのうちのいずれのレベルかを判定し、判定したレベルに応じて前記時間間隔を変更する
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the processing unit determines which of the plurality of levels the image blur is, and changes the time interval according to the determined level.
前記処理部は、前記像ブレが大きい程、前記時間間隔を短くする
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the processing unit shortens the time interval as the image blur increases.
前記処理部は、前記像ブレの周波数に応じて前記時間間隔を変更する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the processing unit changes the time interval according to the frequency of the image blur.
前記処理部は、前記像ブレの周波数が高い程、前記時間間隔を短くする
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the processing unit shortens the time interval as the frequency of the image blur increases.
前記処理部は、前記像ブレの状態を互いに異なる複数の方向ごとに検出し、前記方向ごとの前記像ブレの状態に応じて前記方向ごとに前記像ブレに関係する前記撮像部の前記ブレを示す検出データを取得する前記時間間隔を変更する
請求項1に記載の情報処理装置。
The processing unit detects the state of the image blur in each of a plurality of different directions, and causes the blur of the image pickup unit related to the image blur in each direction according to the state of the image blur in each direction. The information processing apparatus according to claim 1, wherein the time interval for acquiring the detected detection data is changed.
前記複数の方向は、前記撮像部により撮像される画像上の2つの直線方向、又は、前記画像上の直線方向及び回転方向を含む
請求項7に記載の情報処理装置。
The information processing apparatus according to claim 7, wherein the plurality of directions include two linear directions on an image captured by the image pickup unit, or a linear direction and a rotation direction on the image.
前記検出データは、前記撮像部の前記ブレの角速度及び加速度のうちの少なくとも角速度を含むデータである
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the detected data includes at least the angular velocity of the angular velocity and acceleration of the blur of the imaging unit.
前記検出データは、前記撮像部の光学系の光軸方向に沿った第1の軸と、前記第1の軸に直交し、かつ、互いに直交する第2の軸及び第3の軸とに対する軸周り方向の角速度及び軸方向の加速度のうちのいずれかを含む
請求項1に記載の情報処理装置。
The detection data is an axis with respect to a first axis along the optical axis direction of the optical system of the imaging unit and a second axis and a third axis orthogonal to the first axis and orthogonal to each other. The information processing apparatus according to claim 1, further comprising either an angular velocity in the circumferential direction or an acceleration in the axial direction.
前記処理部は、前記像ブレの状態を前記検出データ又は前記制御情報に基づいて検出する
請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the processing unit detects the state of the image blur based on the detection data or the control information.
前記ブレ補正部は、前記撮像部により撮像された画像から有効な画像を切り出す切出し範囲を制御対象とし、前記制御情報は、前記切出し範囲の位置を制御する情報を含む
請求項1に記載の情報処理装置。
The information according to claim 1, wherein the image stabilization unit targets a cutout range for cutting out an effective image from the image captured by the image pickup unit, and the control information includes information for controlling the position of the cutout range. Processing equipment.
前記ブレ補正部は、前記撮像部の光学系に配置された補正光学系又は撮像素子を制御対象とし、前記制御情報は、前記制御対象の位置を制御する情報を含む
請求項1に記載の情報処理装置。
The information according to claim 1, wherein the blur correction unit targets a correction optical system or an image pickup element arranged in the optical system of the image pickup unit, and the control information includes information for controlling the position of the control target. Processing equipment.
処理部
を有する情報処理装置の
前記処理部が、
撮像部のブレを示す検出データを所定の時間間隔で取得し、取得した前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報を生成し、
前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔を変更する
情報処理方法。
The processing unit of the information processing device having the processing unit
Detection data indicating blurring of the imaging unit is acquired at predetermined time intervals, and based on the acquired detection data, control information for controlling the image stabilization unit that corrects image stabilization caused by the blurring of the imaging unit is generated. ,
An information processing method that changes the time interval for acquiring the detection data according to the state of the image blur.
コンピュータを、
撮像部のブレを示す検出データを所定の時間間隔で取得し、取得した前記検出データに基づいて前記撮像部の前記ブレに起因する像ブレを補正するブレ補正部を制御する制御情報を生成する処理部であって、
前記像ブレの状態に応じて、前記検出データを取得する前記時間間隔を変更する処理部
として機能させるためのプログラム。
Computer,
Detection data indicating blurring of the imaging unit is acquired at predetermined time intervals, and based on the acquired detection data, control information for controlling the image stabilization unit that corrects image blurring caused by the blurring of the imaging unit is generated. It ’s a processing unit,
A program for functioning as a processing unit that changes the time interval for acquiring the detection data according to the state of the image blur.
JP2020211423A 2020-12-21 2020-12-21 Information processing device, information processing method, and program Pending JP2022098082A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020211423A JP2022098082A (en) 2020-12-21 2020-12-21 Information processing device, information processing method, and program
PCT/JP2021/044816 WO2022138122A1 (en) 2020-12-21 2021-12-07 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020211423A JP2022098082A (en) 2020-12-21 2020-12-21 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2022098082A true JP2022098082A (en) 2022-07-01

Family

ID=82159597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020211423A Pending JP2022098082A (en) 2020-12-21 2020-12-21 Information processing device, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2022098082A (en)
WO (1) WO2022138122A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3675131B2 (en) * 1997-10-02 2005-07-27 コニカミノルタフォトイメージング株式会社 Camera with shake correction function
JP4014970B2 (en) * 2002-08-20 2007-11-28 株式会社リコー An imaging device having a shake correction function
JP2008299216A (en) * 2007-06-01 2008-12-11 Nikon Corp Imaging apparatus with camera shake correction function

Also Published As

Publication number Publication date
WO2022138122A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
US9883104B2 (en) Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium which are capable of performing tilt correction
JP5111306B2 (en) Optical apparatus having image blur correction function and control method thereof
JP6395506B2 (en) Image processing apparatus and method, program, and imaging apparatus
US8792009B2 (en) Image pickup apparatus that performs image pickup using rolling shutter method, method of controlling the same, and storage medium
US8760526B2 (en) Information processing apparatus and method for correcting vibration
US20070115364A1 (en) Image processing apparatus and method, and program used therewith
KR20190078518A (en) Image stabilization control apparatus, image capturing apparatus, image capturing system, control method, and storage medium
US20140327789A1 (en) Shaking amount detecting apparatus, image pickup apparatus, and shaking amount detecting method
JPWO2008117584A1 (en) Camera shake correction apparatus, imaging apparatus, camera shake correction program, imaging program, camera shake correction method, and imaging method
US11290650B2 (en) Image blur information acquisition apparatus and method, and storage medium
CN111147757B (en) Optical anti-shake method and device for image pickup equipment
JP2019145958A (en) Imaging apparatus, control method of the same, and program
JPWO2020111177A1 (en) Blur correction control device, image pickup device, blur correction method of image pickup device, and program
JP2006332809A (en) Imaging apparatus
US20240031676A1 (en) Method And System For Camera Motion Blur Reduction
WO2022138122A1 (en) Information processing device, information processing method, and program
KR101783990B1 (en) Digital image processing apparatus and, method for estimating global motion of image
US11956539B2 (en) Correction control apparatus, image capturing apparatus, control method, and recording medium
EP3739868B1 (en) Control apparatus, lens apparatus, imaging apparatus, control method, and program
JP2019145956A (en) Imaging apparatus, control method of the same, and program
JP3865125B2 (en) Image processing apparatus and method, recording medium, and program
JP4957851B2 (en) Camera shake detection device, camera shake detection method, and camera shake detection program
JP2021026115A (en) Control unit, imaging apparatus, lens device, imaging system, and program
JP2017005539A (en) Imaging apparatus
JP5737637B2 (en) Image processing apparatus, image processing method, and program