JP6702737B2 - Image blur correction apparatus and method for controlling image blur correction apparatus - Google Patents

Image blur correction apparatus and method for controlling image blur correction apparatus Download PDF

Info

Publication number
JP6702737B2
JP6702737B2 JP2016012906A JP2016012906A JP6702737B2 JP 6702737 B2 JP6702737 B2 JP 6702737B2 JP 2016012906 A JP2016012906 A JP 2016012906A JP 2016012906 A JP2016012906 A JP 2016012906A JP 6702737 B2 JP6702737 B2 JP 6702737B2
Authority
JP
Japan
Prior art keywords
exposure time
vector
subject
image
blur correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016012906A
Other languages
Japanese (ja)
Other versions
JP2017134185A5 (en
JP2017134185A (en
Inventor
泰予 小鮒
泰予 小鮒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016012906A priority Critical patent/JP6702737B2/en
Priority to US15/414,732 priority patent/US10205885B2/en
Publication of JP2017134185A publication Critical patent/JP2017134185A/en
Priority to US15/976,211 priority patent/US10623652B2/en
Publication of JP2017134185A5 publication Critical patent/JP2017134185A5/ja
Application granted granted Critical
Publication of JP6702737B2 publication Critical patent/JP6702737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、手振れなどにより生じる像ブレを補正する像ブレ補正装置に係り、特に、流し撮り撮影の際のアシスト機能を有する像ブレ補正装置に関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image blur correction device that corrects image blur caused by camera shake and the like, and more particularly to an image blur correction device that has an assist function in panning shooting.

従来から、流し撮り撮影を行うことが可能な撮像装置が知られている。流し撮り撮影とは、被写体がある速度で移動している場合、撮像装置を被写体の動きに合わせてパンニングしながら通常よりも長い露光時間で露光することにより、背景は流れ、被写体が止まっているような画像を撮影する手法である。また、このような流し撮り撮影を簡単に行うことを可能とするため、像ブレ補正装置を用いる方法が知られている。 2. Description of the Related Art Conventionally, an imaging device capable of performing follow shot shooting has been known. Follow shot photography means that when the subject is moving at a certain speed, the background flows and the subject is stopped by panning the imaging device in accordance with the movement of the subject and exposing with an exposure time longer than usual. This is a method of capturing such an image. In addition, a method using an image blur correction device is known in order to easily perform such follow shot photography.

特許文献1には、撮像面上の被写体像の移動量と振れ検出手段の出力タイミングを一致させ、被写体に係る角速度の検出精度を高める像振れ補正装置が開示されている。特許文献2には、角速度および焦点距離に基づいて、撮像素子により被写体光を撮像する際に用いられるシャッタースピードを決定する撮影装置が開示されている。 Patent Document 1 discloses an image shake correction apparatus that matches the amount of movement of a subject image on the imaging surface with the output timing of the shake detection unit to improve the detection accuracy of the angular velocity of the subject. Patent Document 2 discloses a photographing device that determines a shutter speed used when a subject light is imaged by an image sensor based on an angular velocity and a focal length.

特開2015―161730号公報JP, 2015-161730, A 特開2015―102774号公報Japanese Patent Laid-Open No. 2015-102774

しかしながら、特許文献1には、流し撮りの際の露光時間を設定するためのアシスト機能について開示されていない。このため、流し撮り撮影に不慣れな撮影者が、意図する流し量を得るための適切な露光時間を算出することは困難である。特許文献2の撮像装置は、同一被写体内での速度のばらつきを考慮していない。例えば、走る動物を撮影する際に、設定によっては被写体の一部が流れて撮影されることがある。この現象は、被写体内に動きの速い部分が存在し、かつその部分の動きの速度に対して長い露光時間が設定された場合に生じ、その際に撮影された画像は、流し撮り撮影の臨場感が損なわれる可能性がある。 However, Patent Document 1 does not disclose an assist function for setting the exposure time at the time of panning. For this reason, it is difficult for a photographer who is unfamiliar with panning photography to calculate an appropriate exposure time for obtaining the intended panning amount. The imaging device of Patent Document 2 does not consider the variation in speed within the same subject. For example, when shooting a running animal, a part of the subject may flow depending on the setting and may be shot. This phenomenon occurs when there is a fast-moving part in the subject and a long exposure time is set for the speed of movement of that part. Feeling may be impaired.

そこで本発明は、簡易に臨場感のある流し撮り画像を取得可能な像ブレ補正装置、および、像ブレ補正装置の制御方法を提供する。 The present invention is simple in realism obtainable image blur correction device shot image of, and provides control how the image shake correction apparatus.

本発明の一側面としての像ブレ補正装置は、撮像素子で検出された画像信号を用いて、前記画像信号に含まれる動きベクトルを算出する算出手段と、ユーザのパンニング動作による像ブレ補正装置の振れ情報を検出する角速度検出手段により検出された前記振れ情報から、前記動きベクトルを背景ベクトルと被写体ベクトルに分離するベクトル分離手段と、前記背景ベクトルを用いることなく、前記被写体ベクトル、前記振れ情報、及び焦点距離を用いて、露光時間を制御する露光時間制御手段と前記背景ベクトルを用いることなく、前記被写体ベクトルを用いて撮像光学系に含まれる像ブレ補正レンズを光軸と直交する方向に駆動することにより、像ブレ補正を行う像ブレ補正制御手段とを有する。前記算出手段は、被写体の領域を分割した複数のブロック毎に算出された前記被写体ベクトルを用いて、前記被写体ベクトルの最大値および前記被写体ベクトルの平均値を算出し、前記露光時間制御手段は、前記被写体ベクトルの最大値と前記被写体ベクトルの平均値との差に基づいて、最大露光時間を決定し、前記露光時間制御手段は、前記最大露光時間を超えないように前記露光時間を制御することを特徴とする。 An image blur correction device according to one aspect of the present invention includes a calculation unit that calculates a motion vector included in the image signal by using an image signal detected by an image sensor, and an image blur correction device based on a panning operation of a user. From the shake information detected by the angular velocity detecting means for detecting shake information, vector separation means for separating the motion vector into a background vector and a subject vector, and without using the background vector, the subject vector, the shake information, Further, the image blur correction lens included in the image pickup optical system is driven in the direction orthogonal to the optical axis using the subject vector without using the exposure time control unit that controls the exposure time using the focal length and the background vector. By doing so, an image blur correction control unit that performs image blur correction is provided. The calculating means calculates the maximum value of the subject vector and the average value of the subject vector by using the subject vector calculated for each of a plurality of blocks obtained by dividing the area of the subject, and the exposure time control means, Determining the maximum exposure time based on the difference between the maximum value of the subject vector and the average value of the subject vector, and the exposure time control means controls the exposure time so as not to exceed the maximum exposure time. Is characterized by.

本発明の他の側面としての像ブレ補正装置の制御方法は、撮像素子で検出された画像信号を用いて、前記画像信号に含まれる動きベクトルを算出するステップと、ユーザのパンニング動作による像ブレ補正装置の振れ情報を検出する角速度検出手段により検出された前記振れ情報から、前記動きベクトルを背景ベクトルと被写体ベクトルに分離するステップと、前記背景ベクトルを用いることなく、前記被写体ベクトル、前記振れ情報、及び焦点距離を用いて露光時間を制御するステップと、前記背景ベクトルを用いることなく、前記被写体ベクトルを用いて撮像光学系に含まれる像ブレ補正レンズを光軸と直交する方向に駆動することにより、像ブレ補正を行うステップとを有する。前記算出するステップでは、被写体の領域を分割した複数のブロック毎に算出された前記被写体ベクトルを用いて、前記被写体ベクトルの最大値および前記被写体ベクトルの平均値が算出され、前記制御するステップでは、前記被写体ベクトルの最大値と前記被写体ベクトルの平均値との差に基づいて、最大露光時間が決定され、前記制御するステップでは、前記最大露光時間を超えないように前記露光時間が制御されることを特徴とする。 According to another aspect of the present invention, there is provided a method of controlling an image blur correction device , which comprises a step of calculating a motion vector included in the image signal using an image signal detected by an image sensor, and an image blur caused by a panning operation of a user. A step of separating the motion vector into a background vector and a subject vector from the shake information detected by the angular velocity detecting means for detecting shake information of the correction device; and the subject vector and the shake information without using the background vector. , And controlling the exposure time using the focal length, and driving the image blur correction lens included in the imaging optical system in the direction orthogonal to the optical axis using the subject vector without using the background vector. Therefore, there is a step of performing image blur correction. In the calculating step, using the subject vector calculated for each of a plurality of blocks into which the subject area is divided, the maximum value of the subject vector and the average value of the subject vector are calculated, and in the controlling step, The maximum exposure time is determined based on the difference between the maximum value of the subject vector and the average value of the subject vector, and in the controlling step, the exposure time is controlled so as not to exceed the maximum exposure time. Is characterized by.

本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the present invention will be described in the following embodiments.

本発明によれば、簡易に臨場感のある流し撮り画像を取得可能な像ブレ補正装置、および、像ブレ補正装置の制御方法を提供することができる。

According to the present invention, simple in realism obtainable image blur correction device shot image of, and may provide control how the image shake correction apparatus.

本実施形態における撮像装置の制御方法を示すフローチャートである。6 is a flowchart illustrating a method for controlling the image pickup apparatus according to the present embodiment. 本実施形態における撮像装置のブロック図である。It is a block diagram of the imaging device in this embodiment. 本実施形態における手振れ補正制御部のブロック図である。It is a block diagram of a camera shake correction control unit in the present embodiment. 本実施形態における撮像装置の各軸および方向の説明図である。It is explanatory drawing of each axis and direction of the imaging device in this embodiment. 本実施形態における動きベクトルの説明図である。It is explanatory drawing of the motion vector in this embodiment. 本実施形態における像ブレ補正レンズの駆動量の算出方法を示すフローチャートである。7 is a flowchart showing a method of calculating the drive amount of the image blur correction lens in the present embodiment. 本実施形態における露出制御方法を示すフローチャートである。It is a flow chart which shows the exposure control method in this embodiment.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図2aを参照して、本実施形態における撮像装置の構成および動作について説明する。図2aは、撮像装置201のブロック図である。図2aにおいて、光学ユニット210(撮像光学系)は、ズームレンズ211、像ブレ補正レンズ212、焦点調整レンズ213、絞り214、および、シャッタ215を有する。レンズ駆動制御ユニット220は、光学ユニット210の各構成部材を駆動させるための制御手段である。レンズ駆動制御ユニット220は、ズーム制御部221、手振れ補正制御部222、フォーカス制御部223、絞り制御部224、シャッタ制御部225を有する。 First, with reference to FIG. 2A, the configuration and operation of the imaging device according to the present embodiment will be described. FIG. 2 a is a block diagram of the imaging device 201. In FIG. 2A, the optical unit 210 (imaging optical system) has a zoom lens 211, an image blur correction lens 212, a focus adjustment lens 213, a diaphragm 214, and a shutter 215. The lens drive control unit 220 is a control means for driving each component of the optical unit 210. The lens drive control unit 220 includes a zoom control unit 221, a camera shake correction control unit 222, a focus control unit 223, an aperture control unit 224, and a shutter control unit 225.

撮像素子231は、光学ユニット210を介して形成された光学像を光電変換してアナログ画像信号(画像データ)を出力する。撮像素子231の動作タイミングは、撮像制御部232により制御される。A/D変換器233は、撮像素子231から出力されたアナログ画像信号をデジタル画像信号に変換する。A/D変換器233から出力されたデジタル画像信号は、画像入力部234を介して、内部メモリ243に格納される。画像入力部234は、メモリ制御回路241により制御される。内部メモリ243は、システムコントローラ280により制御される。画像処理部251は、A/D変換器233からのデータ(デジタル画像データ)またはメモリ制御回路241からのデータに対して、所定の画素補間処理や色変換処理などを行う。メモリ制御回路241は、A/D変換器233、画像処理部251、圧縮伸長回路242、および、内部メモリ243を制御する。またメモリ制御部214は、記録メディア244へのデータの記録を制御する。 The image sensor 231 photoelectrically converts the optical image formed via the optical unit 210 and outputs an analog image signal (image data). The operation timing of the image pickup device 231 is controlled by the image pickup control section 232. The A/D converter 233 converts the analog image signal output from the image sensor 231 into a digital image signal. The digital image signal output from the A/D converter 233 is stored in the internal memory 243 via the image input unit 234. The image input unit 234 is controlled by the memory control circuit 241. The internal memory 243 is controlled by the system controller 280. The image processing unit 251 performs predetermined pixel interpolation processing and color conversion processing on the data (digital image data) from the A/D converter 233 or the data from the memory control circuit 241. The memory control circuit 241 controls the A/D converter 233, the image processing unit 251, the compression/decompression circuit 242, and the internal memory 243. The memory control unit 214 also controls recording of data on the recording medium 244.

内部メモリ243に書き込まれた表示用の画像データは、画像表示制御部261を介して、TFTやLCDなどの画像表示部206により表示される。内部メモリ243は、撮影した静止画像や動画像を格納する記憶手段であり、システムコントローラ280の作業領域としても利用可能である。圧縮伸長回路242は、画像データを圧縮または伸長する回路である。圧縮伸長回路242は、内部メモリ243に格納された画像を読み込んで圧縮処理または伸長処理を行い、処理後のデータを再び内部メモリ243に書き込む。 The image data for display written in the internal memory 243 is displayed by the image display unit 206 such as TFT or LCD via the image display control unit 261. The internal memory 243 is a storage unit that stores captured still images and moving images, and can also be used as a work area of the system controller 280. The compression/expansion circuit 242 is a circuit for compressing or expanding image data. The compression/expansion circuit 242 reads the image stored in the internal memory 243, performs compression processing or expansion processing, and writes the processed data in the internal memory 243 again.

システムコントローラ280は、CPUやMPUなどを備え、撮像装置201の全体を制御する。電源ボタン202、レリーズボタン203、ズームキー204、および、メニュー操作キー205は、システムコントローラ280の各種の動作指示を入力するための操作手段である。操作手段は、スイッチ、ダイアル、タッチパネルなどの単数または複数の組み合わせで構成される。レリーズボタン203の操作に応じて出力される信号は、静止画を記録するためのシャッタを動作させるトリガ信号や、動画記録をスタートやストップさせるためのトリガ信号として利用される。 The system controller 280 includes a CPU and MPU and controls the entire imaging device 201. The power button 202, the release button 203, the zoom key 204, and the menu operation key 205 are operation means for inputting various operation instructions of the system controller 280. The operation unit is composed of a single switch or a combination of a plurality of switches, dials, and touch panels. A signal output according to the operation of the release button 203 is used as a trigger signal for operating a shutter for recording a still image and a trigger signal for starting and stopping moving image recording.

本実施形態において、システムコントローラ280は、動き量検出部281(算出手段)、露出制御部282(制御手段)、および、焦点距離取得部283(取得手段)を有する。動き量検出部281は、撮像された前後のフレーム間(互いに異なるタイミングで取得された画像フレーム間)における動き量を検出する。本実施形態において、動き量検出部281は、画像(撮像素子231から出力された画像データに対応する画像)に含まれる被写体の動きベクトルを算出する。焦点距離取得部283は、撮影の際における焦点距離を取得する。露出制御部282は、測光された輝度レベルに基づいて適正露出値を算出し、算出した適正露出値に基づいて露出制御を行う。本実施形態において、露出制御部282は、被写体の動きベクトルと、振れ情報と、焦点距離とに基づいて露光時間を制御する。 In the present embodiment, the system controller 280 includes a movement amount detection unit 281 (calculation unit), an exposure control unit 282 (control unit), and a focal length acquisition unit 283 (acquisition unit). The motion amount detection unit 281 detects the motion amount between the frames before and after the image capturing (between image frames acquired at different timings). In the present embodiment, the motion amount detection unit 281 calculates the motion vector of the subject included in the image (the image corresponding to the image data output from the image sensor 231). The focal length acquisition unit 283 acquires the focal length at the time of shooting. The exposure control unit 282 calculates an appropriate exposure value based on the measured brightness level, and controls exposure based on the calculated appropriate exposure value. In the present embodiment, the exposure control unit 282 controls the exposure time based on the motion vector of the subject, the shake information, and the focal length.

システムコントローラ280は、ズームキー204の操作に応じて出力される信号に基づいて、ズームレンズ211を光軸方向に駆動して焦点距離を制御する。本実施形態において、ズーム制御部221は、システムコントローラ280の指示に従い、撮影者により操作されたズームキー204の方向および操作量に基づいてズーム駆動速度および駆動方向を算出する。ズームレンズ211は、この算出結果に従って光軸に沿って移動する。電源制御部271は、電源ボタン202からの信号をトリガとして、撮像装置201の各部に対して電源を供給するように電源272を制御する。 The system controller 280 controls the focal length by driving the zoom lens 211 in the optical axis direction based on the signal output according to the operation of the zoom key 204. In the present embodiment, the zoom control unit 221 calculates the zoom drive speed and the drive direction based on the direction and the operation amount of the zoom key 204 operated by the photographer according to the instruction of the system controller 280. The zoom lens 211 moves along the optical axis according to this calculation result. The power supply control unit 271 uses the signal from the power supply button 202 as a trigger to control the power supply 272 so as to supply power to each unit of the imaging device 201.

本実施形態において、例えば、手振れ補正制御部222(振れ検出部2221)、および、システムコントローラ280(動き量検出部281、露出制御部282、焦点距離取得部283)により像ブレ補正装置が構成される。 In the present embodiment, for example, the image blur correction device is configured by the camera shake correction control unit 222 (shake detection unit 2221) and the system controller 280 (motion amount detection unit 281, exposure control unit 282, focal length acquisition unit 283). It

次に、図2bを参照して、手振れ補正制御部222の構成および動作について説明する。図2bは、手振れ補正制御部222のブロック図である。手振れ補正制御部222は、光学ユニット210に含まれる像ブレ補正レンズ212を光軸と直交する方向に駆動することにより像ブレ補正を行う補正手段である。手振れ補正制御部222は、振れ検出部2221(検出手段)は、角速度(角速度に関する情報)を検出する角速度センサ(角速度検出手段)などの振れ検出センサを有し、撮像装置201に加わる手振れ信号(振れ情報)を検出(取得)する。振れ検出部2221aは、撮像装置201のピッチ方向の振動を検出する。振れ検出部2221bはヨー方向の振動を検出する。 Next, with reference to FIG. 2B, the configuration and operation of the camera shake correction control unit 222 will be described. FIG. 2B is a block diagram of the camera shake correction control unit 222. The camera shake correction control unit 222 is a correction unit that performs image blur correction by driving the image blur correction lens 212 included in the optical unit 210 in a direction orthogonal to the optical axis. The shake correction control unit 222 includes a shake detection sensor such as an angular velocity sensor (angular velocity detection unit) that detects an angular velocity (information about angular velocity) in the shake detection unit 2221 (detection unit). Shake information) is detected (obtained). The shake detection unit 2221a detects the vibration of the image pickup apparatus 201 in the pitch direction. The shake detection unit 2221b detects vibration in the yaw direction.

図3は、撮像装置201の各軸および方向の説明図である。撮像装置201において、光軸302はZ軸と平行であり、ピッチ方向303pはX軸周りの回転方向、ヨー方向303yはY軸周りの回転方向にそれぞれ対応する。また、ロール方向は、光軸302(Z軸)周りの回転方向に対応する。 FIG. 3 is an explanatory diagram of each axis and direction of the image pickup apparatus 201. In the imaging device 201, the optical axis 302 is parallel to the Z axis, the pitch direction 303p corresponds to the rotation direction around the X axis, and the yaw direction 303y corresponds to the rotation direction around the Y axis. The roll direction corresponds to the rotation direction around the optical axis 302 (Z axis).

振れ検出部2221a、2221bにより取得された信号はそれぞれ、A/D変換器2222a、2222bを介して、デジタル信号に変換される。フィルタ2223a、2223bは、A/D変換器2222a、222bのそれぞれにより変換された角速度信号から、所定の低域カットオフ周波数以下の低周波成分を除去して出力する。またA/D変換器2222a、2222bから出力された角速度信号を積分することにより、撮像装置201に加わる振れ角度を算出する。 The signals acquired by the shake detection units 2221a and 2221b are converted into digital signals via the A/D converters 2222a and 2222b, respectively. The filters 2223a and 2223b remove low-frequency components equal to or lower than a predetermined low-frequency cutoff frequency from the angular velocity signals converted by the A/D converters 2222a and 222b, and output them. Also, the shake angle applied to the image pickup apparatus 201 is calculated by integrating the angular velocity signals output from the A/D converters 2222a and 2222b.

目標位置算出部2224は、フィルタ2223a、2223bにより算出された振れ角度を、ズーム位置、フォーカス位置、および、これらより求められる焦点距離や撮影倍率に基づいて増幅し、角度目標値を算出する。これは、焦点距離や撮影倍率などの光学的な変化により、像ブレ補正のストロークに対する撮像面上のブレ補正敏感度が変化するためである。目標位置算出部2224は、角度目標値に基づいて、像ブレ補正レンズ212の駆動量を算出する。なお、ズーム位置、フォーカス位置、および、これらから求められる焦点距離や撮影倍率は、システムコントローラ280を介して取得可能である。 The target position calculation unit 2224 amplifies the shake angle calculated by the filters 2223a and 2223b based on the zoom position, the focus position, and the focal length and the photographing magnification obtained from these, to calculate the angle target value. This is because the blur correction sensitivity on the imaging surface with respect to the stroke of the image blur correction changes due to optical changes such as the focal length and the photographing magnification. The target position calculation unit 2224 calculates the drive amount of the image blur correction lens 212 based on the target angle value. It should be noted that the zoom position, the focus position, and the focal length and the photographing magnification obtained from them can be acquired via the system controller 280.

目標位置算出部2224により算出された目標位置と、ブレ補正レンズ位置検出部2227a、2227bにより取得された現在の像ブレ補正レンズ212の位置との差分を示す信号が、位置制御部2225に入力される。ドライバ2226は、位置制御部2225からドライバ2226に出力された信号に従い、像ブレ補正レンズ212の駆動量に応じた駆動電流を供給して像ブレ補正レンズ212を駆動する。 A signal indicating the difference between the target position calculated by the target position calculation unit 2224 and the current position of the image shake correction lens 212 acquired by the shake correction lens position detection units 2227a and 2227b is input to the position control unit 2225. It The driver 2226 drives the image blur correction lens 212 by supplying a drive current according to the drive amount of the image blur correction lens 212 according to the signal output from the position control unit 2225 to the driver 2226.

次に、図1を参照して、本実施形態の撮像装置201が流し撮りアシストモードに設定されている場合の処理(撮像装置の制御方法)について説明する。図1は、撮像装置201(像ブレ補正装置)の制御方法を示すフローチャートである。図1の各ステップは、主に、撮像装置201のシステムコントローラ280の指令に基づいて実行される。 Next, with reference to FIG. 1, a process (a control method of the image pickup apparatus) when the image pickup apparatus 201 of the present embodiment is set to the follow shot assist mode will be described. FIG. 1 is a flowchart showing a control method of the image pickup apparatus 201 (image blur correction apparatus). Each step of FIG. 1 is mainly executed based on a command from the system controller 280 of the image pickup apparatus 201.

まず、ステップS101において、システムコントローラ280は、撮像装置201が流し撮りアシストモードに設定されているか否かを判定する。流し撮りアシストモードに設定されている場合、ステップS102に進む。一方、流し撮りアシストモードに設定されていない場合、システムコントローラ280は、通常の防振処理を行い、流し撮りアシストモードが設定されるまでステップS101の判定を繰り返す。 First, in step S101, the system controller 280 determines whether or not the imaging device 201 is set to the follow shot assist mode. When the follow shot assist mode is set, the process proceeds to step S102. On the other hand, when the follow shot assist mode is not set, the system controller 280 performs a normal image stabilizing process and repeats the determination of step S101 until the follow shot assist mode is set.

ステップS102において、システムコントローラ280は、流し撮り撮影を行う際の背景流し量を設定する。このとき、撮影者は、撮像装置201の操作手段を介して、任意の背景流し量を設定(選択)する。背景流し量は、例えば、大・中・小などのレベルとして表記することができる。また、背景流し量を直感的に把握できるように、背景流し量のレベルとイメージ図とを一緒に表示することや、それぞれの背景流し量のレベルに対して、全画角に占める割合を表示してもよい。 In step S102, the system controller 280 sets the background flow amount when performing panning shooting. At this time, the photographer sets (selects) an arbitrary background flow amount through the operation unit of the image pickup apparatus 201. The background flow amount can be expressed as a level of large/medium/small, for example. In addition, the background flow level and the image diagram are displayed together so that the background flow rate can be intuitively grasped, and the ratio of the total background angle to each background flow level is displayed. May be.

続いてステップS103において、システムコントローラ280は、サーボAFを開始する。サーボAFを行うことにより、常に被写体にピントを合わせることができる。なお本実施形態において、フォーカス制御方法としてサーボAFを行うが、これに限定されるものではなく、他のフォーカス制御方法を用いてもよい。 Subsequently, in step S103, the system controller 280 starts servo AF. By performing the servo AF, the subject can always be focused. In this embodiment, servo AF is performed as the focus control method, but the present invention is not limited to this, and other focus control methods may be used.

続いてステップS104において、システムコントローラ280は、動きベクトルの検出を開始する。ここでシステムコントローラ280(動き量検出部281)は、所定のフレームレートで取得されるライブビュー画像から動きベクトルを検出(算出)する。動き量検出部281は、例えば、画像を複数の領域に分割した探索用のブロックを設定し、探索用ブロック単位で画像間における動きベクトルを検出する。 Subsequently, in step S104, the system controller 280 starts detecting a motion vector. Here, the system controller 280 (motion amount detection unit 281) detects (calculates) a motion vector from the live view image acquired at a predetermined frame rate. The motion amount detection unit 281 sets, for example, a search block obtained by dividing an image into a plurality of regions, and detects a motion vector between images in search block units.

時系列的に取得された2枚の画像が存在する場合、動き量検出部281は、先に取得された画像(画像データ)の全ての領域を複数のブロック(例えば、図4(a)中の複数の画像ブロック401a)に分割する。次に、動き量検出部281は、時系列的に後に取得された画像(画像データ)にも同様の処理を行う。そして動き量検出部281は、時系列的に先に取得された画像ブロックと、時系列的に後に取得された方の画像ブロックとを比較して、類似度を算出する。動き量検出部281は、このような処理を他方の画像データにおける比較領域をずらしながら全体の領域に対して行い、最も類似度が高い領域を移動先の領域として決定する。動き量検出部281は、この処理を画像データの全てのブロックに対して行い、全てのブロックについて動きベクトルを算出する。このような処理方法をブロックマッチング法と呼ぶが、別の方法で動きベクトルを算出してもよい。 When there are two time-sequentially acquired images, the motion amount detection unit 281 causes all areas of the previously acquired image (image data) to be divided into a plurality of blocks (for example, in FIG. 4A). Of image blocks 401a). Next, the motion amount detection unit 281 performs similar processing on images (image data) acquired later in time series. Then, the motion amount detection unit 281 compares the image block acquired earlier in time series with the image block acquired later in time series to calculate the degree of similarity. The motion amount detection unit 281 performs such processing on the entire area while shifting the comparison area in the other image data, and determines the area with the highest degree of similarity as the destination area. The motion amount detection unit 281 performs this process on all blocks of the image data, and calculates motion vectors for all blocks. Although such a processing method is called a block matching method, the motion vector may be calculated by another method.

動き量検出部281は、このように算出された値を、信頼性が所定の値よりも低くならない限り、露光直前まで常に更新する。これにより、露光直前まで演算結果が反映されるため、露光中に高精度な流し撮り制御を行うことができる。 The motion amount detection unit 281 constantly updates the value calculated in this way until immediately before the exposure unless the reliability is lower than a predetermined value. As a result, the calculation result is reflected until just before the exposure, so that the follow shot control can be performed with high accuracy during the exposure.

続いて、ステップS105において、手振れ補正制御部222の振れ検出部2221は、各軸に関して、撮像装置201に加わる角速度を検出する。続いてステップS106において、システムコントローラ280は、レリーズボタン203が半押し状態(以下、「S1_ON」と表記する)であるか否かを判定する。S1_ONである場合、ステップS107に進む。一方、S1_OFFである場合、システムコントローラ280は、S1_ONとなるまでステップS107の判定を繰り返す。 Subsequently, in step S105, the shake detection unit 2221 of the camera shake correction control unit 222 detects the angular velocity applied to the imaging device 201 with respect to each axis. Subsequently, in step S106, the system controller 280 determines whether or not the release button 203 is in a half-pressed state (hereinafter referred to as "S1_ON"). If it is S1_ON, the process proceeds to step S107. On the other hand, if S1_OFF, the system controller 280 repeats the determination of step S107 until S1_ON.

続いてステップS107において、システムコントローラ280は、レリーズボタン203が全押し状態(以下、「S2_ON」と表記する)であるか否かを判定する。S2_ONである場合、ステップS108に進む。一方、S2_OFFである場合、S2_ONとなるまでステップS107の判定を繰り返す。 Subsequently, in step S107, the system controller 280 determines whether or not the release button 203 is fully pressed (hereinafter referred to as "S2_ON"). If it is S2_ON, the process proceeds to step S108. On the other hand, if S2_OFF, the determination of step S107 is repeated until S2_ON.

続いてステップS108において、システムコントローラ280(焦点距離取得部283)は、撮影の際の焦点距離(撮影焦点距離)を取得する。続いてステップS109において、システムコントローラ280(動き量検出部281)は、像ブレ補正レンズ212の駆動量を算出する。ここで、図5を参照して、像ブレ補正レンズ212の駆動量の算出方法について説明する。図5は、像ブレ補正レンズ212の駆動量の算出方法を示すフローチャートである。図5の各ステップは、主に、動き量検出部281および手振れ補正制御部222により実行される。 Subsequently, in step S108, the system controller 280 (focal length acquisition unit 283) acquires the focal length (shooting focal length) at the time of shooting. Subsequently, in step S109, the system controller 280 (movement amount detection unit 281) calculates the driving amount of the image blur correction lens 212. Here, a method of calculating the drive amount of the image blur correction lens 212 will be described with reference to FIG. FIG. 5 is a flowchart showing a method of calculating the drive amount of the image blur correction lens 212. Each step in FIG. 5 is mainly executed by the motion amount detection unit 281 and the camera shake correction control unit 222.

まずステップS501において、動き量検出部281は、ステップS104にて検出(算出)された動きベクトルに基づいて、ヒストグラム処理を行う。ここで、算出された動きベクトルが図4に示される場合を考える。図4(a)は動きベクトルの方向、図4(b)は動きベクトルの数値、および、図4(c)は動きベクトルをヒストグラム処理した結果をそれぞれ示している。図4(a)、(b)に示されるように、本実施形態において、画像中の全ての領域は、動き量検出部281により複数の画像ブロック401aに分割される。なお本実施形態では、説明を簡単にするため、画像の横方向の動きに限定して動きベクトルを算出しているが、これに限定されるものではない。 First, in step S501, the motion amount detection unit 281 performs histogram processing based on the motion vector detected (calculated) in step S104. Here, consider the case where the calculated motion vector is shown in FIG. 4A shows the direction of the motion vector, FIG. 4B shows the numerical value of the motion vector, and FIG. 4C shows the result of the histogram processing of the motion vector. As shown in FIGS. 4A and 4B, in the present embodiment, all the areas in the image are divided into a plurality of image blocks 401a by the motion amount detection unit 281. In the present embodiment, for simplification of description, the motion vector is calculated only in the horizontal movement of the image, but the present invention is not limited to this.

続いてステップS502において、動き量検出部281は、撮像装置201に加わる角速度に基づいて、背景移動量を推測する。背景移動量A[ピクセル]は、以下の式(1)のように求めることができる。 Subsequently, in step S502, the motion amount detection unit 281 estimates the background movement amount based on the angular velocity applied to the imaging device 201. The background movement amount A [pixel] can be obtained by the following equation (1).

A=f・tan(−ω/FR)/PP … (1)
式(1)において、fは焦点距離[mm]、FRはフレームレート[fps]、PPはセルピッチ[mm]をそれぞれ示している。なお、角速度ω[rad/sec]は、振れ検出部2221(振れ検出センサ)により取得可能である。
A=f·tan(−ω/FR)/PP (1)
In Expression (1), f is the focal length [mm], FR is the frame rate [fps], and PP is the cell pitch [mm]. The angular velocity ω [rad/sec] can be acquired by the shake detection unit 2221 (shake detection sensor).

続いてステップS503において、動き量検出部281は、画像中の動きベクトルを、背景ベクトル(背景の動きベクトル)と被写体ベクトル(被写体の動きベクトル)とに切り分ける(分離する)処理を行う。ステップS502にて背景移動量Aは「5」と求められたとすると、図4(c)に示されるように、大きさ「5」以外の数値が被写体ベクトルであると推定することができる。このようにして、動き量検出部281は、動きベクトルから被写体ベクトルを抽出する。なお本実施形態において、撮像装置201に加わる角速度から背景ベクトルと被写体ベクトルとを分離しているが、これに限定されるものではなく、他の方法を用いて画像中の動きベクトルを背景ベクトルと被写体ベクトルとに分離してもよい。一般的に、撮影者は、被写体を画角内の一点に留めるためにパンニングしながら撮影を行う。このため、背景のほうが動きベクトルが大きく出力され、被写体はブレ残り量分の動きベクトルとして出力される。この傾向を利用して、画像中の動きベクトルを背景ベクトルと被写体ベクトルとに分離してもよい。このようにして、背景として分離可能な領域(背景領域)は、図4(b)に示される斜線部であり、残りの部分は被写体(被写体領域)である判定することができる。 Subsequently, in step S503, the motion amount detection unit 281 performs a process of dividing (separating) the motion vector in the image into a background vector (background motion vector) and a subject vector (subject motion vector). If the background movement amount A is found to be "5" in step S502, it can be estimated that a numerical value other than the size "5" is the subject vector, as shown in FIG. 4C. In this way, the motion amount detection unit 281 extracts the subject vector from the motion vector. In the present embodiment, the background vector and the subject vector are separated from the angular velocity applied to the image pickup apparatus 201, but the present invention is not limited to this, and the motion vector in the image is set as the background vector by using another method. It may be separated from the subject vector. Generally, a photographer shoots while panning in order to keep the subject at one point within the angle of view. Therefore, a larger motion vector is output in the background, and the subject is output as a motion vector for the remaining blur amount. By utilizing this tendency, the motion vector in the image may be separated into the background vector and the subject vector. In this way, it is possible to determine that the separable region (background region) as the background is the hatched portion shown in FIG. 4B and the remaining portion is the subject (subject region).

続いてステップS504において、システムコントローラ280は、像ブレ補正レンズ212の駆動量を算出する。像ブレ補正レンズ212の駆動量は、被写体ベクトルから算出することができる。これは、前述のとおり、被写体ベクトルはブレ残り量分の動きベクトルであり、撮影者がパンニング操作を行った場合における角速度の差分に相当するためである。手振れ補正制御部222は、システムコントローラ280の指令に基づいて、このブレ残り量を像ブレ補正レンズ212で補正し、被写体の動きを止めるように制御する。ブレ残り量は、例えば、被写体ベクトルの中で最も数値の大きい支配的なベクトルを用いて補正することができる。また、被写体ベクトルの平均値Vaを用いてブレ残り量を補正してもよい。以上で、図5のフローチャート(ステップS109)が終了する。 Subsequently, in step S504, the system controller 280 calculates the drive amount of the image blur correction lens 212. The drive amount of the image blur correction lens 212 can be calculated from the subject vector. This is because, as described above, the subject vector is a motion vector corresponding to the remaining blurring amount and corresponds to the difference in angular velocity when the photographer performs a panning operation. The camera shake correction control unit 222 corrects the remaining blurring amount with the image blurring correction lens 212 based on a command from the system controller 280, and controls so as to stop the movement of the subject. The remaining blur amount can be corrected using, for example, a dominant vector having the largest numerical value among the subject vectors. Further, the residual blur amount may be corrected using the average value Va of the subject vector. This is the end of the flowchart (step S109) in FIG.

続いてステップS110において、システムコントローラ280(露出制御部282)は、露光条件を設定する。ここで、図6を参照して、露出制御方法について説明する。図6は、露出制御方法を示すフローチャートである。図6の各ステップは、主に、露出制御部282により実行される。 Subsequently, in step S110, the system controller 280 (exposure control unit 282) sets an exposure condition. Here, the exposure control method will be described with reference to FIG. FIG. 6 is a flowchart showing the exposure control method. The steps in FIG. 6 are mainly executed by the exposure control unit 282.

まずステップS601において、露出制御部282は、ステップS102にて設定された背景流し量と、振れ検出部2221の出力とに基づいて、第1の露光時間Tv’[sec]を算出する。ここで、背景流し量を画角に対してX[%](ステップS102にて撮影者が設定)、撮像装置201に加わる角速度をω[deg/sec]、焦点距離をf[mm]とする。また、撮像素子231(センサ)のセルピッチをPP[mm/ピクセル]、画素サイズを縦方向においてGv[ピクセル]、横方向においてGh[ピクセル]とする。また、撮影者は横方向にパンニングしていると仮定する。 First, in step S601, the exposure control unit 282 calculates the first exposure time Tv' [sec] based on the background flow amount set in step S102 and the output of the shake detection unit 2221. Here, the background flow amount is X [%] with respect to the angle of view (set by the photographer in step S102), the angular velocity applied to the imaging device 201 is ω [deg/sec], and the focal length is f [mm]. . Further, the cell pitch of the image sensor 231 (sensor) is PP [mm/pixel], the pixel size is Gv [pixel] in the vertical direction, and Gh [pixel] in the horizontal direction. It is also assumed that the photographer is panning in the lateral direction.

これらの値を用いて背景流し量をピクセル数に換算すると、背景流し量B[ピクセル]は、以下の式(2)のように表すことができる。 When the background flow amount is converted into the number of pixels using these values, the background flow amount B [pixel] can be expressed by the following equation (2).

B=Gh×X×PP … (2)
第1の露光時間Tv’[sec]は、背景流し量B[ピクセル]を用いて、以下の式(3)のように表される。
B=Gh×X×PP (2)
The first exposure time Tv′ [sec] is expressed by the following expression (3) using the background flow amount B [pixel].

Tv’=C・B/(f・ω) … (3)
式(3)において、Cは任意の定数である。
Tv′=C·B/(f·ω) (3)
In Expression (3), C is an arbitrary constant.

続いてステップS602において、露出制御部282は、被写体ベクトルの演算結果(被写体の動きベクトル)に基づいて露光時間の上限値(最大露光時間)を設定する。ここで、露光時間の上限値を、第2の露光時間Tvm[sec]とする。第2の露光時間Tvmは、例えば以下のように求めることができる。まず、露出制御部282は、図4(c)の結果から、被写体ベクトルの平均値Vaを求める。次に、露出制御部282は、被写体ベクトルの最大値Vmを求める。被写体流れ許容値(所定の許容値)をI[ピクセル]とすると、第2の露光時間Tvmは以下の条件式(4)を満たす必要がある。 Subsequently, in step S602, the exposure control unit 282 sets the upper limit value (maximum exposure time) of the exposure time based on the calculation result of the subject vector (motion vector of the subject). Here, the upper limit of the exposure time is the second exposure time Tvm [sec]. The second exposure time Tvm can be obtained as follows, for example. First, the exposure control unit 282 obtains the average value Va of the subject vector from the result of FIG. Next, the exposure control unit 282 obtains the maximum value Vm of the subject vector. When the object flow allowable value (predetermined allowable value) is I [pixel], the second exposure time Tvm needs to satisfy the following conditional expression (4).

(Vm−Va)×Tvm<I … (4)
従って、第2の露光時間Tvmは、以下の式(5)のように表される。
(Vm-Va)*Tvm<I (4)
Therefore, the second exposure time Tvm is expressed by the following equation (5).

Tvm=I/(Vm−Va) … (5)
なお、被写体流れ許容値Iは任意の数値であり、撮影する被写体や撮影シーンに応じて決定(変更)してもよい。
Tvm=I/(Vm-Va) (5)
Note that the object flow allowable value I is an arbitrary numerical value, and may be determined (changed) according to the object to be photographed and the photographing scene.

続いてステップS603において、露出制御部282は、ステップS601にて算出した第1の露光時間Tv’と、ステップS602にて算出した第2の露光時間Tvmとを比較する。第1の露光時間Tv’と第2の露光時間Tvmとを比較した結果、第1の露光時間Tv’が第2の露光時間Tvmよりも小さい場合(Tv’<Tvm)、ステップS604に進み、露出制御部282は、撮影に用いる露光時間を第1の露光時間Tv’に設定する。一方、第1の露光時間Tv’が第2の露光時間Tvm以上である場合(Tv’≧Tvm)、ステップS605に進み、露出制御部282は、撮影に用いる露光時間を第2の露光時間Tvmに設定する。 Subsequently, in step S603, the exposure control unit 282 compares the first exposure time Tv′ calculated in step S601 with the second exposure time Tvm calculated in step S602. As a result of comparing the first exposure time Tv′ and the second exposure time Tvm, when the first exposure time Tv′ is shorter than the second exposure time Tvm (Tv′<Tvm), the process proceeds to step S604, The exposure control unit 282 sets the exposure time used for shooting to the first exposure time Tv′. On the other hand, when the first exposure time Tv′ is equal to or longer than the second exposure time Tvm (Tv′≧Tvm), the process proceeds to step S605, and the exposure control unit 282 sets the exposure time used for the shooting to the second exposure time Tvm. Set to.

このように本実施形態において、好ましくは、露出制御部282は、被写体の動きベクトルに応じた最大露光時間(第2の露光時間Tvm)を超えないように露光時間を制御する。より好ましくは、動き量検出部281は、被写体の動きベクトルとして、被写体の複数の位置における動きベクトルの最大値Vmおよび平均値Vaを算出する。そして露出制御部282は、動きベクトルの最大値Vmと平均値Vaとの差(Vm−Va)に基づいて、最大露光時間を決定する。より好ましくは、露出制御部282は、動きベクトルの最大値Vmと平均値Vaとの差(Vm−Va)と、被写体または撮影シーンに応じて決定される被写体流れ許容値Iとに基づいて(例えば式(5)に従って)、最大露光時間を決定する。好ましくは、露出制御部282は、振れ情報と、ユーザにより設定された背景流し量とに基づいて第1の露光時間Tv’を算出し(S601)、第1の露光時間と最大露光時間とを比較する(S603)。第1の露光時間が最大露光時間よりも短い場合、露光時間として第1の露光時間を設定し(S604)、第1の露光時間が最大露光時間よりも長い場合、露光時間として最大露光時間を設定する(S605)。このように、被写体の速度を考慮して露光時間を制限することにより、被写体の流れ過ぎを防止し、被写体に応じて適切な露光時間を設定することができる。 As described above, in the present embodiment, preferably, the exposure control unit 282 controls the exposure time so as not to exceed the maximum exposure time (second exposure time Tvm) according to the motion vector of the subject. More preferably, the motion amount detection unit 281 calculates the maximum value Vm and the average value Va of the motion vector at a plurality of positions of the subject as the subject motion vector. Then, the exposure control unit 282 determines the maximum exposure time based on the difference (Vm-Va) between the maximum value Vm of the motion vector and the average value Va. More preferably, the exposure controller 282 is based on the difference (Vm−Va) between the maximum value Vm and the average value Va of the motion vector and the object flow allowable value I determined according to the object or the shooting scene ( The maximum exposure time is determined, for example according to equation (5). Preferably, the exposure control unit 282 calculates the first exposure time Tv′ based on the shake information and the background flow amount set by the user (S601), and calculates the first exposure time and the maximum exposure time. The comparison is made (S603). When the first exposure time is shorter than the maximum exposure time, the first exposure time is set as the exposure time (S604), and when the first exposure time is longer than the maximum exposure time, the maximum exposure time is set as the exposure time. It is set (S605). As described above, by limiting the exposure time in consideration of the speed of the subject, it is possible to prevent the subject from flowing too much and set an appropriate exposure time according to the subject.

続いてステップS606において、露出制御部282は、適正露光の演算を行う。ここで演算された測光値をBv(Bv値)とする。続いてステップS607において、ステップS606にて求めたBv値と、ステップS604またはステップS605にて設定された露光時間(Tv値)と、流し撮りモード用の線図とに基づいて、露出制御部282は、Av値とISO感度とを算出して設定する。 Subsequently, in step S606, the exposure control unit 282 calculates the proper exposure. The photometric value calculated here is Bv (Bv value). Subsequently, in step S607, the exposure control unit 282 is based on the Bv value obtained in step S606, the exposure time (Tv value) set in step S604 or step S605, and the diagram for the follow shot mode. Calculates and sets the Av value and the ISO sensitivity.

ここで、露出演算には、以下の式(6)〜(9)が用いられる。 Here, the following formulas (6) to (9) are used for the exposure calculation.

Bv=Tv+Av−Sv … (6)
Tv=−log2 … (7)
Av=2log2 … (8)
Sv=log2(0.3×ISO感度) … (9)
露出制御部282は、これらにより求められた露出値を設定し、図6のフロー(ステップS110)を終了する。
Bv=Tv+Av-Sv (6)
Tv=-log2 (7)
Av=2log2 (8)
Sv=log2 (0.3×ISO sensitivity) (9)
The exposure control unit 282 sets the exposure value thus obtained, and ends the flow of FIG. 6 (step S110).

続いてステップS111において、システムコントローラ280は露光を開始する。そしてステップS112において、システムコントローラ280の指令に基づいて、手振れ補正制御部222は、露光しながら像ブレ補正レンズ212を駆動する。像ブレ補正レンズ212は、ステップS109にて算出された駆動量に従って駆動される。本実施形態において、撮像素子231は、ステップS110にて設定された露光時間で、手振れ補正制御部222により像ブレ補正レンズ212を光軸と直交する方向に駆動しながら、光学像を光電変換して画像データを出力する。 Subsequently, in step S111, the system controller 280 starts exposure. Then, in step S112, the camera shake correction control unit 222 drives the image blur correction lens 212 during exposure based on a command from the system controller 280. The image blur correction lens 212 is driven according to the drive amount calculated in step S109. In the present embodiment, the image sensor 231 photoelectrically converts the optical image while driving the image blur correction lens 212 in the direction orthogonal to the optical axis by the camera shake correction control unit 222 for the exposure time set in step S110. And output the image data.

続いてステップS113において、システムコントローラ280は、設定された露光時間が終了したか否かを判定する。露光がまだ終了していない場合、ステップS112の処理に戻る。露光が終了した場合、ステップS114に進む。ステップS114において、システムコントローラ280(手振れ補正制御部222)は、像ブレ補正レンズ212の位置を初期位置に戻す。 Subsequently, in step S113, the system controller 280 determines whether or not the set exposure time has ended. If the exposure has not ended, the process returns to step S112. When the exposure is completed, the process proceeds to step S114. In step S114, the system controller 280 (camera shake correction control unit 222) returns the position of the image blur correction lens 212 to the initial position.

本実施形態によれば、背景流利量より求められる露光時間と、被写体ベクトルの最大値から求められる露光時間とを比較して露光時間を制限する。これにより、被写体が流れて、流し撮り撮影の臨場感が損なわれることを防止することができる。なお、露光時間の算出方法はこれに限定されるものではない。例えば、背景ベクトルと被写ベクトルとの差分から露光時間を算出する方法、または、合焦点の動きベクトルと被写体ベクトルとの差分から露光時間を算出する方法を用いてもよい。 According to the present embodiment, the exposure time is limited by comparing the exposure time obtained from the background flow rate with the exposure time obtained from the maximum value of the subject vector. As a result, it is possible to prevent the subject from flowing and impairing the realism of the follow shot shooting. The method of calculating the exposure time is not limited to this. For example, a method of calculating the exposure time from the difference between the background vector and the subject vector, or a method of calculating the exposure time from the difference between the focus vector and the subject vector may be used.

また、露光時間の制限方法もこれに限定されるものではない。例えば、第1の露光時間を定数倍した露光時間を設定し、被写体ベクトルの大きさに関わらず、流し撮りの効果を確実に残すように構成してもよい。これにより、流し撮りに慣れない撮影者でも、被写体に依存することなく、背景を流しつつ被写体の動きを止めることのできる露光時間を自動で設定可能である。従って、不慣れな撮影者でも簡単に臨場感のある流し撮り画像を得ることができる。 Further, the method of limiting the exposure time is not limited to this. For example, an exposure time that is a constant multiple of the first exposure time may be set so that the panning effect can be reliably retained regardless of the size of the subject vector. As a result, even a photographer who is not accustomed to panning can automatically set an exposure time that allows the movement of the subject to be stopped while flowing the background without depending on the subject. Therefore, even an unskilled photographer can easily obtain a realistic shot image.

以上、本発明をその好適な実施形態に基づいて詳述したが、本発明は特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。例えば、動き量検出部281は、被写体の動きベクトルとして被写体の複数の位置における動きベクトルの最小値を算出し、露出制御部282は、動きベクトルの最小値に基づいて露光時間を制御してもよい。また、動き量検出部281は、画像に含まれる被写体の動きベクトルと背景の動きベクトルとを算出し、露出制御部282は、被写体の動きベクトルと背景の動きベクトルとに基づいて露光時間を制御してもよい。また、手振れ補正制御部222は、像ブレ補正レンズ212に代えて、撮像素子231を光軸と直交する方向に駆動することにより像ブレ補正を行うこともできる。この場合、撮像素子231は、設定された露光時間において、手振れ補正制御部222により駆動されながら、光学像を光電変換して画像データを出力する。 Although the present invention has been described above in detail based on its preferred embodiments, the present invention is not limited to the specific embodiments, and various forms within the scope of the present invention are also included in the present invention. .. Part of the above-described embodiments may be combined as appropriate. For example, the motion amount detection unit 281 calculates the minimum value of the motion vector at a plurality of positions of the subject as the motion vector of the subject, and the exposure control unit 282 controls the exposure time based on the minimum value of the motion vector. Good. In addition, the motion amount detection unit 281 calculates the motion vector of the subject and the motion vector of the background included in the image, and the exposure control unit 282 controls the exposure time based on the motion vector of the subject and the motion vector of the background. You may. Further, the camera shake correction control unit 222 can also perform image shake correction by driving the image sensor 231 in the direction orthogonal to the optical axis instead of the image shake correction lens 212. In this case, the image sensor 231 photoelectrically converts the optical image and outputs the image data while being driven by the camera shake correction control unit 222 during the set exposure time.

また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。 Further, in the case of supplying a software program that realizes the functions of the above-described embodiments from a recording medium directly or by using wired/wireless communication to a system or apparatus having a computer capable of executing the program and executing the program Also included in the present invention. Therefore, the program code itself supplied to and installed in the computer to implement the functional processing of the present invention by the computer also implements the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention. In that case, the program may take any form such as an object code, a program executed by an interpreter, or script data supplied to an OS as long as it has the function of the program. The recording medium for supplying the program may be, for example, a hard disk, a magnetic recording medium such as a magnetic tape, an optical/magneto-optical storage medium, or a non-volatile semiconductor memory. Further, as a method of supplying the program, a method in which a computer program forming the present invention is stored in a server on a computer network and a connected client computer downloads the computer program and programs it is possible.

本実施形態の撮像装置は、流し撮りに不慣れな撮影者でも、被写体に依存することなく、背景を流しつつ被写体の動きを止めることのできる露光時間を自動に設定可能である。このため本実施形態によれば、簡易に臨場感のある流し撮り画像を取得可能な像ブレ補正装置、撮像装置、レンズ装置、像ブレ補正装置の制御方法、プログラム、および、記憶媒体を提供することができる。 The image capturing apparatus according to the present embodiment can automatically set an exposure time that allows a photographer unfamiliar with follow shots to stop the movement of the subject while allowing the background to flow without depending on the subject. Therefore, according to the present embodiment, an image blur correction device, an imaging device, a lens device, a control method of the image blur correction device, a program, and a storage medium capable of easily obtaining a follow shot image with a realistic sensation are provided. be able to.

281 動き量検出部(算出手段)
282 露出制御部(制御手段)
283 焦点距離取得部(取得手段)
281 Motion amount detection unit (calculation means)
282 Exposure control unit (control means)
283 Focal length acquisition unit (acquisition means)

Claims (4)

撮像素子で検出された画像信号を用いて、前記画像信号に含まれる動きベクトルを算出する算出手段と、
ユーザのパンニング動作による像ブレ補正装置の振れ情報を検出する角速度検出手段により検出された前記振れ情報から、前記動きベクトルを背景ベクトルと被写体ベクトルに分離するベクトル分離手段と
前記背景ベクトルを用いることなく、前記被写体ベクトル、前記振れ情報、及び焦点距離を用いて、露光時間を制御する露光時間制御手段と、
前記背景ベクトルを用いることなく、前記被写体ベクトルを用いて撮像光学系に含まれる像ブレ補正レンズを光軸と直交する方向に駆動することにより、像ブレ補正を行う像ブレ補正制御手段と、を有し、
前記算出手段は、被写体の領域を分割した複数のブロック毎に算出された前記被写体ベクトルを用いて、前記被写体ベクトルの最大値および前記被写体ベクトルの平均値を算出し、
前記露光時間制御手段は、前記被写体ベクトルの最大値と前記被写体ベクトルの平均値との差に基づいて、最大露光時間を決定し、
前記露光時間制御手段は、前記最大露光時間を超えないように前記露光時間を制御することを特徴とする像ブレ補正装置。
Using the image signal detected by the image sensor, a calculating means for calculating a motion vector included in the image signal,
Vector separation means for separating the motion vector into a background vector and a subject vector from the shake information detected by the angular velocity detection means for detecting shake information of the image shake correction apparatus due to the panning operation of the user ,
Exposure time control means for controlling the exposure time using the subject vector, the shake information, and the focal length without using the background vector;
Image blur correction control means for performing image blur correction by driving the image blur correction lens included in the image pickup optical system in the direction orthogonal to the optical axis using the subject vector without using the background vector. Have,
The calculating means calculates the maximum value of the subject vector and the average value of the subject vector by using the subject vector calculated for each of a plurality of blocks obtained by dividing the region of the subject,
The exposure time control means determines the maximum exposure time based on the difference between the maximum value of the subject vector and the average value of the subject vector,
The image blur correction device, wherein the exposure time control means controls the exposure time so as not to exceed the maximum exposure time.
前記露光時間制御手段は、前記被写体ベクトルの最大値と前記被写体ベクトルの平均値との差と、前記被写体または撮影シーンに応じて決定される被写体流れ許容値とに基づいて、前記最大露光時間を決定することを特徴とする請求項1に記載の像ブレ補正装置。The exposure time control means sets the maximum exposure time based on a difference between the maximum value of the subject vector and an average value of the subject vector and a subject flow allowable value determined according to the subject or a shooting scene. The image blur correction device according to claim 1, wherein the image blur correction device determines. 前記露光時間制御手段は、The exposure time control means,
前記振れ情報と、ユーザにより設定された背景流し量とに基づいて第1の露光時間を算出し、Calculating the first exposure time based on the shake information and the background flow amount set by the user,
前記第1の露光時間が前記最大露光時間よりも短い場合、前記露光時間として前記第1の露光時間を設定し、When the first exposure time is shorter than the maximum exposure time, the first exposure time is set as the exposure time,
前記第1の露光時間が前記最大露光時間よりも長い場合、前記露光時間として前記最大露光時間を設定することを特徴とする請求項2に記載の像ブレ補正装置。The image blur correction device according to claim 2, wherein when the first exposure time is longer than the maximum exposure time, the maximum exposure time is set as the exposure time.
撮像素子で検出された画像信号を用いて、前記画像信号に含まれる動きベクトルを算出するステップと、Calculating a motion vector included in the image signal using the image signal detected by the image sensor;
ユーザのパンニング動作による像ブレ補正装置の振れ情報を検出する角速度検出手段により検出された前記振れ情報から、前記動きベクトルを背景ベクトルと被写体ベクトルに分離するステップと、A step of separating the motion vector into a background vector and a subject vector from the shake information detected by the angular velocity detecting means for detecting shake information of the image blur correction device due to the panning operation of the user;
前記背景ベクトルを用いることなく、前記被写体ベクトル、前記振れ情報、及び焦点距離を用いて、露光時間を制御するステップと、Controlling the exposure time using the subject vector, the shake information, and the focal length without using the background vector,
前記背景ベクトルを用いることなく、前記被写体ベクトルを用いて撮像光学系に含まれる像ブレ補正レンズを光軸と直交する方向に駆動することにより、像ブレ補正を行うステップと、を有し、Driving the image blur correction lens included in the imaging optical system in the direction orthogonal to the optical axis using the subject vector without using the background vector, and performing image blur correction,
前記算出するステップでは、被写体の領域を分割した複数のブロック毎に算出された前記被写体ベクトルを用いて、前記被写体ベクトルの最大値および前記被写体ベクトルの平均値が算出され、In the calculating step, the maximum value of the subject vector and the average value of the subject vector are calculated by using the subject vector calculated for each of a plurality of blocks into which the subject area is divided.
前記制御するステップでは、前記被写体ベクトルの最大値と前記被写体ベクトルの平均値との差に基づいて、最大露光時間が決定され、In the step of controlling, the maximum exposure time is determined based on the difference between the maximum value of the subject vector and the average value of the subject vector,
前記制御するステップでは、前記最大露光時間を超えないように前記露光時間が制御されることを特徴とする像ブレ補正装置の制御方法。In the controlling step, the exposure time is controlled so as not to exceed the maximum exposure time.
JP2016012906A 2016-01-26 2016-01-27 Image blur correction apparatus and method for controlling image blur correction apparatus Active JP6702737B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016012906A JP6702737B2 (en) 2016-01-27 2016-01-27 Image blur correction apparatus and method for controlling image blur correction apparatus
US15/414,732 US10205885B2 (en) 2016-01-26 2017-01-25 Image capturing apparatus for controlling shutter speed during panning shooting and method for controlling the same
US15/976,211 US10623652B2 (en) 2016-01-26 2018-05-10 Image capturing apparatus and method for image stabilization and control using motion vectors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016012906A JP6702737B2 (en) 2016-01-27 2016-01-27 Image blur correction apparatus and method for controlling image blur correction apparatus

Publications (3)

Publication Number Publication Date
JP2017134185A JP2017134185A (en) 2017-08-03
JP2017134185A5 JP2017134185A5 (en) 2019-02-28
JP6702737B2 true JP6702737B2 (en) 2020-06-03

Family

ID=59503723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016012906A Active JP6702737B2 (en) 2016-01-26 2016-01-27 Image blur correction apparatus and method for controlling image blur correction apparatus

Country Status (1)

Country Link
JP (1) JP6702737B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7443005B2 (en) * 2019-09-18 2024-03-05 キヤノン株式会社 Image processing device, imaging device and control method
US20230076396A1 (en) 2020-02-25 2023-03-09 Panasonic Intellectual Property Management Co., Ltd. Shutter speed determination device and imaging device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651384A (en) * 1990-12-07 1994-02-25 Olympus Optical Co Ltd Shaking prevention device for camera
JPH05122590A (en) * 1991-10-24 1993-05-18 Sanyo Electric Co Ltd Motion vector specifying circuit for video camera with blurring correcting function
US7509038B2 (en) * 2005-09-29 2009-03-24 Seiko Epson Corporation Determining maximum exposure time to limit motion blur during image capture
JP2013110754A (en) * 2013-01-17 2013-06-06 Casio Comput Co Ltd Camera device, and photographing method and program of the same
JP6282152B2 (en) * 2014-03-20 2018-02-21 キヤノン株式会社 Imaging apparatus and control method thereof
JP6338424B2 (en) * 2014-04-03 2018-06-06 キヤノン株式会社 Image processing apparatus, control method therefor, imaging apparatus, and program

Also Published As

Publication number Publication date
JP2017134185A (en) 2017-08-03

Similar Documents

Publication Publication Date Title
US10244170B2 (en) Image-shake correction apparatus and control method thereof
US20170214838A1 (en) Image capturing apparatus and method for controlling the same, image stabilization apparatus and method for controlling the same, and lens unit
US20110032414A1 (en) Image pickup device and control apparatus for the same
JP2016201626A (en) Shift element controller, shift element control program and optical apparatus
JP2018037772A (en) Imaging apparatus and control method of the same
CN106470317B (en) Image pickup apparatus and control method thereof
JP6276644B2 (en) Image blur correction apparatus, image blur correction method, program, and storage medium
CN108737698B (en) Image stabilization apparatus and method, image pickup apparatus, image pickup system, and storage medium
JP6401494B2 (en) Blur correction apparatus, blur correction method and program, and imaging apparatus
JP6702737B2 (en) Image blur correction apparatus and method for controlling image blur correction apparatus
JP2013110754A (en) Camera device, and photographing method and program of the same
JP2010193324A (en) Camera apparatus, photographing method thereof and program
JP2009302794A (en) Imaging apparatus
JP2017161649A (en) Image shake correction device and method of controlling image shake correction device, program, and storage medium
JP6105917B2 (en) Focus adjustment apparatus and method, and imaging apparatus
CN112995498B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6613149B2 (en) Image blur correction apparatus and control method therefor, imaging apparatus, program, and storage medium
JP6632458B2 (en) Imaging device and control method thereof
JP6833381B2 (en) Imaging equipment, control methods, programs, and storage media
JP6465553B2 (en) Imaging apparatus and control method thereof
JP6639151B2 (en) Imaging control device, imaging device, and imaging control program
JP6778014B2 (en) Imaging device and its control method, program, storage medium
JP6858022B2 (en) Focus detector, its control method and program, and imaging device
JP2017216599A (en) Imaging apparatus and control method therefor
JP6700931B2 (en) Image processing device, imaging device, and control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200507

R151 Written notification of patent or utility model registration

Ref document number: 6702737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151