JP7451152B2 - Imaging device, control method and computer program - Google Patents

Imaging device, control method and computer program Download PDF

Info

Publication number
JP7451152B2
JP7451152B2 JP2019213131A JP2019213131A JP7451152B2 JP 7451152 B2 JP7451152 B2 JP 7451152B2 JP 2019213131 A JP2019213131 A JP 2019213131A JP 2019213131 A JP2019213131 A JP 2019213131A JP 7451152 B2 JP7451152 B2 JP 7451152B2
Authority
JP
Japan
Prior art keywords
angular velocity
subject
still image
photographing
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019213131A
Other languages
Japanese (ja)
Other versions
JP2021085925A (en
Inventor
仁志 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019213131A priority Critical patent/JP7451152B2/en
Publication of JP2021085925A publication Critical patent/JP2021085925A/en
Application granted granted Critical
Publication of JP7451152B2 publication Critical patent/JP7451152B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は撮像装置及び制御方法等に関する。 The present invention relates to an imaging device, a control method, and the like.

カメラ(撮像装置)の撮影方法の一つに、移動している被写体に対してカメラの向きを追従させつつ、スローシャッタで撮影することで、主被写体を静止させながら背景を流すことで躍動感のある写真を撮影する流し撮りがある。しかし、被写体の動きに合わせてカメラの向きを正しく追従させながら撮影することは困難で、正しく追従できなかった場合には、主被写体が静止せずに被写体振れが生じる可能性が高い。 One method of shooting with a camera (imaging device) is to follow the direction of the camera to a moving subject and shoot with a slow shutter, which creates a sense of dynamism by keeping the main subject still while the background flows. There is a panning shot where you take a certain photo. However, it is difficult to accurately follow the direction of the camera in accordance with the movement of the subject while taking pictures, and if the camera cannot properly follow the movement of the subject, there is a high possibility that the main subject will not remain still and subject shake will occur.

そこで、流し撮りを簡単に撮影できるようにするため、様々な撮影アシスト機能が考えられる。第1のアシスト機能は、被写体振れを検出し光学補正系等で補正する機能である。第2のアシスト機能は、シャッタ速度を撮影シーンに応じてカメラが自動で設定する機能である。第3のアシスト機能は、カメラの撮影画角内の被写体の大きさをフレーム間で一定に保つためのズーム操作をカメラが自動で設定する機能である。 Therefore, various shooting assist functions can be considered to make it easier to take panning shots. The first assist function is a function that detects subject shake and corrects it using an optical correction system or the like. The second assist function is a function in which the camera automatically sets the shutter speed according to the shooting scene. The third assist function is a function in which the camera automatically sets a zoom operation to keep the size of the subject within the camera's shooting angle of view constant from frame to frame.

特許文献1は、等速直線運動をしている被写体を流し撮りするにあたり、被写体は等速であっても撮像装置から見ると角加速度変化を伴うため、被写体の角加速度を算出している。そして、静止画撮影用の露光前までの各動画フレームで算出した被写体角速度の履歴に基づいて静止画撮影用の露光中の被写体角速度を算出し、光学補正系を駆動させて被写体に係る像振れ(被写体振れ)を補正する撮像装置を開示している。 In Patent Document 1, when taking a panning shot of a subject that is moving at a constant velocity, the angular acceleration of the subject is calculated because even if the subject is at a constant velocity, the angular acceleration changes when viewed from the imaging device. Then, the subject angular velocity during exposure for still image shooting is calculated based on the history of the subject angular velocity calculated for each video frame before exposure for still image shooting, and the optical correction system is driven to correct image blur related to the subject. An imaging device that corrects (subject shake) is disclosed.

特開2018-54698号公報JP 2018-54698 Publication

即ち、特許文献1が開示する撮像装置は、被写体角速度の履歴を保持し、過去数フレームの動画フレームの被写体角速度の差分から被写体角加速度を算出し、被写体角加速度の符号変化に基づいて静止画撮影用の露光中の被写体角速度の算出方法を制御している。
しかしながら、静止画撮影用の露光期間中は動きベクトルが検出できないため、露光時間が長い場合には、被写体振れを正しく補正することができないという課題があった。
That is, the imaging device disclosed in Patent Document 1 maintains a history of the subject angular velocity, calculates the subject angular acceleration from the difference in subject angular velocity of the past several video frames, and calculates the subject angular acceleration based on the sign change of the subject angular acceleration. It controls the calculation method of the subject angular velocity during exposure for photography.
However, since motion vectors cannot be detected during the exposure period for still image photography, there is a problem in that subject shake cannot be corrected correctly when the exposure time is long.

そこで本発明の目的は、流し撮り撮影において良好に被写体に係る像振れを補正することが可能な撮像装置等を提供することにある。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an imaging apparatus and the like that can satisfactorily correct image blur related to a subject during panning photography.

本発明の撮像装置は、
撮像装置の振れを検出する第1の検出部と、
所定の静止画撮影前の異なるフレーム間で像の動きを検出する第2の検出部と、
第1の検出部と前記第2の検出部の検出結果から静止画露光期間前の被写体角速度を検出する被写体角速度検出部と、
前記静止画露光期間前の前記被写体角速度に基づいて前記静止画露光期間前の被写体角加速度の変曲点を判別するとともに、前記変曲点と前記静止画露光期間前の被写体角速度に基づいて前記静止画露光期間における被写体角速度を予測する被写体角速度予測部と、
前記被写体角速度予測部により予測された被写体角速度に基づき被写体の振れ補正をする振れ補正部と、を有し、
前記撮像装置の加速度が所定値以上の場合に、前記被写体角速度予測部による被写体角速度の予測をおこなわないことを特徴とする。
The imaging device of the present invention includes:
a first detection unit that detects shake of the imaging device;
a second detection unit that detects image movement between different frames before shooting a predetermined still image;
a subject angular velocity detection unit that detects the subject angular velocity before the still image exposure period from the detection results of the first detection unit and the second detection unit;
The inflection point of the object angular acceleration before the still image exposure period is determined based on the object angular velocity before the still image exposure period, and the inflection point of the object angular acceleration before the still image exposure period is determined. a subject angular velocity prediction unit that predicts a subject angular velocity during a still image exposure period;
a shake correction unit that corrects shake of the subject based on the subject angular velocity predicted by the subject angular velocity prediction unit;
The present invention is characterized in that the subject angular velocity prediction unit does not predict the subject angular velocity when the acceleration of the imaging device is equal to or greater than a predetermined value.

本発明によれば、流し撮り撮影において良好に被写体に係る像振れを補正することが可能な撮像装置を実現することができる。 According to the present invention, it is possible to realize an imaging device that can satisfactorily correct image blur related to a subject during panning photography.

本発明の実施例のカメラシステムのブロック図である。FIG. 1 is a block diagram of a camera system according to an embodiment of the present invention. 実施例における手振れ補正動作等に関する機能ブロック図である。FIG. 3 is a functional block diagram related to camera shake correction operation, etc. in the embodiment. 実施例における流し撮り制御の全体フローチャートである。2 is an overall flowchart of panning control in the embodiment. 実施例における被写体ベクトル群の検出を説明するためのヒストグラムを示す図である。FIG. 7 is a diagram showing a histogram for explaining detection of a subject vector group in an example. 実施例における被写体角速度と被写体角加速度の例を説明するための図である。FIG. 3 is a diagram for explaining an example of a subject angular velocity and a subject angular acceleration in an example. 実施例における露光期間中の被写体角速度推定のフローチャートである。7 is a flowchart of estimating a subject angular velocity during an exposure period in an embodiment. 実施例における同一撮影シーンの判定方法を説明するための図である。FIG. 3 is a diagram for explaining a method for determining the same photographic scene in an embodiment.

以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
図1を参照して、本実施例におけるカメラシステム(撮像装置)の構成について説明する。
図1は、実施例のカメラシステムのブロック図である。図1において、100は交換レンズ、130はカメラ本体である。交換レンズ100は、撮影レンズユニット101、位置検出部105、ズームエンコーダ106、角速度検出部111、レンズマイコン112、ドライバ113、アンプ回路(AMP)114、マウント接点部115を有する。
Hereinafter, preferred embodiments of the present invention will be described using examples with reference to the accompanying drawings. In addition, in each figure, the same reference numerals are attached to the same members or elements, and overlapping explanations are omitted or simplified.
Referring to FIG. 1, the configuration of a camera system (imaging device) in this embodiment will be described.
FIG. 1 is a block diagram of a camera system according to an embodiment. In FIG. 1, 100 is an interchangeable lens, and 130 is a camera body. The interchangeable lens 100 includes a photographic lens unit 101, a position detection section 105, a zoom encoder 106, an angular velocity detection section 111, a lens microcomputer 112, a driver 113, an amplifier circuit (AMP) 114, and a mount contact section 115.

撮影レンズユニット101は、撮像光学系102、ズームレンズ群(以下、ズームレンズと記述)103、シフトレンズ104を有する。撮像光学系102は、被写体光をズームレンズ103とシフトレンズ104を介して撮像素子132に導く。ズームレンズ103は、焦点距離を変更可能なレンズ群である。シフトレンズ104は、撮像装置に加わる振れにより生じる撮像画像の振れ(像振れ)を光学的に補正するために用いられる補正手段である。具体的には、レンズマイコン112が、ドライバ113を制御することでシフトレンズ104を光軸に垂直な方向に駆動することによって、像振れが補正される。 The photographing lens unit 101 includes an imaging optical system 102, a zoom lens group (hereinafter referred to as a zoom lens) 103, and a shift lens 104. The imaging optical system 102 guides subject light to the imaging element 132 via the zoom lens 103 and the shift lens 104. The zoom lens 103 is a lens group whose focal length can be changed. The shift lens 104 is a correction unit used to optically correct the shake of a captured image (image shake) caused by shake applied to the imaging device. Specifically, the lens microcomputer 112 controls the driver 113 to drive the shift lens 104 in a direction perpendicular to the optical axis, thereby correcting image blur.

ドライバ113はレンズを光軸に垂直な方向に移動させるレンズ駆動部として機能し、ドライバ113はレンズマイコン112、カメラマイコン141と共に振れ補正部として機能する。
位置検出部105は、シフトレンズ104の位置を検出する。位置検出部105は、例えばホール素子を含む。ズームエンコーダ106は、ズームレンズ103の位置を検出する。また、角速度検出部111は、撮像装置に加わる振れを検出し、角速度信号を振れ検出信号として出力する。角速度検出部111は、例えばジャイロセンサを含む。
The driver 113 functions as a lens driving section that moves the lens in a direction perpendicular to the optical axis, and the driver 113 functions as a shake correction section together with the lens microcomputer 112 and camera microcomputer 141.
The position detection unit 105 detects the position of the shift lens 104. The position detection unit 105 includes, for example, a Hall element. Zoom encoder 106 detects the position of zoom lens 103. Further, the angular velocity detection unit 111 detects shake applied to the imaging device and outputs an angular velocity signal as a shake detection signal. The angular velocity detection unit 111 includes, for example, a gyro sensor.

また、ドライバ113は、シフトレンズ104を駆動する。アンプ回路114は、位置検出部105が検出したシフトレンズの位置を示す信号(位置検出信号)を増幅してレンズマイコン112に出力する。マウント接点部115は、交換レンズ100とカメラ本体130との通信を中継する。 Further, the driver 113 drives the shift lens 104. The amplifier circuit 114 amplifies a signal (position detection signal) indicating the position of the shift lens detected by the position detection unit 105 and outputs the amplified signal to the lens microcomputer 112. The mount contact section 115 relays communication between the interchangeable lens 100 and the camera body 130.

また、レンズマイコン112は、交換レンズ100全体を制御する。レンズマイコン112は、手振れ補正制御部121と、流し撮り制御部122とを有する。手振れ補正制御部121は、手振れにより生じる像振れを補正する制御である手振れ補正制御を実行する。流し撮り制御部122は、流し撮りアシストの制御を実行する。流し撮りアシストの制御は、流し撮り時において、被写体の動きに対する撮像装置の撮影方向のズレに応じた被写体に係る像振れ(被写体振れ)を補正光学系で補正する制御である。 Further, the lens microcomputer 112 controls the entire interchangeable lens 100. The lens microcomputer 112 includes an image stabilization control section 121 and a panning control section 122. The camera shake correction control unit 121 executes camera shake correction control, which is control for correcting image shake caused by camera shake. The panning control unit 122 executes panning assist control. The panning assist control is a control in which, during panning, the correction optical system corrects image blur (subject shake) related to the subject depending on the deviation of the photographing direction of the imaging device with respect to the movement of the subject.

本実施例では、補正光学系としてシフトレンズ104を用いるが、補正光学系として撮像素子を光軸に垂直な面内でシフトさせるようにしてもよい。流し撮り制御部122は、被写体振れの補正に用いるシフトレンズ104の駆動量の算出に、カメラマイコン141が算出する被写体角速度を用いる。 In this embodiment, the shift lens 104 is used as the correction optical system, but the correction optical system may also be configured to shift the image sensor in a plane perpendicular to the optical axis. The panning control unit 122 uses the subject angular velocity calculated by the camera microcomputer 141 to calculate the drive amount of the shift lens 104 used for correcting subject shake.

レンズマイコン112は、手振れ補正制御と流し撮りアシストの制御の他に、フォーカスレンズ制御、絞り制御等も行うが、図の簡略化のために説明を省略する。また、手振れ補正制御の実行のためには、例えば縦方向と横方向といった、直交する2軸に関する振れの検出および補正が必要であるが、一方の軸に関する処理に必要な構成は、他方の軸に関する処理に必要な構成と同様である。したがって、以下では1軸に関する構成に関して説明する。 In addition to camera shake correction control and panning assist control, the lens microcomputer 112 also performs focus lens control, aperture control, etc., but a description thereof will be omitted to simplify the diagram. In addition, in order to perform image stabilization control, it is necessary to detect and correct shake regarding two orthogonal axes, such as the vertical and horizontal directions, but the configuration required for processing regarding one axis is The configuration is similar to that required for processing related to . Therefore, the configuration regarding one axis will be described below.

カメラ本体130は、シャッタ131、撮像素子132、アナログ信号処理回路(AFE)133、カメラ信号処理回路134を備える。シャッタ131は、撮像素子132が受光する光量を調節する。撮像素子132は、例えば、CMOSセンサ等であり、被写体光を光電変換して撮像画像に係る信号を出力する。CMOSは、Complementaly Metal Oxide Semiconductorの略称である。AFE133は、撮像素子132が出力したアナログ信号をデジタル信号に変換してカメラ信号処理回路134に出力する。カメラ信号処理回路134は、AFE133が出力した信号に対して所定の処理を実行する。 The camera body 130 includes a shutter 131, an image sensor 132, an analog signal processing circuit (AFE) 133, and a camera signal processing circuit 134. The shutter 131 adjusts the amount of light received by the image sensor 132. The image sensor 132 is, for example, a CMOS sensor or the like, and photoelectrically converts subject light and outputs a signal related to a captured image. CMOS is an abbreviation for complementary metal oxide semiconductor. The AFE 133 converts the analog signal output by the image sensor 132 into a digital signal and outputs the digital signal to the camera signal processing circuit 134. The camera signal processing circuit 134 performs predetermined processing on the signal output by the AFE 133.

カメラ信号処理回路134は、撮像された動画フレームから動きベクトルを検出する動きベクトル検出部145を備える。ここで、動きベクトル検出部145は、後述するように、所定の静止画撮影前の異なるフレーム間で像の動きを検出する第2の検出部として機能している。
また、カメラ本体130は、タイミングジェネレータ(TG)135、操作部136、メモリカード139、表示パネル(以下、LCDと記述)140を備える。LCD140は、Liquid Crystal Displayの略称である。
The camera signal processing circuit 134 includes a motion vector detection unit 145 that detects motion vectors from captured moving image frames. Here, the motion vector detection unit 145 functions as a second detection unit that detects the movement of an image between different frames before a predetermined still image is captured, as will be described later.
The camera body 130 also includes a timing generator (TG) 135, an operation section 136, a memory card 139, and a display panel (hereinafter referred to as LCD) 140. LCD140 is an abbreviation for Liquid Crystal Display.

TG135は、撮像素子132やアナログ信号処理回路133の動作タイミングを設定する。操作部136は、ユーザーの操作入力を受け付ける。
操作部136は、電源スイッチ、レリーズスイッチ等を有する。メモリカード139には、撮影された映像(撮像画像)が記録される。LCD140は、撮像画像を表示する。
また、カメラ本体130は、ドライバ137、シャッタ駆動用モータ138、角速度検出部171、距離検出部181、マウント接点部144、カメラマイコン141を備える。ドライバ137は、シャッタ駆動用モータ138を駆動する。
The TG 135 sets the operation timing of the image sensor 132 and the analog signal processing circuit 133. The operation unit 136 receives user operation input.
The operation unit 136 includes a power switch, a release switch, and the like. A captured video (captured image) is recorded on the memory card 139. LCD 140 displays the captured image.
The camera body 130 also includes a driver 137, a shutter drive motor 138, an angular velocity detection section 171, a distance detection section 181, a mount contact section 144, and a camera microcomputer 141. The driver 137 drives a shutter drive motor 138.

シャッタ駆動用モータ138は、シャッタ131を駆動する。角速度検出部171は角速度情報を取得するためのジャイロセンサ等を含み、角速度検出部111と共に、撮像装置の振れを検出する第1の検出部を構成している。撮像装置に加わる振れを検出して、角速度信号(振れ検出信号)をカメラマイコン141に出力する。距離検出部181は、被写体までの距離を検出する。マウント接点部144は、カメラ本体130と交換レンズ100との通信を中継する。 A shutter drive motor 138 drives the shutter 131. The angular velocity detection section 171 includes a gyro sensor and the like for acquiring angular velocity information, and together with the angular velocity detection section 111 constitutes a first detection section that detects shake of the imaging device. Shake applied to the imaging device is detected and an angular velocity signal (shake detection signal) is output to the camera microcomputer 141. The distance detection unit 181 detects the distance to the subject. The mount contact section 144 relays communication between the camera body 130 and the interchangeable lens 100.

カメラマイコン141は、カメラ本体130全体を制御する。例えば、カメラマイコン141は、カメラ信号処理回路134を制御することで撮像画像から取得される動きベクトルに基づいて、像振れ補正に用いられる被写体の角速度(被写体角速度)を算出する。また、カメラマイコン141は、交換レンズ100のレンズマイコン112との間で、各種の情報(例えば流し撮りアシストの制御に必要な被写体角速度の情報など)を通信する。 The camera microcomputer 141 controls the entire camera body 130. For example, the camera microcomputer 141 calculates the angular velocity of the subject (subject angular velocity) used for image blur correction based on the motion vector obtained from the captured image by controlling the camera signal processing circuit 134. Further, the camera microcomputer 141 communicates various information (for example, information on the subject angular velocity necessary for controlling panning assist) with the lens microcomputer 112 of the interchangeable lens 100.

カメラマイコン141は、シャッタ制御部151、被写体角速度算出部152、シャッタ速度算出部153、ズーム流し撮り制御部154を備える。なお、カメラマイコン141は、不図示のメモリに記憶されたコンピュータプログラムに基づき装置全体の各種動作を実行する制御手段として機能する。
シャッタ制御部151は、ドライバ137に指示して、シャッタ動作を制御する。被写体角速度算出部152は、上述した被写体角速度を算出する。被写体角速度算出部152は、算出した被写体角速度をレンズマイコン112に対して送信する。
The camera microcomputer 141 includes a shutter control section 151, a subject angular velocity calculation section 152, a shutter speed calculation section 153, and a zoom panning control section 154. Note that the camera microcomputer 141 functions as a control unit that executes various operations of the entire device based on a computer program stored in a memory (not shown).
The shutter control unit 151 instructs the driver 137 to control shutter operation. The subject angular velocity calculation unit 152 calculates the subject angular velocity described above. The subject angular velocity calculation unit 152 transmits the calculated subject angular velocity to the lens microcomputer 112.

具体的には、動きベクトル検出部145によって、画像の動き量が動きベクトルとして検出されるので、被写体角速度算出部152は、検出された動きベクトルから被写体に対応するベクトル(被写体ベクトル)を検出する。そして、被写体角速度算出部152は、検出された被写体ベクトルに基づいて、被写体角速度を算出する。カメラマイコン141は、算出された被写体角速度をレンズマイコン112に対して送信する。シャッタ速度算出部153は、流し撮りに適したシャッタ速度を算出する。ズーム流し撮り制御部154は、フレーム毎に撮影画角に写る被写体を一定の大きさで写すようにズーム位置を制御する。 Specifically, since the amount of motion of the image is detected as a motion vector by the motion vector detection unit 145, the subject angular velocity calculation unit 152 detects a vector corresponding to the subject (subject vector) from the detected motion vector. . Then, the subject angular velocity calculation unit 152 calculates the subject angular velocity based on the detected subject vector. The camera microcomputer 141 transmits the calculated subject angular velocity to the lens microcomputer 112. The shutter speed calculation unit 153 calculates a shutter speed suitable for panning shots. The zoom panning control unit 154 controls the zoom position so that the subject photographed at the photographing angle of view is photographed at a constant size for each frame.

以上の説明のように、本実施例の撮像装置は、補正手段を光軸と直交する方向に駆動して像振れ補正を行う像振れ補正装置を備えている。そして、カメラマイコン141とレンズマイコン112とが、撮像画像から得られる被写体角速度に基づいて、シフトレンズ104を駆動することにより、流し撮り時の被写体に係る像振れを補正する制御部として機能する。制御部は、撮影シーンを含む被写体情報に基づいて、撮影シーンに応じた被写体振れの補正位置を決定し、被写体振れの補正位置に基づき算出される被写体角速度に基づいて、シフトレンズ104を駆動する。 As described above, the imaging apparatus of this embodiment includes an image blur correction device that corrects image blur by driving the correction means in a direction perpendicular to the optical axis. The camera microcomputer 141 and the lens microcomputer 112 function as a control unit that corrects image blur related to the subject during panning by driving the shift lens 104 based on the subject angular velocity obtained from the captured image. The control unit determines a subject shake correction position according to the shooting scene based on the subject information including the shooting scene, and drives the shift lens 104 based on the subject angular velocity calculated based on the subject shake correction position. .

図1において、操作部136によりカメラ本体130の電源がONされると、電源がONとなったことをカメラマイコン141が検出し、カメラマイコン141の制御によりカメラ本体130の各回路への電源供給および初期設定が行われる。また、交換レンズ100への電源供給が行われ、レンズマイコン112の制御により、交換レンズ100内の初期設定が行われる。そして、レンズマイコン112とカメラマイコン141との間で所定のタイミングで通信が開始される。この通信で、カメラ本体130から交換レンズ100へ送られる通信データは、例えば、カメラの状態、撮影設定等である。また、交換レンズ100からカメラ本体130へ送られる通信データは、例えば、レンズの焦点距離情報、角速度情報等である。 In FIG. 1, when the power of the camera body 130 is turned on by the operation unit 136, the camera microcomputer 141 detects that the power is turned on, and supplies power to each circuit of the camera body 130 under the control of the camera microcomputer 141. and initial settings are performed. Further, power is supplied to the interchangeable lens 100, and initial settings within the interchangeable lens 100 are performed under the control of the lens microcomputer 112. Communication is then started between the lens microcomputer 112 and the camera microcomputer 141 at a predetermined timing. In this communication, the communication data sent from the camera body 130 to the interchangeable lens 100 includes, for example, the status of the camera, shooting settings, and the like. Furthermore, the communication data sent from the interchangeable lens 100 to the camera body 130 includes, for example, lens focal length information, angular velocity information, and the like.

次に手振れ補正動作に関して説明する。
図2は手振れ補正動作等に関する機能ブロック図を示しており、交換レンズ100内では、角速度検出部111が手振れ等によって撮像装置に加わる振れを検出し、手振れ補正制御部121によって、手振れ補正制御が行われる。図2の説明において、図1と共通の構成については、同じ符号を付し説明を省略する。
Next, the camera shake correction operation will be explained.
FIG. 2 shows a functional block diagram related to image stabilization operations, etc. In the interchangeable lens 100, an angular velocity detection unit 111 detects shakes applied to the imaging device due to camera shake, etc., and an image stabilization control unit 121 performs image stabilization control. It will be done. In the description of FIG. 2, the same components as those in FIG. 1 are given the same reference numerals and the description thereof will be omitted.

図2において手振れ補正制御部121は、オフセット除去部201~パルス幅変調部208を備える。オフセット除去部201は、例えばハイパスフィルタ(以下、HPF)等を有するフィルタ演算部であり、角速度検出部111の出力に含まれている直流成分の除去を行う。利得位相算出部202は、オフセット除去部201によってオフセット成分が除去された角速度信号に対して増幅および位相補償を行う。また、利得位相算出部202は、角速度信号を所定のゲインで増幅する増幅器と、角速度信号に対して位相補償を行う位相補償フィルタを備える。 In FIG. 2, the camera shake correction control section 121 includes an offset removal section 201 to a pulse width modulation section 208. The offset removal unit 201 is a filter calculation unit including, for example, a high-pass filter (hereinafter referred to as HPF), and removes a DC component included in the output of the angular velocity detection unit 111. Gain-phase calculation section 202 performs amplification and phase compensation on the angular velocity signal from which the offset component has been removed by offset removal section 201. Further, the gain phase calculation section 202 includes an amplifier that amplifies the angular velocity signal with a predetermined gain, and a phase compensation filter that performs phase compensation on the angular velocity signal.

積分器203は、任意の周波数帯域でその特性を変更し得る機能を有しており、利得位相算出部202の出力を積分し、シフトレンズ104の駆動量を算出する。積分器203は、角速度検出部111の角速度が一定値以上の大きさで所定時間経過した場合は、パンニング中と判定し、オフセット除去部201のHPFのカットオフ周波数を高周波側に徐々に変更する。積分器203が、カットオフ周波数を高周波側へ徐々に変更することで、手振れ補正制御の目標信号が徐々に小さくなり、補正光学系(シフトレンズ)を光学中心位置に戻す。 The integrator 203 has a function of changing its characteristics in an arbitrary frequency band, integrates the output of the gain phase calculation section 202, and calculates the amount of drive of the shift lens 104. The integrator 203 determines that panning is in progress when the angular velocity of the angular velocity detection unit 111 is greater than or equal to a certain value for a predetermined period of time, and gradually changes the cutoff frequency of the HPF of the offset removal unit 201 to a higher frequency side. . The integrator 203 gradually changes the cutoff frequency toward a higher frequency, so that the target signal for camera shake correction control gradually becomes smaller, and the correction optical system (shift lens) returns to the optical center position.

パンニング中と判定されるほどの大きな角速度を、カットオフ周波数を高周波側へ変更せずに補正光学系で補正してしまうと、補正光学系は補正限界点に達してしまい、撮影者に不自然な画角変化が見えてしまうからである。
防振制御判定部204は、積分器203と後述の積分器225の各出力を取得し、カメラ情報取得部226の出力に応じてシフトレンズ104を駆動させるための信号を、以下のように切り替える。
If the correction optical system corrects an angular velocity so large that it is determined to be panning, without changing the cutoff frequency to a higher frequency side, the correction optical system will reach its correction limit, causing an unnatural image to the photographer. This is because you can see a change in the angle of view.
The anti-shake control determination unit 204 acquires each output of the integrator 203 and an integrator 225 (described later), and switches the signal for driving the shift lens 104 according to the output of the camera information acquisition unit 226 as follows. .

(1)撮影モードが流し撮りモードに設定されている場合
防振制御判定部204は、流し撮り制御部122で算出された積分器225の出力を選択し、後述のように被写体角速度予測部により被写体角速度を予測して流し撮り用の防振制御を行う。
(2)撮影モードが流し撮りモードに設定されていない場合
防振制御判定部204は、手振れ補正制御部121で算出された積分器203の出力を選択し、被写体角速度予測部による被写体角速度の予測をおこなわずに防振制御を行う。
(1) When the shooting mode is set to panning mode The anti-shake control determination unit 204 selects the output of the integrator 225 calculated by the panning control unit 122, and uses the object angular velocity prediction unit as described below. Anti-shake control for panning shots is performed by predicting the angular velocity of the subject.
(2) When the shooting mode is not set to panning mode The anti-shake control determination unit 204 selects the output of the integrator 203 calculated by the image stabilization control unit 121, and predicts the subject angular velocity by the subject angular velocity prediction unit. Perform anti-vibration control without performing

位置検出部105は、シフトレンズ104の位置を検出し位置検出信号を出力し、アンプ回路114は位置検出信号を増幅する。A(アナログ)/D(デジタル)変換器206は、アンプ回路114が増幅した位置検出信号をデジタル化して減算器205に出力する。減算器205は、防振制御判定部204の出力を正入力とし、A/D変換器206の出力を負入力として減算を行い、減算結果である偏差データを制御器207へ出力する。制御器207は、減算器205の出力する偏差データに対し、所定のゲインで増幅する増幅器、および位相補償フィルタを備える。偏差データは、制御器207において増幅器および位相補償フィルタによって処理された後、パルス幅変調部208に出力される。 The position detection unit 105 detects the position of the shift lens 104 and outputs a position detection signal, and the amplifier circuit 114 amplifies the position detection signal. The A (analog)/D (digital) converter 206 digitizes the position detection signal amplified by the amplifier circuit 114 and outputs it to the subtracter 205 . The subtracter 205 uses the output of the anti-vibration control determination unit 204 as a positive input, uses the output of the A/D converter 206 as a negative input, performs subtraction, and outputs deviation data as a result of the subtraction to the controller 207. The controller 207 includes an amplifier that amplifies the deviation data output from the subtracter 205 by a predetermined gain, and a phase compensation filter. The deviation data is processed by an amplifier and a phase compensation filter in controller 207 and then output to pulse width modulation section 208 .

パルス幅変調部208は、制御器207の出力データを取得し、パルス波のデューティー比を変化させる波形(即ちPWM波形)に変調して、シフトレンズ駆動用のドライバ113へ出力する。
シフトレンズ104の駆動にはボイスコイル型モータが使用され、ドライバ113は、パルス幅変調部208の出力にしたがって、シフトレンズ104を撮像光学系の光軸と垂直な方向に移動させる。これによって、前記偏差データがゼロ(手振れゼロ)になるように手振れ補正制御が行われる。
The pulse width modulation unit 208 acquires the output data of the controller 207, modulates it into a waveform that changes the duty ratio of the pulse wave (ie, PWM waveform), and outputs it to the driver 113 for driving the shift lens.
A voice coil motor is used to drive the shift lens 104, and the driver 113 moves the shift lens 104 in a direction perpendicular to the optical axis of the imaging optical system according to the output of the pulse width modulation section 208. As a result, camera shake correction control is performed so that the deviation data becomes zero (zero camera shake).

次に、流し撮りモードにおける制御について説明する。
図1および図2を参照して、流し撮り制御部122について説明する。ユーザーが操作部136により、流し撮りモードに設定する操作を行うと、カメラマイコン141は流し撮りモードの制御に切り替える。
また、その切り替えを示す情報がカメラマイコン141からレンズマイコン112へと送信され、レンズマイコン112が、流し撮りモード用の制御に切り替わる。カメラ情報取得部226(図2)は、マウント接点部115、通信制御部211を介してカメラマイコン141から送信されてくる各種のカメラ情報を取得する。
Next, control in panning mode will be explained.
The panning control section 122 will be described with reference to FIGS. 1 and 2. When the user performs an operation to set the panning mode using the operation unit 136, the camera microcomputer 141 switches to controlling the panning mode.
Further, information indicating the switching is transmitted from the camera microcomputer 141 to the lens microcomputer 112, and the lens microcomputer 112 switches to control for the panning mode. The camera information acquisition unit 226 (FIG. 2) acquires various types of camera information transmitted from the camera microcomputer 141 via the mount contact unit 115 and the communication control unit 211.

カメラ情報は、流し撮りモードの設定情報やレリーズ情報等を含む。
カメラ情報取得部226は、防振制御判定部204に対し、判定処理に必要な情報を選択するための制御信号を出力する。即ち、流し撮りモードに設定されている場合には、防振制御判定部204は、流し撮り制御部122で算出された積分器225の出力を選択する。また、流し撮りモード以外に設定されている場合には、防振制御判定部204は、手振れ補正制御部121で算出された積分器203の出力を選択する。
The camera information includes panning mode setting information, release information, and the like.
The camera information acquisition unit 226 outputs a control signal to the image stabilization control determination unit 204 for selecting information necessary for determination processing. That is, when the panning mode is set, the image stabilization control determination section 204 selects the output of the integrator 225 calculated by the panning control section 122. Furthermore, when the mode is set to a mode other than panning mode, the image stabilization control determination section 204 selects the output of the integrator 203 calculated by the image stabilization control section 121.

角速度出力部222は、オフセット除去部201の出力、つまりオフセット成分が除去された角速度信号を取得する。角速度出力部222は、通信制御部211とマウント接点部115を介して、カメラマイコン141へ角速度信号を送信する。被写体角速度取得部223は、カメラ本体部131内の被写体角速度算出部152で算出される被写体角速度を、マウント接点部144、115、通信制御部211を介して取得する。そして、被写体角速度取得部223は、取得した被写体角速度に基づいて、被写体振れを補正する際の、シフトレンズ104の駆動量の算出に用いられる被写体角速度を出力する。 The angular velocity output unit 222 acquires the output of the offset removal unit 201, that is, the angular velocity signal from which the offset component has been removed. The angular velocity output section 222 transmits an angular velocity signal to the camera microcomputer 141 via the communication control section 211 and the mount contact section 115. The subject angular velocity acquisition section 223 obtains the subject angular velocity calculated by the subject angular velocity calculation section 152 in the camera body section 131 via the mount contact sections 144 and 115 and the communication control section 211. Then, the subject angular velocity acquisition unit 223 outputs the subject angular velocity used to calculate the drive amount of the shift lens 104 when correcting subject shake, based on the acquired subject angular velocity.

減算器224は、オフセット除去部201の出力を正入力とし、被写体角速度取得部223の出力を負入力として、減算を行う。被写体角速度取得部223が出力する被写体角速度を、オフセット成分が除去された角速度信号が示す角速度から減算することで、偏差が算出される。減算器224は偏差を積分器225に出力する。積分器225は偏差を積分し、積分演算の結果を防振制御判定部204に出力する。
次に、被写体振れ補正の制御方法について図3の流し撮りモードにおけるカメラマイコン141による制御の全体フローチャートを用いて説明する。
The subtracter 224 uses the output of the offset removal section 201 as a positive input and the output of the subject angular velocity acquisition section 223 as a negative input, and performs subtraction. The deviation is calculated by subtracting the subject angular velocity output by the subject angular velocity acquisition unit 223 from the angular velocity indicated by the angular velocity signal from which the offset component has been removed. Subtractor 224 outputs the deviation to integrator 225. The integrator 225 integrates the deviation and outputs the result of the integral calculation to the anti-vibration control determining section 204.
Next, a control method for subject shake correction will be described using the overall flowchart of control by the camera microcomputer 141 in the panning mode shown in FIG.

図3中のSは、流し撮りモードにおけるフローチャートでの各処理工程を示すステップ番号である。なお、流し撮りモードにおいては、静止画撮影のための露光を複数回行うとともに、各静止画撮影のための露光前に少なくとも3フレーム以上の動画を取得するように撮像素子を動作させる。
S301において、カメラマイコン141が、交換レンズ100内のシフトレンズ104の位置情報を取得する。
S in FIG. 3 is a step number indicating each processing step in the flowchart in panning mode. In the panning mode, exposure for still image shooting is performed a plurality of times, and the image sensor is operated to acquire at least three or more frames of moving images before each exposure for still image shooting.
In S301, the camera microcomputer 141 acquires position information of the shift lens 104 within the interchangeable lens 100.

これは式1で示すように、動きベクトル検出部145が検出する動きベクトル値δvが、撮像装置の角速度を撮像面上の変位量δgへ換算した値とシフトレンズ104の駆動量を撮像面上の変位量δoに換算した値を加算したものであるからである。
δv=δg+δo・・・(式1)
This means that, as shown in Equation 1, the motion vector value δv detected by the motion vector detection unit 145 is a value obtained by converting the angular velocity of the imaging device into the displacement amount δg on the imaging surface and the drive amount of the shift lens 104 on the imaging surface. This is because the value obtained by adding the value converted to the displacement amount δo.
δv=δg+δo...(Formula 1)

次に、S302において、カメラマイコン141が、交換レンズ100内の角速度検出部111とカメラ本体130内の角速度検出部171が出力する角速度信号を取得し例えば両者の平均値を撮像装置の角速度として扱う。カメラマイコン141は、焦点距離[mm]、フレームレート[frame/sec]、画素ピッチ[um/pixel]を用いて、撮像装置の角速度信号が示す角速度[deg/sec]を撮像面上の動画フレーム間の変位量δg[pixel/frame]に換算する。 Next, in S302, the camera microcomputer 141 acquires the angular velocity signals output by the angular velocity detection unit 111 in the interchangeable lens 100 and the angular velocity detection unit 171 in the camera body 130, and treats, for example, the average value of both as the angular velocity of the imaging device. . The camera microcomputer 141 uses the focal length [mm], the frame rate [frame/sec], and the pixel pitch [um/pixel] to convert the angular velocity [deg/sec] indicated by the angular velocity signal of the imaging device into a video frame on the imaging surface. It is converted into the displacement amount δg [pixel/frame] between.

次に、S303において、動きベクトル検出部145が、複数の動画フレーム間における画像の動き量を示す動きベクトルδvを検出する。この場合、動きベクトル検出部145は、静止画撮影前の異なるフレーム間で像の動きを検出する第2の検出部として機能している。このようにδgとδvを求めることによって式1に基づきシフトレンズ104の駆動量を撮像面上の変位量δoが算出でき、シフトレンズ104の駆動量を決定できる。
続いて、S304において、カメラマイコン141が、S301~S303までに取得した情報に基づいて、動きベクトルに関して図4のようなヒストグラムを算出する。ヒストグラムの詳細は後述する。
Next, in S303, the motion vector detection unit 145 detects a motion vector δv indicating the amount of image movement between multiple video frames. In this case, the motion vector detection unit 145 functions as a second detection unit that detects image movement between different frames before still image shooting. By determining δg and δv in this manner, the displacement amount δo of the shift lens 104 on the imaging plane can be calculated based on Equation 1, and the driving amount of the shift lens 104 can be determined.
Next, in S304, the camera microcomputer 141 calculates a histogram as shown in FIG. 4 regarding the motion vectors based on the information acquired in S301 to S303. Details of the histogram will be described later.

S305において、S304で算出したヒストグラムに基づいて被写体ベクトル群が検出可能か判定を行う。被写体ベクトル群の検出が可能である場合はS306に進む。被写体ベクトル群が検出できなかった場合はS301に戻り、次のフレームについてS301~S304の制御を行う。
図4は、被写体ベクトル群の検出を説明するためのヒストグラムを示す図である。
In S305, it is determined whether the subject vector group can be detected based on the histogram calculated in S304. If the object vector group can be detected, the process advances to S306. If the subject vector group cannot be detected, the process returns to S301, and the controls in S301 to S304 are performed for the next frame.
FIG. 4 is a diagram showing a histogram for explaining detection of a group of subject vectors.

図4に示すヒストグラムは、図3のS304で算出されるヒストグラムの一例である。横軸は、ベクトル値を示す。縦軸は、度数を示す。
動きベクトル検出部145は撮像画面内の所定の複数の位置に配置した各ブロックにおいて動画の1フレーム前との動き量をベクトル値として検出する。しかし動きベクトル検出部145の出力だけは、各ブロックのベクトル値が被写体ベクトルなのか背景ベクトルなのかは判断できない。
The histogram shown in FIG. 4 is an example of the histogram calculated in S304 of FIG. 3. The horizontal axis shows vector values. The vertical axis shows the frequency.
The motion vector detection unit 145 detects, as a vector value, the amount of motion in each block arranged at a plurality of predetermined positions within the image capture screen from one frame before the moving image. However, it cannot be determined from the output of the motion vector detection unit 145 whether the vector value of each block is an object vector or a background vector.

そこで、撮像面上の変位量δgに換算した、撮像装置の角速度情報のベクトル値401を起点に、その起点の周囲の所定のベクトル値範囲(背景範囲)402内に存在する動きベクトルは背景ベクトル群403であると判定する。ここで、背景ベクトル群403はカメラシステムの手振れによる動きベクトルに相当するものとみなすことができる。そして、背景範囲402外に存在する動きベクトルであって、度数が所定の閾値404を超えているベクトルを被写体ベクトル群405であると判定する。 Therefore, starting from the vector value 401 of the angular velocity information of the imaging device converted into the amount of displacement δg on the imaging plane, motion vectors existing within a predetermined vector value range (background range) 402 around the starting point are background vectors. It is determined that it is group 403. Here, the background vector group 403 can be considered to correspond to motion vectors due to camera shake of the camera system. Then, motion vectors that exist outside the background range 402 and whose frequency exceeds a predetermined threshold value 404 are determined to be a subject vector group 405 .

ここで被写体ベクトル群405は被写体自身の動きベクトルに対応するものと考えられる。
尚、背景範囲402の幅はレンズの焦点距離や動きベクトル検出部145の検出精度に応じて可変しても良い。更に、被写体ベクトル群の検出判定方法を行うにあたり、上記のように角速度情報を用いなくても良い。そして代わりに、オートフォーカスのデフォーカス量(やコントラスト値)に基づいて、主合焦枠のデフォーカス量(やコントラスト値)を起点に所定の焦点深度範囲内に存在するベクトルを被写体ベクトル群と判定してもよい。また、所定の焦点深度範囲外に存在するベクトルを背景ベクトル群と判定してもよい。また、デフォーカス量(やコントラスト値)と角速度情報を併用して被写体ベクトル群と背景ベクトル群の判定を行っても良い。
Here, the subject vector group 405 is considered to correspond to the motion vector of the subject itself.
Note that the width of the background range 402 may be varied depending on the focal length of the lens and the detection accuracy of the motion vector detection unit 145. Furthermore, in carrying out the method of detecting and determining a group of subject vectors, it is not necessary to use angular velocity information as described above. Instead, based on the defocus amount (and contrast value) of the autofocus, vectors that exist within a predetermined depth of focus range starting from the defocus amount (or contrast value) of the main focusing frame are grouped into a group of subject vectors. You may judge. Further, vectors existing outside a predetermined depth of focus range may be determined to be a background vector group. Further, the object vector group and the background vector group may be determined using the defocus amount (or contrast value) and angular velocity information in combination.

図3の説明に戻る。S306において、S305で検出した被写体ベクトル群405の中から最終的に制御で使う被写体ベクトルを選択する。その理由は、被写体の位置によってベクトル値は変わる場合があるからである。例えば、直線運動をしている電車を流し撮りする場合、電車の車輛前方と車輛後方でベクトル値は異なる。カメラの向ける方向を全く変えず(つまりカメラを回さず)に、カメラと被写体を同じ速度で一緒に平行に動かせば、被写体の前方も後方も同等のベクトル値になる。 Returning to the explanation of FIG. 3. In S306, a subject vector to be used for final control is selected from the subject vector group 405 detected in S305. The reason is that the vector value may change depending on the position of the subject. For example, when taking a panning shot of a train moving in a straight line, the vector values are different between the front of the train and the rear of the train. If you move the camera and the subject parallel to each other at the same speed without changing the direction in which the camera is pointing (in other words, without rotating the camera), the vector values will be the same both in front and behind the subject.

しかし、実際のカメラの動かし方は、カメラを被写体に対して平行に移動させるのではなく、角度変化を伴ってカメラを振るので、カメラから被写体を見たときに被写体の前方と後方のベクトルが異なるためである。
これは、焦点距離が広角になる程、また、撮影距離が近くなる程、その影響が顕著に現れる。逆に、撮影距離が無限遠に近い場合は、被写体と並走しながら撮影するのと同様になるので、防振制御によって被写体全体を止めやすくなる。
However, the way the camera is actually moved is not to move the camera parallel to the subject, but to shake the camera while changing the angle, so when looking at the subject from the camera, the vectors in front and behind the subject are This is because they are different.
This effect becomes more pronounced as the focal length becomes wider and as the shooting distance becomes shorter. On the other hand, if the photographing distance is close to infinity, it will be the same as photographing while running parallel to the subject, so it will be easier to stop the entire subject using image stabilization control.

以上のように、S306では焦点距離が広角の場合、また、撮影距離が近い場合には、被写体ベクトル群405の中から最終的に制御で使う被写体ベクトルを選択する。撮影距離が無限遠に近い場合は例えば被写体ベクトルの平均値を選択する。
被写体ベクトルの選択方法としては、フォーカスの設定が1点AF(オートフォーカス)で、撮影者は被写体の狙いたい位置へフォーカス枠を合わせ続けていれば、1点AFの枠近傍に存在する被写体ベクトルを選択すればよい。
As described above, in S306, when the focal length is wide-angle or when the photographing distance is short, the subject vector to be finally used for control is selected from the subject vector group 405. If the photographing distance is close to infinity, for example, the average value of the subject vectors is selected.
To select a subject vector, if the focus setting is 1-point AF (autofocus) and the photographer continues to adjust the focus frame to the desired position of the subject, the subject vector existing near the 1-point AF frame will be selected. All you have to do is select.

また、フォーカスの設定が顔認識追従AFであれば、被写体の顔などの、被写体検出位置近傍の被写体ベクトルを選択すればよい。
そして、最終的に選択した被写体ベクトルを、角速度を撮像面上の移動量に換算した逆手法で逆算し被写体角速度を算出する。
Furthermore, if the focus setting is face recognition tracking AF, a subject vector near the subject detection position, such as the subject's face, may be selected.
Then, the finally selected subject vector is back-calculated using an inverse method in which the angular velocity is converted into the amount of movement on the imaging plane to calculate the subject angular velocity.

このS306において、カメラマイコン141は、第1の検出部と第2の検出部の検出結果から静止画露光期間前の被写体角速度を検出する被写体角速度検出部として機能している。
次にS307において、S306で算出した被写体角速度の、隣接する動画フレーム間の差分を演算することによって被写体角加速度を算出する。
S308において、S307で算出した被写体角加速度のデータ履歴を所定フレーム数メモリに保持する。このとき被写体角加速度の代わりに被写体角速度のデータ履歴を保存しても良い。
In S306, the camera microcomputer 141 functions as a subject angular velocity detection unit that detects the subject angular velocity before the still image exposure period from the detection results of the first detection unit and the second detection unit.
Next, in S307, the subject angular acceleration is calculated by calculating the difference between the subject angular velocities calculated in S306 between adjacent video frames.
In S308, the data history of the subject angular acceleration calculated in S307 is held in the memory for a predetermined number of frames. At this time, a data history of the subject angular velocity may be saved instead of the subject angular acceleration.

そして保存された被写体角速度のデータ履歴に基づき被写体角加速度を算出するようにしても良い。このように、S308において、カメラマイコン141は、静止画露光期間前の被写体角速度に関する情報(被写体角速度または被写体角加速度)の履歴を保存する保存部として機能する。
次にS309において、撮影者によってシャッタレリーズ釦が押下されたか否か、即ち静止画撮影用の露光開始指示が出されたか否かについて判定を行う。以降、露光とは静止画撮影用の露光を指すものとする。露光開始の指示が出されればS310に進む。露光開始の指示が出されなければ、S301に進み次のフレームの制御についてS301~S309を繰り返す。
Then, the subject angular acceleration may be calculated based on the stored data history of the subject angular velocity. Thus, in S308, the camera microcomputer 141 functions as a storage unit that stores the history of information regarding the subject angular velocity (subject angular velocity or subject angular acceleration) before the still image exposure period.
Next, in S309, it is determined whether the shutter release button has been pressed by the photographer, that is, whether an instruction to start exposure for photographing a still image has been issued. Hereinafter, exposure refers to exposure for still image photography. If an instruction to start exposure is issued, the process advances to S310. If no instruction to start exposure is issued, the process advances to S301 and repeats S301 to S309 for controlling the next frame.

S310において、S306とS307で算出した露光前の被写体角速度と被写体角加速度及びS308で保持された情報に基づいて、露光期間中における被写体角速度の推定を行う。この推定を行うのは、図1に示すカメラシステムでは露光期間中には、動きベクトル検出部145に撮像素子132からの映像信号が入力できないためである。従って、露光前の各動画フレームにおいて算出した被写体角速度と被写体角加速度から露光期間中の被写体角速度を推定する。 In S310, the subject angular velocity during the exposure period is estimated based on the subject angular velocity and subject angular acceleration before exposure calculated in S306 and S307 and the information held in S308. This estimation is performed because, in the camera system shown in FIG. 1, a video signal from the image sensor 132 cannot be input to the motion vector detection unit 145 during the exposure period. Therefore, the subject angular velocity during the exposure period is estimated from the subject angular velocity and subject angular acceleration calculated in each video frame before exposure.

ここで、露光期間中の被写体角速度を推定する方法について図5と図6を用いて説明する。図5(A)は直線運動している被写体を流し撮りしているシーンの例を表している。図5(B)は、被写体が撮影者の真正面を原点とした場合の、被写体と撮影者の成す角度θに基づく被写体角速度ωと被写体角加速度αを示したグラフである。図5(B)に示されるように、被写体が等速で移動していたとしても、カメラは角度を伴って回転させつつ振っている(被写体に対して平行移動しているわけではない)。従って、カメラから見ると被写体の角速度は加速または減速しており、それに合わせて流し撮りすることになる。 Here, a method for estimating the subject angular velocity during the exposure period will be explained using FIGS. 5 and 6. FIG. 5A shows an example of a scene in which a panning shot of an object moving in a straight line is taken. FIG. 5B is a graph showing the subject angular velocity ω and the subject angular acceleration α based on the angle θ formed between the subject and the photographer when the subject is set directly in front of the photographer. As shown in FIG. 5B, even if the subject is moving at a constant speed, the camera is swinging while rotating at an angle (it is not moving parallel to the subject). Therefore, when viewed from the camera, the angular velocity of the subject is accelerating or decelerating, and panning shots are taken accordingly.

図5(B)の縦破線は各動画フレームの境界を示しており、縦破線の間隔501は動画フレーム間隔(例えば60[frame/sec])を表す。前述のように、流し撮りモードにおいては、静止画撮影のための露光を複数回行う(連写する)とともに、各静止画撮影のための露光前に少なくとも3フレーム以上の動画フレームを取得するように撮像素子を動作させる。1回目の露光502が、被写体との成す角度θ=―40[deg]で行われ、露光、現像、その後、動画撮影への復帰、と順次カメラ処理が行われる。なお、本実施例では、静止画用の露光の合間の動画フレームはライブビュー表示にも用いる。 The vertical broken lines in FIG. 5(B) indicate the boundaries of each video frame, and the interval 501 between the vertical broken lines represents the video frame interval (for example, 60 [frame/sec]). As mentioned above, in panning mode, exposure for still images is performed multiple times (continuous shooting), and at least three video frames are acquired before each exposure for still images. The image sensor is operated. A first exposure 502 is performed at an angle θ=−40 [deg] with the subject, and camera processing is performed in sequence, including exposure, development, and then return to video shooting. Note that in this embodiment, video frames between exposures for still images are also used for live view display.

1回目の露光(斜線部の期間)502の直前の、動画フレーム503の次の動画フレームは例えば504となる。図5(A)で示すようなシーンの流し撮りでは、背景が流れるように、そして撮像面上で一定の動き量となるようにするため、露光時間を比較的長くする。従って撮影タイミングと露光時間によっては例えば図5(B)の2回目の露光期間505が、被写体角加速度が最初に変曲点(ゼロを通過する点)を迎える期間と重なる。そして、被写体角加速度が変曲点を迎えてこれから加速または減速していくかについての判定が困難となる。 The next moving image frame after the moving image frame 503 immediately before the first exposure (shaded period) 502 is, for example, 504. When panning a scene as shown in FIG. 5A, the exposure time is relatively long in order to make the background flow and move at a constant amount on the imaging plane. Therefore, depending on the photographing timing and exposure time, for example, the second exposure period 505 in FIG. 5(B) overlaps with the period in which the subject angular acceleration first reaches an inflection point (the point where it passes through zero). Then, once the subject angular acceleration reaches an inflection point, it becomes difficult to determine whether it will accelerate or decelerate from now on.

そこで、本実施例では、図6のフローチャートに示すような方法で露光期間中の被写体角速度の推定を行う。図6は、図3のS310における、露光中の被写体角速度の推定処理のためのフローチャートでありカメラマイコン141により実行される。
S601において、流し撮りモードにおいては、静止画撮影のための露光を複数回行う(連写する)ので、現在の静止画撮影用の露光フレームが直前の静止画撮影用の露光フレームと同じ撮影シーンであるかの判定を行う。同一撮影シーンであると判定されるとS602に進む。同一撮影シーンでないと判定されるとS603に進む。
Therefore, in this embodiment, the angular velocity of the subject during the exposure period is estimated using the method shown in the flowchart of FIG. FIG. 6 is a flowchart for estimating the subject angular velocity during exposure in S310 of FIG. 3, and is executed by the camera microcomputer 141.
In step S601, in panning mode, exposure for still image shooting is performed multiple times (sequential shooting), so the current exposure frame for still image shooting is the same as the previous exposure frame for still image shooting in the shooting scene. Determine whether the If it is determined that the scenes are the same, the process advances to S602. If it is determined that the shooting scenes are not the same, the process advances to S603.

S601において、この時点では現在の静止画撮影用の露光フレームの画像はまだ得られていないので、例えばシャッタレリーズ釦が押下された直前または直後の動画フレームの画像と、直前の静止画撮影用の露光フレームの画像とを比較する。即ち、静止画撮影を開始するためのレリーズ操作の際の動画像と、直前の静止画撮影の画像を比較することによって、静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じか否かを判定する。 In S601, since the image of the current exposure frame for still image shooting has not yet been obtained at this point, for example, the image of the video frame immediately before or after the shutter release button was pressed, and the image of the current exposure frame for still image shooting immediately before the shutter release button is pressed. Compare the exposure frame image. In other words, by comparing the video image from the release operation to start still image shooting with the image from the previous still image shooting, the shooting scene of the still image shooting and the shooting scene of another still image shooting immediately before can be determined. Determine whether they are the same.

具体的には、例えば画像認識によって、両者の画像の間で、画面中央部の主要被写体画像が同じであれば同一撮影シーンであると判定する。あるいは画像認識によって、両者の画像の間で、主要被写体画像の画面に占める割合の変化が所定の範囲内であれば同一撮影シーンであると判定する。あるいは両者の画像の間で、被写体ベクトル群の変化や動きベクトルのヒストグラムの変化が所定範囲内であれば同一シーンであると判定する。あるいは両者の画像の間で、主要被写体画像の色の変化が所定範囲内であれば同一シーンであると判定する。更には、上記の複数の判定基準の一部または全部を組み合わせて判断しても良い。 Specifically, for example, by image recognition, if the main subject image in the center of the screen is the same between the two images, it is determined that the two images are the same photographed scene. Alternatively, by image recognition, if the change in the ratio of the main subject image to the screen between the two images is within a predetermined range, it is determined that the two images are the same photographed scene. Alternatively, if the change in the subject vector group or the change in the histogram of motion vectors between the two images is within a predetermined range, it is determined that the two images are the same scene. Alternatively, if the change in color of the main subject image is within a predetermined range between the two images, it is determined that the two images are the same scene. Furthermore, the judgment may be made by combining some or all of the plurality of judgment criteria described above.

S601で、Noの場合、S603において、前回静止画用撮影の露光終了から次の静止画用撮影の露光開始までの経過時間が所定時間経過したかの判定を行う。所定時間経過していない場合は、直前の静止画撮影と同一のシーンと判断される。即ち、静止画撮影の露光タイミングと、直前の別の静止画撮影の露光タイミングの時間差が所定値より小さいか否かを判定する。それによって、前記静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じか否かを判定する。 If No in S601, it is determined in S603 whether a predetermined amount of time has elapsed from the end of exposure in the previous still image shooting to the start of exposure in the next still image shooting. If the predetermined time has not elapsed, it is determined that the scene is the same as the previous still image shooting. That is, it is determined whether the time difference between the exposure timing of still image shooting and the exposure timing of another immediately preceding still image shooting is smaller than a predetermined value. Thereby, it is determined whether the photographing scene of the still image photographing is the same as the photographing scene of another still image photographing immediately before.

このS601とS603において、カメラマイコン141は、静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じか否かを判定する撮影シーン判定部として機能している。なお、ステップS603では、流し撮りモードにおける最初の静止画撮影の場合にもNoの判断をするものとする。
次にS603における判定について更に図7を用いて説明する。図7はS603における同一撮影シーンの判定方法を説明するための図である。図7(A)は、レリーズ釦を押下されてから離すまでの期間701に露光が複数回行われた場合を表している。
In S601 and S603, the camera microcomputer 141 functions as a shooting scene determination unit that determines whether the shooting scene of the still image shooting is the same as the shooting scene of another still image shooting immediately before. Note that in step S603, the determination of No is also made in the case of the first still image shooting in the panning mode.
Next, the determination in S603 will be further explained using FIG. 7. FIG. 7 is a diagram for explaining the method for determining whether the same photographed scene is present in S603. FIG. 7A shows a case where exposure is performed multiple times during a period 701 from when the release button is pressed to when it is released.

この場合は所謂連写撮影であるが、稀に実際は異なる撮影シーンでもレリーズ釦を押下し続けて連写を行う場合もある。その場合、1回目の露光終了時点702でカメラ内のシステム時間(システムクロック)を取得し、2回目の露光開始703時点で再度カメラ内のシステム時間を取得する。S603ではこの2点間のシステム時間差を算出した結果が、閾値(例えば1[sec])未満であれば同一シーンであると判定を行う。 In this case, so-called continuous shooting is performed, but in rare cases, continuous shooting may be performed by continuously pressing the release button even in different shooting scenes. In that case, the system time (system clock) in the camera is acquired at the end of the first exposure 702, and the system time in the camera is acquired again at the start of the second exposure 703. In S603, if the result of calculating the system time difference between these two points is less than a threshold value (for example, 1 [sec]), it is determined that the scenes are the same scene.

一方、図7(B)はレリーズ釦を離してから再度レリーズ釦を押下し静止画撮影用の露光を複数回行った場合を表している。
この場合は、単写撮影でありながら連写のように小刻みに静止画撮影を行っている。そして、上述した露光間隔の経過時間の判定用の閾値(例えば1[sec])とほぼ合わせるために、レリーズ釦を離した時点から次にレリーズ釦を押下時点までの経過時間704を見る。そして経過時間704が、閾値(例えば0.3[sec])未満であれば同一シーンであると判定を行う。
S603でNoの場合はS602に進む。Yesの場合はS609に進む。
On the other hand, FIG. 7B shows a case where the release button is released and then pressed again to perform exposure for still image photography multiple times.
In this case, even though single-shot photography is being performed, still images are being taken in small increments like continuous shooting. Then, in order to approximately match the above-mentioned threshold value for determining the elapsed time of the exposure interval (for example, 1 [sec]), the elapsed time 704 from the time when the release button is released to the time when the release button is next pressed is checked. Then, if the elapsed time 704 is less than a threshold value (for example, 0.3 [sec]), it is determined that the scenes are the same scene.
If No in S603, the process advances to S602. If Yes, the process advances to S609.

次に、S602において、急峻なカメラ動作があるかについてカメラの角速度、加速度変化に基づき判定を行う。急峻なカメラ動作がない(No)と判定されるとS604に進む。
急峻なカメラ動作がある(Yes)と判定されるとS609に進む。即ち、撮像装置の加速度が所定値以上の場合には、S609に進み、被写体角速度予測部による被写体角速度の予測を行わない。ここで、急峻なカメラ動作とは、例えばユーザーが被写体を追従できずLCD画面(ライブビュー画面)に被写体を捉えられていない場合を指す。この場合は、カメラの角速度変化が著しいため急峻なカメラ動作をしているといえる。また、撮影者は被写体を追従できていても急峻なカメラ動作をしているといえる場合がある。
Next, in S602, it is determined whether there is a steep camera movement based on changes in the angular velocity and acceleration of the camera. If it is determined that there is no steep camera movement (No), the process advances to S604.
If it is determined that there is a steep camera movement (Yes), the process advances to S609. That is, if the acceleration of the imaging device is equal to or greater than the predetermined value, the process advances to S609, and the subject angular velocity prediction unit does not predict the subject angular velocity. Here, the steep camera movement refers to, for example, a case where the user is unable to follow the subject and the subject is not captured on the LCD screen (live view screen). In this case, the angular velocity of the camera changes significantly, so it can be said that the camera is moving rapidly. Further, even if the photographer is able to follow the subject, it may be said that the camera is moving suddenly.

それは、例えばモーターバイクの流し撮りで、勾配が急なコーナー(ヘアピンコーナー)では被写体の動きはコーナーに入る前に減速、旋回を行い、旋回を終えると同時に加速して走り抜けるような場合である。このとき、3つの運動を行うため、撮影者が被写体を追従できていたとしても、カメラ内の角速度、加速度変化を見れば急峻なカメラ動作をしているといえる。
このように、急峻なカメラ動作をしている場合は、被写体角速度と被写体角加速度の履歴だけに基づいて制御を行うと被写体角速度の誤算出が生じ、却って像振れ補正を助長してしまうおそれがある。
For example, when taking a panning shot of a motorbike, the subject decelerates and turns before entering the corner (hairpin corner), and accelerates as soon as the corner is completed. At this time, three movements are performed, so even if the photographer is able to follow the subject, looking at changes in the angular velocity and acceleration within the camera, it can be said that the camera is making steep movements.
In this way, when the camera is making steep movements, if control is performed only based on the history of the subject angular velocity and subject angular acceleration, the subject angular velocity may be miscalculated, which may actually encourage image blur correction. be.

そのため、同一撮影シーンではなかったり、カメラが急峻な動きをしたりしている場合は、正確な動きベクトルが検出できていない場合があるため、S609において、保持していた被写体角加速度の履歴を初期化する。そして、被写体角速度予測部により被写体角速度を予測せず、被写体振れ補正は行わずに図3のS311に進み、通常の手振れ補正に基づく像振れ補正制御を行う。
一方、S602において急峻なカメラ動作がない(No)と判定されるとS604に進み、露光前のライブビュー中の複数動画フレームの被写体角加速度の履歴を読出す。
Therefore, if the shooting scenes are not the same or if the camera moves suddenly, an accurate motion vector may not be detected. initialize. Then, the subject angular velocity prediction unit does not predict the subject angular velocity, and the process proceeds to S311 in FIG. 3 without performing subject shake correction, and performs image shake correction control based on normal camera shake correction.
On the other hand, if it is determined in S602 that there is no steep camera movement (No), the process advances to S604, and the history of subject angular acceleration of multiple video frames in live view before exposure is read.

このとき代わりに被写体角速度の履歴が保存されていたらそれを読み出すようにしても良い。そして保存された被写体角速度のデータ履歴に基づき被写体角加速度を算出するようにしても良い。
次にS605において、S604で読み出したライブビュー中の各動画フレームの被写体角加速度(または被写体角速度)の履歴を用いて、露光直前の動画フレームに被写体角加速度の変曲点があるか判定を行う。
At this time, if the history of the subject angular velocity is saved, it may be read out instead. Then, the subject angular acceleration may be calculated based on the stored data history of the subject angular velocity.
Next, in S605, it is determined whether there is an inflection point of the subject angular acceleration in the video frame immediately before exposure, using the history of the subject angular acceleration (or subject angular velocity) of each video frame in live view read out in S604. .

変曲点は、露光直前の動画フレームをN番目のフレームとしたとき、例えば以下のように求める。即ち、N-2フレームの被写体角加速度αN-2がー2[deg/sec]、N-1フレームの被写体角加速度αN-1がー3[deg/sec]、Nフレームの被写体角加速度αNが1[deg/sec]とする。その場合、N-1フレーム時点の被写体角加速度差分ΔαN-1はー1[deg/sec]で、Nフレーム時点の被写体角加速度差分ΔαNは+2[deg/sec]となる。即ち、角加速度の差分の極性が変わるので露光直前の動画フレームであるNフレームで被写体角加速度の変曲点があると判定する。 The inflection point is determined, for example, as follows, assuming that the video frame immediately before exposure is the Nth frame. That is, the subject angular acceleration αN-2 of the N-2 frame is -2 [deg/sec 2 ], the subject angular acceleration αN-1 of the N-1 frame is -3 [deg/sec 2 ], and the subject angular acceleration of the N frame is -2 [deg/sec 2 ]. αN is assumed to be 1 [deg/sec 2 ]. In this case, the subject angular acceleration difference ΔαN-1 at the N-1 frame is -1 [deg/sec 2 ], and the subject angular acceleration difference ΔαN at the N frame is +2 [deg/sec 2 ]. That is, since the polarity of the difference in angular acceleration changes, it is determined that there is an inflection point in the subject angular acceleration at frame N, which is the video frame immediately before exposure.

変曲点があると判定された場合はS606に進む。変曲点がないと判定された場合はS607に進む。
S606において、S605で被写体角加速度の変曲点を見つけているため、露光前の被写体角速度と被写体角加速度と、レリーズ釦押下から露光開始までのレリーズタイムラグ分を考慮して露光期間中の被写体角速度の算出を行う。
If it is determined that there is an inflection point, the process advances to S606. If it is determined that there is no inflection point, the process advances to S607.
In S606, since the inflection point of the subject angular acceleration was found in S605, the subject angular velocity during the exposure period is calculated taking into account the subject angular velocity and subject angular acceleration before exposure, and the release time lag from pressing the release button to the start of exposure. Calculate.

例えば、露光開始時点の被写体角速度を、直前の露光時の被写体角速度及び複数の動画フレームの被写体角速度の線形補間により求めるとともに、露光直前の動画フレームに存在する変曲点から露光開始時点までの時間に被写体角加速度を乗じる。それによって得た角速度を、前記の線形補間により求めた被写体角速度に加減算することで補正し、露光開始時点の補正後の被写体角速度を算出する。露光終了時点の補正された被写体角速度も同様にして求めることができるので、露光開始時点の補正後の被写体角速度と露光終了時点の補正後の被写体角速度の平均値を露光期間中の被写体角速度とすることができる。 For example, the subject angular velocity at the time of exposure start is determined by linear interpolation of the subject angular velocity during the previous exposure and the subject angular velocity of multiple video frames, and the time from the inflection point existing in the video frame immediately before exposure to the exposure start time is calculated. is multiplied by the subject angular acceleration. The angular velocity thus obtained is corrected by adding to or subtracting from the subject angular velocity determined by the linear interpolation, and the corrected subject angular velocity at the time of starting exposure is calculated. The corrected subject angular velocity at the end of exposure can be found in the same way, so the average value of the corrected subject angular velocity at the start of exposure and the corrected subject angular velocity at the end of exposure is taken as the subject angular velocity during the exposure period. be able to.

このように、静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じと判定された場合には、S606で静止画撮影の直前の別の静止画撮影により得られた画像の被写体角速度も用いて静止画露光期間における被写体角速度を予測する。
なお、流し撮りモードの最初の静止画撮影の場合には、上記において露光開始時点や露光終了時点の被写体角速度を線形補間で算出する際には、複数の動画フレームの被写体角速度だけを用いて線形補間により求める。
In this way, if it is determined that the shooting scene of the still image shooting and the shooting scene of another still image shooting immediately before are the same, in S606, the image obtained by another still image shooting immediately before the still image shooting is The subject angular velocity during the still image exposure period is also predicted using the subject angular velocity.
Note that when shooting the first still image in panning mode, when calculating the subject angular velocity at the start and end of exposure using linear interpolation, only the subject angular velocity of multiple video frames is used to calculate the linear interpolation. Obtained by interpolation.

このように、S606においてカメラマイコン141は、静止画露光期間前の被写体角速度に基づいて静止画露光期間前の被写体角加速度の変曲点を判別する。また、変曲点と静止画露光期間前の被写体角速度に基づいて静止画露光期間における被写体角速度を予測する被写体角速度予測部として機能している。
S607において、直近の動画の2フレームにおいて各々のフレーム時点におけるカメラのシステム時間を取得し、その差分値が閾値(例えば1[sec])を超えているか判定を行う。
Thus, in S606, the camera microcomputer 141 determines the inflection point of the subject angular acceleration before the still image exposure period based on the subject angular velocity before the still image exposure period. It also functions as a subject angular velocity prediction unit that predicts the subject angular velocity during the still image exposure period based on the inflection point and the subject angular velocity before the still image exposure period.
In S607, the system time of the camera at each frame time point in the two most recent video frames is acquired, and it is determined whether the difference value exceeds a threshold value (for example, 1 [sec]).

システム時間の差分値が閾値未満の場合はS608に進む。システム時間の差分値が閾値以上の場合は、線形補間の誤差が大きくなるのでS609に進む。
S608において、露光中(例えば露光期間の中央時点)の被写体角速度を、直前の露光時の被写体角速度及び複数の動画フレームの被写体角速度の線形補間により求める。なお、S306で最終的に選択した被写体ベクトルが図4の閾値404以上であっても例えば所定の閾値(例えば6[pixel])未満の場合には、角速度センサのフレーム毎の角速度情報に基づき露光期間中の疑似的な被写体角速度を算出しても良い。
If the system time difference value is less than the threshold, the process advances to S608. If the difference value of the system time is equal to or greater than the threshold value, the error in linear interpolation becomes large, so the process advances to S609.
In S608, the subject angular velocity during exposure (for example, at the center of the exposure period) is determined by linear interpolation of the subject angular velocity during the previous exposure and the subject angular velocity of a plurality of video frames. Note that even if the subject vector finally selected in S306 is greater than or equal to the threshold 404 in FIG. 4, if it is less than a predetermined threshold (for example, 6 pixels), exposure is performed based on the angular velocity information for each frame of the angular velocity sensor. A pseudo object angular velocity during the period may be calculated.

本システムで算出すべき被写体角速度は上述した式1で示す通り、撮像装置の角速度と、撮像装置と被写体との相対的な動き量に依存する。撮影者が被写体を精度よく追従出来ているほど、撮像装置と被写体との相対的な動き量は小さくなる。そのため、撮像面上の移動量において許容できる誤差範囲(例えば20[um])に収まるのであれば、角速度センサの角速度情報で補間して、露光中における被写体角速度を算出しても良い。
図7に示すように、露光期間中705においてもカメラ内の角速度検出部171またはレンズ内の角速度検出部111は常にデータ取得を行っているのでそれを使う。S608、S606、S609のステップの次にS311に進む。
As shown in Equation 1 above, the subject angular velocity to be calculated by this system depends on the angular velocity of the imaging device and the relative movement amount between the imaging device and the subject. The more accurately the photographer can track the subject, the smaller the amount of relative movement between the imaging device and the subject. Therefore, as long as the amount of movement on the imaging plane falls within an allowable error range (for example, 20 [um]), the angular velocity of the subject during exposure may be calculated by interpolating with the angular velocity information of the angular velocity sensor.
As shown in FIG. 7, even during the exposure period 705, the angular velocity detection unit 171 in the camera or the angular velocity detection unit 111 in the lens is constantly acquiring data, so it is used. After steps S608, S606, and S609, the process advances to S311.

図3のS311において、S310で算出した被写体角速度を用いて式1に基づき振れ補正系であるシフトレンズ104を駆動させる。即ち、S311において、カメラマイコン141、レンズマイコン112及びドライバ113は、被写体角速度予測部により予測された被写体角速度に基づき被写体の振れ補正をする振れ補正部として機能している。
S312において、静止画撮影のための所定の露光時間が経過したかの判定を行う。所定の露光時間が経過した場合は処理を終了する。所定の露光時間が経過していない場合は、S311に進み、所定の露光時間が経過するまで、振れ補正系であるシフトレンズ104を駆動し続ける。
In S311 of FIG. 3, the shift lens 104, which is a shake correction system, is driven based on Equation 1 using the subject angular velocity calculated in S310. That is, in S311, the camera microcomputer 141, lens microcomputer 112, and driver 113 function as a shake correction unit that corrects shake of the subject based on the subject angular velocity predicted by the subject angular velocity prediction unit.
In S312, it is determined whether a predetermined exposure time for still image photography has elapsed. If the predetermined exposure time has elapsed, the process ends. If the predetermined exposure time has not elapsed, the process advances to S311, and the shift lens 104, which is a shake correction system, continues to be driven until the predetermined exposure time has elapsed.

以上、本発明の好ましい実施形態について図1で示すデジタルカメラシステムを用いて説明したが、本発明は撮像装置本体とレンズ装置とが一体的に構成された撮像システムにも適用可能である。また、デジタルムービーカメラ、カメラ付きのスマートフォン、カメラ付きのタブレットコンピュータ、車載カメラ、ネットワークカメラなど撮像機能を有する電子機器等にも適用可能である。なお、図1で示すデジタルカメラシステムはペンタプリズムやレフレックスミラーが存在しない所謂、ミラーレスカメラを想定しているが、一眼レフカメラにも適用可能である。一眼レフカメラの場合には、レフレックスミラーで反射された像の測光を行うための測光用の撮像素子を設け、測光用の撮像素子からの映像信号を動きベクトル検出部145に入力すれば良い。 Although the preferred embodiment of the present invention has been described above using the digital camera system shown in FIG. 1, the present invention is also applicable to an imaging system in which an imaging device main body and a lens device are integrally configured. It is also applicable to electronic devices with imaging functions, such as digital movie cameras, smartphones with cameras, tablet computers with cameras, in-vehicle cameras, and network cameras. Although the digital camera system shown in FIG. 1 is assumed to be a so-called mirrorless camera that does not include a pentaprism or a reflex mirror, it is also applicable to a single-lens reflex camera. In the case of a single-lens reflex camera, a photometric image sensor may be provided to perform photometry of the image reflected by the reflex mirror, and a video signal from the photometric image sensor may be input to the motion vector detection unit 145. .

なお、以上の説明では、振れ補正手段として、レンズを光軸に垂直な面内でシフトすることによって光学的に像振れを補正する例を説明したが、撮像素子を光軸に垂直な面内でシフトすることによって像振れを補正するものであっても良い。或いは像振れ補正手段は、画像信号を画面内でシフトすることによって像振れを補正するものであってもよい。更には上記の複数タイプの一部または全部の像振れ補正手段を組み合わせたものであっても良い。 In the above explanation, an example was explained in which image shake is optically corrected by shifting the lens in a plane perpendicular to the optical axis as a shake correction means. It may also be possible to correct image blur by shifting the image. Alternatively, the image blur correction means may correct image blur by shifting the image signal within the screen. Furthermore, a combination of some or all of the plurality of types of image blur correction means described above may be used.

以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
なお、本実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して撮像装置等に供給するようにしてもよい。そしてその撮像装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
Although the present invention has been described above in detail based on its preferred embodiments, the present invention is not limited to the above-mentioned embodiments, and various modifications can be made based on the gist of the present invention. It is not excluded from the scope of the invention.
Note that a computer program that implements part or all of the control in this embodiment and the functions of the above-described embodiments may be supplied to the imaging device or the like via a network or various storage media. Then, a computer (or CPU, MPU, etc.) in the imaging device or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

100 交換レンズ
104 シフトレンズ
111 レンズ内の角速度検出部
112 レンズマイコン
130 カメラ本体
141 カメラマイコン
145 動きベクトル検出部
152 被写体角速度算出部
153 シャッタ速度算出部
154 ズーム流し撮り制御部
171 カメラ内の角速度検出部

100 Interchangeable lens 104 Shift lens 111 Angular velocity detection unit in the lens 112 Lens microcomputer 130 Camera body 141 Camera microcomputer 145 Motion vector detection unit 152 Subject angular velocity calculation unit 153 Shutter speed calculation unit 154 Zoom panning control unit 171 Angular velocity detection unit in the camera

Claims (13)

撮像装置の振れを検出する第1の検出部と、
所定の静止画撮影前の異なるフレーム間で像の動きを検出する第2の検出部と、
第1の検出部と前記第2の検出部の検出結果から静止画露光期間前の被写体角速度を検出する被写体角速度検出部と、
前記静止画露光期間前の前記被写体角速度に基づいて前記静止画露光期間前の被写体角加速度の変曲点を判別するとともに、前記変曲点と前記静止画露光期間前の被写体角速度に基づいて前記静止画露光期間における被写体角速度を予測する被写体角速度予測部と、
前記被写体角速度予測部により予測された被写体角速度に基づき被写体の振れ補正をする振れ補正部と、を有し、
前記撮像装置の加速度が所定値以上の場合に、前記被写体角速度予測部による被写体角速度の予測をおこなわないことを特徴とする撮像装置。
a first detection unit that detects shake of the imaging device;
a second detection unit that detects image movement between different frames before shooting a predetermined still image;
a subject angular velocity detection unit that detects the subject angular velocity before the still image exposure period from the detection results of the first detection unit and the second detection unit;
The inflection point of the object angular acceleration before the still image exposure period is determined based on the object angular velocity before the still image exposure period, and the inflection point of the object angular acceleration before the still image exposure period is determined. a subject angular velocity prediction unit that predicts a subject angular velocity during a still image exposure period;
a shake correction unit that corrects shake of the subject based on the subject angular velocity predicted by the subject angular velocity prediction unit;
An imaging device characterized in that the object angular velocity prediction unit does not predict the subject angular velocity when the acceleration of the imaging device is equal to or greater than a predetermined value.
前記第1の検出部はジャイロセンサを含むことを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the first detection section includes a gyro sensor. 前記第2の検出部は画像の動きベクトルを検出するものであることを特徴とする請求項1または2に記載の撮像装置。 3. The imaging device according to claim 1, wherein the second detection unit detects a motion vector of an image. 前記静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じか否かを判定する撮影シーン判定部を有することを特徴とする請求項1~3のいずれか1項に記載の撮像装置。 4. The camera according to claim 1, further comprising a photographing scene determining unit that determines whether or not the photographing scene of the still image photographing is the same as the photographing scene of another immediately preceding still image photographing. imaging device. 前記撮影シーン判定部は、前記静止画撮影を開始するためのレリーズ操作の際の動画像と、直前の静止画撮影の画像を比較することによって、前記静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じか否かを判定することを特徴とする請求項4に記載の撮像装置。 The photographing scene determination unit determines the photographing scene of the still image photographing and the previous one by comparing the moving image at the time of the release operation for starting the still image photographing with the image of the immediately preceding still image photographing. 5. The imaging apparatus according to claim 4, wherein the imaging apparatus determines whether or not the shooting scenes of still image shooting are the same. 前記撮影シーン判定部は、前記静止画撮影の露光タイミングと、直前の別の静止画撮影の露光タイミングの時間差が所定値より小さいか否かを判定することによって、前記静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じか否かを判定することを特徴とする請求項4に記載の撮像装置。 The photographing scene determination unit determines whether the time difference between the exposure timing of the still image photographing and the exposure timing of another immediately preceding still image photographing is smaller than a predetermined value, thereby determining the photographing scene of the still image photographing. 5. The imaging apparatus according to claim 4, wherein the imaging apparatus determines whether or not the photographing scene of another immediately preceding still image photographing is the same. 前記撮影シーン判定部によって、前記静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じと判定されなかった場合には、前記被写体角速度予測部により被写体角速度を予測しないことを特徴とする請求項4~6のいずれか1項に記載の撮像装置。 If the photographing scene determining section does not determine that the photographing scene of the still image photographing and the photographing scene of another immediately preceding still image photographing are the same, the subject angular velocity predicting section does not predict the subject angular velocity. The imaging device according to any one of claims 4 to 6, characterized in that: 前記撮影シーン判定部によって、前記静止画撮影の撮影シーンと、直前の別の静止画撮影の撮影シーンが同じと判定された場合には、前記静止画撮影の直前の別の静止画撮影により得られた画像の被写体角速度も用いて静止画露光期間における被写体角速度を予測することを特徴とする請求項4~7のいずれか1項に記載の撮像装置。 If the photographing scene determination unit determines that the photographing scene of the still image photographing and the photographing scene of another still image photographing immediately before the photographing scene are the same, the photographing scene obtained by photographing another still image immediately before the still image photographing is determined to be the same. 8. The imaging apparatus according to claim 4, further comprising predicting a subject angular velocity during a still image exposure period using also a subject angular velocity of the captured image. 前記静止画露光期間前の前記被写体角速度に関する情報の履歴を保存する保存部を有することを特徴とする請求項1~8のいずれか1項に記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 8, further comprising a storage unit that stores a history of information regarding the subject angular velocity before the still image exposure period. 前記振れ補正部はレンズを光軸に垂直な方向に移動させるレンズ駆動部を含むことを特徴とする請求項1~9のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 9, wherein the shake correction unit includes a lens drive unit that moves a lens in a direction perpendicular to an optical axis. 前記撮像装置を流し撮りモードに設定するための操作部を有し、前記操作部により前記撮像装置が前記流し撮りモードに設定されていない場合には、前記被写体角速度予測部による被写体角速度の予測を行わないことを特徴とする請求項1~10のいずれか1項に記載の撮像装置。 an operation section for setting the imaging device to a panning mode, and when the imaging device is not set to the panning mode by the operation section, the object angular velocity prediction section predicts the object angular velocity; The imaging device according to any one of claims 1 to 10, characterized in that the imaging device does not perform the imaging. 撮像装置の振れを検出する第1の検出ステップと、
所定の静止画撮影前の異なるフレーム間で像の動きを検出する第2の検出ステップと、
第1の検出ステップと前記第2の検出ステップの検出結果から静止画露光期間前の被写体角速度を検出する被写体角速度検出ステップと、
前記静止画露光期間前の前記被写体角速度に基づいて前記静止画露光期間前の被写体角加速度の変曲点を判別するとともに、前記変曲点と前記静止画露光期間前の被写体角速度に基づいて前記静止画露光期間における被写体角速度を予測する被写体角速度予測ステップと、
前記被写体角速度予測ステップにより予測された被写体角速度に基づき被写体の振れ補正をする振れ補正ステップと、を有し、
前記撮像装置の加速度が所定値以上の場合に、前記被写体角速度予測ステップによる被写体角速度の予測をおこなわないことを特徴とする制御方法。
a first detection step of detecting shake of the imaging device;
a second detection step of detecting image movement between different frames before shooting a predetermined still image;
a subject angular velocity detection step of detecting the subject angular velocity before the still image exposure period from the detection results of the first detection step and the second detection step;
The inflection point of the object angular acceleration before the still image exposure period is determined based on the object angular velocity before the still image exposure period, and the inflection point of the object angular acceleration before the still image exposure period is determined. a subject angular velocity prediction step of predicting a subject angular velocity during a still image exposure period;
a shake correction step of correcting the shake of the subject based on the subject angular velocity predicted by the subject angular velocity prediction step;
A control method characterized in that the subject angular velocity prediction step does not predict the subject angular velocity when the acceleration of the imaging device is equal to or greater than a predetermined value.
請求項1~11のいずれか1項に記載の前記撮像装置の各部としてコンピュータを機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each part of the imaging device according to any one of claims 1 to 11.
JP2019213131A 2019-11-26 2019-11-26 Imaging device, control method and computer program Active JP7451152B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019213131A JP7451152B2 (en) 2019-11-26 2019-11-26 Imaging device, control method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019213131A JP7451152B2 (en) 2019-11-26 2019-11-26 Imaging device, control method and computer program

Publications (2)

Publication Number Publication Date
JP2021085925A JP2021085925A (en) 2021-06-03
JP7451152B2 true JP7451152B2 (en) 2024-03-18

Family

ID=76087481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019213131A Active JP7451152B2 (en) 2019-11-26 2019-11-26 Imaging device, control method and computer program

Country Status (1)

Country Link
JP (1) JP7451152B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078196A (en) 1999-09-03 2001-03-23 Nec Corp Moving picture coding method and moving picture coder
JP2009010453A (en) 2007-06-26 2009-01-15 Sony Corp Image processing apparatus and method, and program
JP2010050934A (en) 2008-08-25 2010-03-04 Canon Inc Image processing device, imaging apparatus, control method of the image processing device and program
JP2012119875A (en) 2010-11-30 2012-06-21 Canon Inc Imaging apparatus and control method of the same
US20160261784A1 (en) 2015-03-03 2016-09-08 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof and storage medium storing control program therefor
JP2016167798A (en) 2015-03-03 2016-09-15 キヤノン株式会社 Imaging device and control program for the same
JP2018013602A (en) 2016-07-21 2018-01-25 キヤノン株式会社 Image shake correction device, lens device, imaging device, and imaging system
JP2018054698A (en) 2016-09-26 2018-04-05 キヤノン株式会社 Optical device, imaging apparatus and control method
US20180176470A1 (en) 2016-12-16 2018-06-21 Samsung Electronics Co., Ltd. Method for obtaining panning shot image and electronic device supporting the same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078196A (en) 1999-09-03 2001-03-23 Nec Corp Moving picture coding method and moving picture coder
JP2009010453A (en) 2007-06-26 2009-01-15 Sony Corp Image processing apparatus and method, and program
JP2010050934A (en) 2008-08-25 2010-03-04 Canon Inc Image processing device, imaging apparatus, control method of the image processing device and program
JP2012119875A (en) 2010-11-30 2012-06-21 Canon Inc Imaging apparatus and control method of the same
US20160261784A1 (en) 2015-03-03 2016-09-08 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof and storage medium storing control program therefor
JP2016167798A (en) 2015-03-03 2016-09-15 キヤノン株式会社 Imaging device and control program for the same
JP2018013602A (en) 2016-07-21 2018-01-25 キヤノン株式会社 Image shake correction device, lens device, imaging device, and imaging system
JP2018054698A (en) 2016-09-26 2018-04-05 キヤノン株式会社 Optical device, imaging apparatus and control method
US20180176470A1 (en) 2016-12-16 2018-06-21 Samsung Electronics Co., Ltd. Method for obtaining panning shot image and electronic device supporting the same

Also Published As

Publication number Publication date
JP2021085925A (en) 2021-06-03

Similar Documents

Publication Publication Date Title
US10362236B2 (en) Image capturing apparatus, control method thereof and storage medium storing control program therefor
JP6700826B2 (en) Image blur correction apparatus, control method thereof, program, and storage medium
KR101951076B1 (en) Image capturing apparatus, control method thereof and computer program therefor
JP6776062B2 (en) Imaging device and its control method
JP6995561B2 (en) Image stabilization device and its control method, image pickup device
CN107786809B (en) Image pickup and accessory apparatus, communication control method thereof, image pickup system, and storage medium
US10708503B2 (en) Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium
JP2007288726A (en) Imaging apparatus
JP2005215388A (en) Interchangeable lens and camera system using the same
CN106470317B (en) Image pickup apparatus and control method thereof
CN108668074B (en) Image blur correction device, control method thereof, image pickup apparatus, and storage medium
JP2016170285A (en) Image blur correction device, optical equipment, imaging apparatus, and control method
JP4876550B2 (en) Imaging apparatus, control method, and control program
JP7451152B2 (en) Imaging device, control method and computer program
JP2018082232A (en) Imaging device and control method
JP6858065B2 (en) Imaging device and its control method
JP2012042589A (en) Image shake correction mechanism, lens barrel, and image sensor
JP2020148999A (en) Control device, imaging device, lens device, control method, and program
JP7414484B2 (en) Optical equipment, imaging device and control method
JP6278798B2 (en) Imaging apparatus, control method thereof, and program
JP7254555B2 (en) IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE
JP7073078B2 (en) Image pickup device and its control method
JP2018054698A (en) Optical device, imaging apparatus and control method
WO2019203147A1 (en) Imaging device
JP2007248672A (en) Photographic device, control method and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R151 Written notification of patent or utility model registration

Ref document number: 7451152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151