JP2015219463A - Imaging device, control method of imaging device and program - Google Patents

Imaging device, control method of imaging device and program Download PDF

Info

Publication number
JP2015219463A
JP2015219463A JP2014104598A JP2014104598A JP2015219463A JP 2015219463 A JP2015219463 A JP 2015219463A JP 2014104598 A JP2014104598 A JP 2014104598A JP 2014104598 A JP2014104598 A JP 2014104598A JP 2015219463 A JP2015219463 A JP 2015219463A
Authority
JP
Japan
Prior art keywords
exposure
panning
exposure control
angular velocity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014104598A
Other languages
Japanese (ja)
Other versions
JP6360721B2 (en
Inventor
鈴木 智彦
Tomohiko Suzuki
智彦 鈴木
仁司 土屋
Hitoshi Tsuchiya
仁司 土屋
祥司 小山内
Shoji Osanai
祥司 小山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014104598A priority Critical patent/JP6360721B2/en
Publication of JP2015219463A publication Critical patent/JP2015219463A/en
Application granted granted Critical
Publication of JP6360721B2 publication Critical patent/JP6360721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce occurrence of failed photograph due to an exposure setting not depending upon a subject or scene even when a picture is taken at a setting in which a camera takes panning pictures in an imaging device, control method of the imaging device and program.SOLUTION: When a panning photograph determination unit determines that an imaging device is in panning photography in a state where a photograph mode setting unit is selected to an exposure setting mode automatically setting an exposure time and an amount of exposure aperture from picture data, and exposure determination means determines that a correct exposure can be obtained, an exposure control unit (AE control unit 84) is configured to perform an exposure control by second exposure control means 84b performing an exposure control on the basis of an exposure time to be determined based on angular velocity information and focal length information, and is configured to perform the exposure control by first exposure control means that performs an exposure control for taking pictures so as to not cause an image tremor on the basis of luminance information on the picture data when the panning photograph determination unit determines that the imaging device is not in the panning photograph.

Description

本発明は、流し撮りを行うのに好適な撮像装置及びその制御方法並びにプログラムに関する。   The present invention relates to an imaging apparatus suitable for performing panning, a control method therefor, and a program.

写真の撮影技法の1つとして流し撮りという撮影方法がある。流し撮りの撮影技法は、動く被写体をカメラで追いながら低速なシャッター速度で撮影する技法である。この技法によって撮影される写真画像は、図1のように背景が流れ、主要被写体(図1では馬及び騎手)は流れることなく撮影される。このため、撮影された写真画像は、背景となる被写体に対して主要被写体が際立って撮影され、これにより、スピード感や動きを表現できる。   One of the photography techniques is a panning method. The panning shooting technique is a technique of shooting at a low shutter speed while following a moving subject with a camera. A photographic image taken by this technique flows in the background as shown in FIG. 1, and the main subjects (horses and jockeys in FIG. 1) are taken without flowing. For this reason, in the photographed photographic image, the main subject is photographed conspicuously with respect to the subject that is the background, and thereby it is possible to express a sense of speed and movement.

流し撮り撮影において、背景を流してスピード感を出すためには、シャッター速度を低速にする必要がある。しかし、シャッター速度が低速になりすぎると手ぶれが生じやすくなるため、失敗撮影になる可能性が高まる。   In panning shooting, it is necessary to reduce the shutter speed in order to give a sense of speed by flowing the background. However, if the shutter speed is too low, camera shake tends to occur, and the possibility of unsuccessful shooting increases.

流し撮りの効果は、撮影対象となる被写体像の背景の流れ量が、撮影画角に対して3%程度となる流れ量(背景像ブレの軌跡幅)で流し撮り効果が見え始める。更に背景の流れ量を増やすことで、主要被写体の動きに対するスピード感は増加するが、シャッター速度がより低速となるため、撮影の難易度は高くなる。   As for the effect of panning, the panning effect starts to be seen when the background flow amount of the subject image to be photographed is about 3% of the photographing angle of view (background image blur locus width). Furthermore, increasing the amount of background flow increases the feeling of speed with respect to the movement of the main subject, but the shutter speed becomes slower, so the difficulty of shooting increases.

従って、従来知られている技法の目安として、背景の流れ量が撮影画角の5%程度になるシャッター速度を選択することで適度な流し撮り効果を得つつ、撮影の成功率を高めることが知られている。   Therefore, as a guideline of a conventionally known technique, by selecting a shutter speed at which the background flow amount is about 5% of the shooting angle of view, an appropriate panning effect can be obtained and the success rate of shooting can be increased. Are known.

一方、背景の流れ量は、カメラを振るスピードやレンズの焦点距離により変化するため、流し撮り時のシャッター速度は、現場で何度か試し撮りをした結果で決められることが多く、流し撮りを行うには経験と技術が必要であった。   On the other hand, the amount of background flow varies depending on the camera shake speed and the focal length of the lens, so the shutter speed during panning is often determined from the results of several trial shots in the field. To do it required experience and skill.

従来、流し撮りに用いられるカメラが提案されている。このようなカメラとしては、例えば、カメラに搭載されたジャイロセンサによって検出した流す方向に関する回転軸回りの角速度と、撮影レンズの焦点距離とにより面上の背景流れ速度を計算し、その値から背景流れ速度を求めて、流し撮り用シャッター速度を設定するものなどがある(例えば、特許文献1参照)。   Conventionally, cameras used for panning have been proposed. As such a camera, for example, the background flow velocity on the surface is calculated from the angular velocity around the rotation axis in the flowing direction detected by the gyro sensor mounted on the camera and the focal length of the photographing lens, and the background is calculated from the value. There is one that obtains the flow speed and sets the shutter speed for panning (for example, see Patent Document 1).

特開平5−232562号公報JP-A-5-232562

しかしながら、上記のように流し撮り用シャッター速度を設定するカメラでは、角速度と撮影レンズの焦点距離とから流し撮り用シャッター速度を決めるため、撮影条件によっては、算出したシャッター速度では露出オーバーになったり、アンダーになったりする可能性がある。この観点については、上記の流し撮り用シャッター速度を設定するカメラでは何ら考慮されていなかった。   However, in a camera that sets the shutter speed for panning as described above, the shutter speed for panning is determined based on the angular speed and the focal length of the taking lens, so depending on the shooting conditions, the calculated shutter speed may result in overexposure. , There is a possibility of under. This viewpoint has not been taken into consideration at all in the above-described camera for setting the shutter speed for panning.

また、流し撮りの場合、撮影された画像の露出状態は、被写体によっても大きく影響を受ける場合がある。
例えば、被写体として動く列車を流し撮りで撮影する場合、動く被写体が白い新幹線等である場合、被写体を重点にして測光を行うと、撮影画像の露出はアンダー気味になったり、或いは、動く被写体が黒いSL等である場合、被写体を重点にして測光を行うと、全体的にオーバー露出で撮影されたりすることがある。
In the case of panning, the exposure state of the captured image may be greatly affected by the subject.
For example, when shooting a moving train as a subject in a panning shot, when the moving subject is a white bullet train, etc., if photometry is performed with emphasis on the subject, the exposure of the photographed image may be underexposed, or the moving subject may In the case of black SL or the like, if photometry is performed with emphasis on the subject, an overall overexposure may be taken.

また、カーレース等、動く被写体に対して背景画像領域の割合が多く、かつ動く被写体と背景画像との輝度差が大きいものを撮影する場合、画面全体で測光を行うとカーレースの被写体の背景とされる黒い路面の画像の輝度に影響されて被写体がオーバー露出になる可能性がある。   Also, when shooting a subject that has a large proportion of the background image area with respect to a moving subject and a large luminance difference between the moving subject and the background image, such as car racing, the background of the subject of the car race is measured by measuring the entire screen. The subject may be overexposed due to the influence of the brightness of the black road image.

本発明の目的は、カメラが流し撮りを行う設定で撮影された場合でも、被写体やシーンによらず露出設定による失敗撮影の発生を低減することである。   An object of the present invention is to reduce the occurrence of failure shooting due to exposure setting regardless of the subject or scene even when the camera is shot with a setting for performing panning.

1つの態様では、撮像装置は、
被写体像を結像する撮影光学系と、
前記撮影光学系が結像する被写体像から映像データを取得する撮像部と、
撮影時の露出条件を複数の露出設定モードから選択して設定される撮影モード設定部と、
前記撮像装置の姿勢変化に伴う角速度情報を取得する角速度センサと、
前記角速度センサが取得する角速度情報に基づいて、前記撮像装置が流し撮り状態であるか否かを判定する流し撮り判定部と、
前記撮像部に対して、前記映像データを取得する際の露出条件の制御を行う露出制御部と、を備え、
前記露出制御部は、
前記映像データの輝度情報に基づいて、像ブレを生じさせないように撮影を行うための露出制御を行う第1の露出制御手段と、
前記角速度センサが取得する角速度情報と、前記撮影光学系の焦点距離情報とに基づいて決定される露光時間に基づいて、撮影時の露出制御を行う第2の露出制御手段と、
前記第2の露出制御手段の露出制御において前記映像データが、適正露光が得られるか否かを判定する露出判定手段と、を有し、
前記露出制御部は、
前記撮影モード設定部が、前記映像データから自動的に露光時間及び露出開口量を判断する前記露出設定モードに選択された状態において、
前記撮像装置が流し撮り状態にあると前記流し撮り判定部が判定した場合で、且つ、適正露光が得られると前記露出判定手段が判定した場合において、前記第2の露出制御手段により前記露出制御を行い、
前記撮像装置が流し撮り状態にないと前記流し撮り判定部が判定した場合において、前記第1の露出制御手段により前記露出制御を行う。
In one aspect, the imaging device
A taking optical system for forming a subject image;
An imaging unit that acquires video data from a subject image formed by the imaging optical system;
A shooting mode setting section that is set by selecting an exposure condition during shooting from a plurality of exposure setting modes;
An angular velocity sensor for obtaining angular velocity information associated with a change in posture of the imaging device;
Based on angular velocity information acquired by the angular velocity sensor, a panning determination unit that determines whether the imaging device is in a panning state;
An exposure control unit that controls exposure conditions when acquiring the video data for the imaging unit;
The exposure control unit
First exposure control means for performing exposure control for performing shooting so as not to cause image blur based on luminance information of the video data;
Second exposure control means for performing exposure control at the time of photographing based on an exposure time determined based on angular velocity information acquired by the angular velocity sensor and focal length information of the photographing optical system;
Exposure determination means for determining whether or not the video data can obtain proper exposure in the exposure control of the second exposure control means;
The exposure control unit
In the state where the shooting mode setting unit is selected in the exposure setting mode for automatically determining an exposure time and an exposure opening amount from the video data,
When the panning determination unit determines that the imaging device is in the panning state and when the exposure determination unit determines that proper exposure is obtained, the exposure control is performed by the second exposure control unit. And
When the panning determination unit determines that the imaging apparatus is not in the panning state, the exposure control is performed by the first exposure control unit.

別の1つの態様では、撮像装置の制御方法は、
撮影光学系が結像する被写体像から映像データを取得する撮像部を備える撮像装置を制御する撮像装置の制御方法であって、
前記撮像装置の姿勢変化に伴う角速度情報を取得する工程と、
前記取得された角速度情報に基づいて、前記撮像装置が流し撮り状態であるか否かを判定する工程と、
前記撮像部に対して、前記映像データを取得する際の露出条件の制御を行う工程と、を含み、
前記露出条件の制御を行う工程では、
前記映像データから自動的に露光時間及び露出開口量を判断する露出設定モードが選択された状態において、
前記撮像装置が流し撮り状態にあると判定された場合で、且つ、適正露光が得られると判定された場合において、前記角速度情報と、前記撮影光学系の焦点距離情報とに基づいて決定される露光時間に基づいて、撮影時の露出制御を行い、
前記撮像装置が流し撮り状態にないと判定された場合において、像ブレを生じさせないように撮影を行うための露出制御を行う。
In another aspect, a method for controlling an imaging apparatus includes:
An imaging apparatus control method for controlling an imaging apparatus including an imaging unit that acquires video data from a subject image formed by an imaging optical system,
Obtaining angular velocity information associated with a change in posture of the imaging device;
Determining whether or not the imaging device is in a panning state based on the acquired angular velocity information;
A step of controlling an exposure condition when acquiring the video data for the imaging unit,
In the step of controlling the exposure condition,
In the state where the exposure setting mode for automatically determining the exposure time and the exposure opening amount from the video data is selected,
When it is determined that the imaging apparatus is in the panning state and when it is determined that appropriate exposure can be obtained, it is determined based on the angular velocity information and the focal length information of the imaging optical system. Based on the exposure time, perform exposure control during shooting,
When it is determined that the imaging apparatus is not in the panning state, exposure control is performed to perform shooting so as not to cause image blur.

更に別の1つの態様では、プログラムは、
撮影光学系が結像する被写体像から映像データを取得する撮像部を備える撮像装置の演算処理装置で実行されるプログラムであって、
前記撮像装置の姿勢変化に伴う角速度情報を取得する機能と、
前記取得された角速度情報に基づいて、前記撮像装置が流し撮り状態であるか否かを判定する機能と、
前記撮像部に対して、前記映像データを取得する際の露出条件の制御を行う機能と、を含み、
前記露出条件の制御を行う機能では、
前記映像データから自動的に露光時間及び露出開口量を判断する露出設定モードが選択された状態において、
前記撮像装置が流し撮り状態にあると判定された場合で、且つ、適正露光が得られると判定された場合において、前記角速度情報と、前記撮影光学系の焦点距離情報とに基づいて決定される露光時間に基づいて、撮影時の露出制御を行い、
前記撮像装置が流し撮り状態にないと判定された場合において、像ブレを生じさせないように撮影を行うための露出制御を行う。
In yet another aspect, the program is:
A program executed by an arithmetic processing unit of an imaging apparatus including an imaging unit that acquires video data from a subject image formed by an imaging optical system,
A function of acquiring angular velocity information accompanying a change in posture of the imaging device;
A function of determining whether the imaging device is in a panning state based on the acquired angular velocity information;
A function of controlling exposure conditions when acquiring the video data for the imaging unit,
In the function of controlling the exposure condition,
In the state where the exposure setting mode for automatically determining the exposure time and the exposure opening amount from the video data is selected,
When it is determined that the imaging apparatus is in the panning state and when it is determined that appropriate exposure can be obtained, it is determined based on the angular velocity information and the focal length information of the imaging optical system. Based on the exposure time, perform exposure control during shooting,
When it is determined that the imaging apparatus is not in the panning state, exposure control is performed to perform shooting so as not to cause image blur.

前記態様によれば、カメラが流し撮りを行う設定で撮影された場合でも、被写体やシーンによらず露出設定による失敗撮影の発生が低減する。   According to the above aspect, even when the camera is shot with the setting to perform panning, the occurrence of failed shooting due to the exposure setting is reduced regardless of the subject or the scene.

流し撮り撮影の撮影画像例である。It is the example of a picked-up image of panning shot shooting. デジタルカメラ(撮像装置)の主要な機能を示すブロック図である。It is a block diagram which shows the main functions of a digital camera (imaging device). ピッチ方向、ヨー方向、及びロール方向を表すデジタルカメラの斜視図である。It is a perspective view of the digital camera showing a pitch direction, a yaw direction, and a roll direction. ブレ補正マイコン7の内部機能を示すブロック図である。It is a block diagram which shows the internal function of the blurring correction | amendment microcomputer 7. FIG. 流し撮りが行われた場合の角速度センサの検出結果の時間変化を示すグラフである。It is a graph which shows the time change of the detection result of the angular velocity sensor when a panning is performed. 流し撮りを行う際のヨー方向(ωyaw)、ピッチ方向(ωpitch)、及び絶対値(ωpan)の角速度の変化を示すグラフである。It is a graph which shows the change of the angular velocity of a yaw direction ((omega) yaw) at the time of a panning shot, a pitch direction ((omega) pitch), and an absolute value ((omega) pan). ωyaw、ωpitch及びωpanの方向関係を示す座標である。This is a coordinate indicating the directional relationship of ωyaw, ωpitch, and ωpan. システムコントローラの機能ブロック図である。It is a functional block diagram of a system controller. システムコントローラ及びブレ補正マイコンの制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of a system controller and a blurring correction microcomputer. 第1の実施の形態における流し撮りTv値算出処理を示すフローチャートである。It is a flowchart which shows the panning Tv value calculation process in 1st Embodiment. 第1の実施の形態におけるAE制御処理を示すフローチャートである。It is a flowchart which shows the AE control process in 1st Embodiment. AE制御処理に用いられるプログラム線図(その1)である。It is a program diagram (the 1) used for AE control processing. AE制御処理に用いられるプログラム線図(その2)である。It is a program diagram (the 2) used for AE control processing. AE制御処理に用いられるプログラム線図(その3)である。It is a program diagram (the 3) used for AE control processing. 第2の実施の形態におけるシステムコントローラの機能ブロック図である。It is a functional block diagram of the system controller in 2nd Embodiment. 第2の実施の形態におけるAE制御処理を示すフローチャートである。It is a flowchart which shows the AE control process in 2nd Embodiment. 第2の実施の形態における被写体検出部分を説明するための撮影画像例である。It is an example of the picked-up image for demonstrating the to-be-photographed object detection part in 2nd Embodiment. 第3の実施の形態におけるAE制御処理を示すフローチャートである。It is a flowchart which shows the AE control process in 3rd Embodiment. 第4の実施の形態におけるAE制御処理を示すフローチャートである。It is a flowchart which shows the AE control process in 4th Embodiment. 第5の実施の形態におけるシステムコントローラの機能ブロック図である。It is a functional block diagram of the system controller in a 5th embodiment. 第5の実施の形態における流し撮り中のライブビュー表示例(その1)である。It is a live view display example (No. 1) during a panning shot in the fifth embodiment. 第5の実施の形態における流し撮り中のライブビュー表示例(その2)である。It is a live view display example (No. 2) during a panning shot in the fifth embodiment. 第5の実施の形態におけるAE制御処理を示すフローチャートである。It is a flowchart which shows the AE control process in 5th Embodiment.

以下、本発明の実施の形態について、図面を参照しながら説明する。
まず、撮像装置に搭載された流し撮りモードの基本的な動作の一例について説明する。
撮影前に予めメニュー等で、流し撮りモードが選択された場合、流し撮りモードが発動する。そして、撮像装置にパンニング(チルティングを含む)の動作が行われながら静止画の撮影が行われた場合、背景の流れ量が所定の値になるシャッター速度が自動で選択され、流し撮り撮影が行われる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, an example of the basic operation of the panning mode mounted on the imaging apparatus will be described.
If the panning mode is selected in advance from the menu or the like before shooting, the panning mode is activated. When a still image is shot while panning (including tilting) is performed on the imaging device, the shutter speed at which the background flow amount is a predetermined value is automatically selected, and panning shot shooting is performed. Done.

ここで、一例ではあるが、シャッター速度は、背景の流れ量が撮影画角に対して5%の流れ量になるように調整される。なお、背景の流れ量は、動きのある主要被写体に対して、撮像装置をパンニング操作により撮影する際の撮影画像の背景部に対する像ブレ軌跡の幅のことを示す。   Here, as an example, the shutter speed is adjusted such that the background flow amount is 5% of the shooting field angle. The background flow amount indicates the width of the image blur locus with respect to the background portion of the captured image when the imaging device is imaged by the panning operation with respect to the moving main subject.

流し撮りの場合、撮影技法の目安として、背景の流れ量が撮影画角に対して3%程度から、撮影された画像を人間が見て流し効果が感じられ始める。更に背景の流れ量が撮影画角に対して5%程度となるようにすると、撮影画像は被写体や背景に関わらず流し撮り効果が感じられることが実験的に確認されている。   In the case of panning, the amount of background flow is about 3% of the shooting angle of view as a guide for the shooting technique, and a person sees the shot image and feels the flow effect. Further, it has been experimentally confirmed that when the background flow amount is about 5% of the shooting angle of view, the shot image can feel the panning effect regardless of the subject and the background.

従って、本発明の実施の形態に係る撮像装置では、自動的に選択されるシャッター速度は、どのような被写体でも流し撮り効果が感じられる最速となるシャッター速度で撮影が行われるので、主要被写体のブレによる失敗撮影を抑えつつ、かつ、撮影画像について有効な流し撮り効果が得られる。   Therefore, in the imaging device according to the embodiment of the present invention, the shutter speed that is automatically selected is shot at the fastest shutter speed at which any subject can feel the panning effect. It is possible to obtain an effective panning effect for a shot image while suppressing failure shooting due to blurring.

実施の形態では、撮像装置がデジタルカメラに適用された例を示す。
図2Aは、デジタルカメラ1(以下、カメラ1と称す)の主要な機能を示すブロック図である。
In the embodiment, an example in which an imaging device is applied to a digital camera is shown.
FIG. 2A is a block diagram showing main functions of the digital camera 1 (hereinafter referred to as camera 1).

図2Bは、ピッチ方向、ヨー方向、及びロール方向を表すカメラ1の斜視図である。
図2A及び図2Bに示すカメラ1は、撮影光学系2と、エンコーダ3と、フォーカルプレーンシャッター4と、撮像素子5と、駆動部6と、ブレ補正マイコン7と、システムコントローラ8と、角速度センサ9と、変倍操作部10と、レリーズSW(switch)11と、EVF(Electronic View Finder)12と、メモリーカード13と、設定ダイヤル14と、を備える。
FIG. 2B is a perspective view of the camera 1 showing the pitch direction, the yaw direction, and the roll direction.
2A and 2B includes a photographing optical system 2, an encoder 3, a focal plane shutter 4, an image sensor 5, a drive unit 6, a shake correction microcomputer 7, a system controller 8, and an angular velocity sensor. 9, a zoom operation unit 10, a release SW (switch) 11, an EVF (Electronic View Finder) 12, a memory card 13, and a setting dial 14.

撮影光学系2は、被写体から光像が入光することで、撮像素子5に被写体像を結像する。なお、撮影光学系2は、同一の光軸Laを有する例えばフォーカスレンズ、ズームレンズ等の複数のレンズを有する。   The photographing optical system 2 forms a subject image on the image sensor 5 when a light image enters from the subject. The photographing optical system 2 includes a plurality of lenses such as a focus lens and a zoom lens having the same optical axis La.

エンコーダ3は、撮影光学系2が有するレンズ等の位置情報を検出する。
フォーカルプレーンシャッター4は、シャッターの一例であり、後述する撮像素子5の受光面前面に配置された撮影光学系2から入射する被写体光による露光時間(シャッター速度)を後述するAE制御部が調整するのに用いられる。また、フォーカルプレーンシャッター4は、被写体光が入射する開口を遮蔽する遮光幕と、この遮光幕を移動させるアクチュエータとを有し、撮影時に開閉動作がなされ、ライブビュー時には開放状態が維持される。
The encoder 3 detects position information such as a lens included in the photographing optical system 2.
The focal plane shutter 4 is an example of a shutter, and an AE control unit (to be described later) adjusts an exposure time (shutter speed) due to subject light incident from a photographing optical system 2 disposed in front of a light receiving surface of an image sensor 5 (to be described later). Used for The focal plane shutter 4 includes a light-shielding curtain that shields an opening through which subject light enters and an actuator that moves the light-shielding curtain. The focal-plane shutter 4 is opened and closed during shooting, and is kept open during live view.

撮像素子5は、撮影光学系2によって結像された被写体像を画像信号に光電変換し、映像データを取得する。撮像素子5は、例えば、CCDあるいはCMOSである。なお、撮像素子5は、フォーカルプレーンシャッター4とともに、撮像部の一部として機能する。   The image sensor 5 photoelectrically converts the subject image formed by the photographing optical system 2 into an image signal, and acquires video data. The image sensor 5 is, for example, a CCD or a CMOS. The imaging element 5 functions as a part of the imaging unit together with the focal plane shutter 4.

駆動部6は、撮影光学系2の光軸Laに垂直となる面内(図2Bに示すX軸方向及びY軸方向)で撮像素子5を移動させるアクチュエータ(例えば、ボイスコイルモータや超音波モータ)を有する。   The drive unit 6 is an actuator (for example, a voice coil motor or an ultrasonic motor) that moves the image sensor 5 in a plane perpendicular to the optical axis La of the photographing optical system 2 (X-axis direction and Y-axis direction shown in FIG. 2B). ).

ブレ補正マイコン7及びシステムコントローラ8は、後述するプログラムを実行する演算処理装置の一例である。
ブレ補正マイコン7は、後述する角速度センサ9により検出される角速度情報に基づいて駆動部6を移動させる。このように、ブレ補正マイコン7は、手ブレ補正を制御するブレ補正制御部として機能する。
The shake correction microcomputer 7 and the system controller 8 are an example of an arithmetic processing device that executes a program to be described later.
The blur correction microcomputer 7 moves the drive unit 6 based on angular velocity information detected by an angular velocity sensor 9 described later. As described above, the shake correction microcomputer 7 functions as a shake correction control unit that controls camera shake correction.

システムコントローラ8は、カメラ1の全体制御を統括して行う。また、システムコントローラ8は、制御プログラムを記憶する記憶部と制御プログラムを読込んで処理を実行するCPU(Central Processing Unit)とを有し、CPUによるソフトウェア処理により制御を行う。なお、システムコントローラ8は、後述するAE制御部(露出制御部)を有する制御部として機能する。   The system controller 8 performs overall control of the camera 1. Further, the system controller 8 has a storage unit that stores a control program and a CPU (Central Processing Unit) that reads the control program and executes processing, and performs control by software processing by the CPU. The system controller 8 functions as a control unit having an AE control unit (exposure control unit) described later.

角速度センサ9は、カメラ1の姿勢変化に伴う角速度情報を取得する。また、角速度センサ9は、例えば、カメラ1のヨー(Yaw)方向及びピッチ(Pitch)方向の角速度を検出する。図2Bに示すように、ヨー方向の回転運動は、カメラ1の垂直方向(Y軸方向)を軸とした回転運動である。ピッチ方向の回転運動は、カメラ1の水平方向(X軸方向)を軸とした回転運動、つまりカメラ1の前後方向への傾きである。なお、角速度センサ9は、更にカメラ1の前後方向(Z軸方向)を軸とした回転方向であるロール(Roll)方向の角速度を検出してもよい。   The angular velocity sensor 9 acquires angular velocity information associated with the posture change of the camera 1. Moreover, the angular velocity sensor 9 detects the angular velocity of the camera 1 in the yaw (Yaw) direction and the pitch (Pitch) direction, for example. As shown in FIG. 2B, the rotational movement in the yaw direction is a rotational movement with the vertical direction (Y-axis direction) of the camera 1 as an axis. The rotational movement in the pitch direction is a rotational movement about the horizontal direction (X-axis direction) of the camera 1, that is, an inclination of the camera 1 in the front-rear direction. The angular velocity sensor 9 may further detect an angular velocity in a roll direction, which is a rotation direction about the front-rear direction (Z-axis direction) of the camera 1.

変倍操作部10は、撮影光学系2における焦点距離(又は撮影倍率)を変える操作を行うための操作部である。例えば、変倍操作部10は、カメラ1のレンズ枠に設けられるリング状の操作部材である。変倍操作部10に接続されたカム枠は、変倍操作部10の回転操作によって回転し、カム枠の回転によりズームレンズが所定の位置に移動する。これにより、焦点距離(変倍率)が変更される。なお、変倍操作部10は、カム枠を直接的に回転させるものではなく、ズームレンズを駆動するモータへの制御量をシステムコントローラ8に通知する指示部などであってもよい。   The zooming operation unit 10 is an operation unit for performing an operation of changing the focal length (or imaging magnification) in the imaging optical system 2. For example, the zoom operation unit 10 is a ring-shaped operation member provided on the lens frame of the camera 1. The cam frame connected to the zoom operation unit 10 is rotated by the rotation operation of the zoom operation unit 10, and the zoom lens is moved to a predetermined position by the rotation of the cam frame. As a result, the focal length (magnification) is changed. Note that the zooming operation unit 10 does not directly rotate the cam frame, but may be an instruction unit that notifies the system controller 8 of a control amount to the motor that drives the zoom lens.

レリーズSW11は、ユーザーがカメラ1に対して撮影開始指示を入力する例えば2段式のボタンである。また、レリーズSW11は、カメラ1の上面に配置され、半押し状態となる1段目の1stレリーズにより撮影準備開始が指示され、全押し状態となる2段目の2ndレリーズにより露光(露出)開始指示がされる。   The release SW 11 is, for example, a two-stage button for the user to input a shooting start instruction to the camera 1. The release SW 11 is arranged on the upper surface of the camera 1 and is instructed to start shooting preparation by the first release of the first stage that is half-pressed, and starts exposure (exposure) by the second release of the second stage that is fully pressed. I am instructed.

EVF12は、撮影された画像や操作設定情報を画像として表示する表示装置である。EVF12の表示体は、例えばTFTあるいは有機ELである。なお、表示装置としては、EVF12と共にあるいはEVF12の代わりに、カメラ1の背面に大型の液晶表示装置などを備えてもよい。   The EVF 12 is a display device that displays captured images and operation setting information as images. The display body of the EVF 12 is, for example, a TFT or an organic EL. In addition, as a display apparatus, you may provide a large sized liquid crystal display apparatus etc. in the back surface of the camera 1 with EVF12 instead of EVF12.

メモリーカード13は、撮影された画像の画像データを記録再生する記録媒体の一例であって、カメラ1に対して着脱可能に配置される。また、メモリーカード13は、不揮発性の記録媒体である。   The memory card 13 is an example of a recording medium that records and reproduces image data of a photographed image, and is detachably disposed on the camera 1. The memory card 13 is a non-volatile recording medium.

設定ダイヤル14は、カメラ本体1にあるユーザーからの操作入力手段であり、ユーザーがEVF12に表示されたメニュー画面に応じて、カメラ本体1に含まれる機能に係る各種設定(例えば、カメラモードや絞り値)を変更するためのものである。設定ダイヤル14は、撮影時の露出条件を複数の露出設定モードから選択して設定させる撮影モード設定部の一例として機能する。なお、この撮影モード設定部としては、ダイヤル操作による操作指示を受けるものに限らず、例えば、タッチパネルが設けられたEVF12や、操作指示時に押下されるボタンなどであってもよい。   The setting dial 14 is an operation input means from a user in the camera body 1, and according to a menu screen displayed on the EVF 12 by the user, various settings relating to functions included in the camera body 1 (for example, camera mode and aperture) Value). The setting dial 14 functions as an example of a shooting mode setting unit that selects and sets an exposure condition during shooting from a plurality of exposure setting modes. Note that the photographing mode setting unit is not limited to receiving an operation instruction by a dial operation, and may be, for example, an EVF 12 provided with a touch panel, a button pressed at the time of an operation instruction, or the like.

次に各部の作用の流れについて説明する。
被写体からの光束は、撮影光学系2により、撮像素子5の受光面に被写体像として結像される。撮像素子5から出力された映像データは、システムコントローラ8の制御によってライブビュー画像としてEVF12に表示される。
Next, the flow of operation of each part will be described.
The light flux from the subject is formed as a subject image on the light receiving surface of the image sensor 5 by the photographing optical system 2. The video data output from the image sensor 5 is displayed on the EVF 12 as a live view image under the control of the system controller 8.

フォーカルプレーンシャッター4は、システムコントローラ8からの指示に基づいて、シャッター幕の開閉動作をして、撮像素子5の露出状態と遮光状態とを切替える。
具体的には、ユーザーによりレリーズSW11が押下(全押し状態)されると、システムコントローラ8は、設定されたシャッター速度に基づいて、フォーカルプレーンシャッター4を開閉動作制御し、シャッター速度に基づいた所定期間の間、撮像素子5を露出状態とする。
Based on an instruction from the system controller 8, the focal plane shutter 4 opens and closes the shutter curtain to switch between the exposure state and the light shielding state of the image sensor 5.
Specifically, when the release SW 11 is pressed (fully pressed) by the user, the system controller 8 controls the opening / closing operation of the focal plane shutter 4 based on the set shutter speed, and a predetermined value based on the shutter speed. During the period, the image sensor 5 is exposed.

撮像素子5は、受光面が露出した状態で結像された被写体像を光電変換する。システムコントローラ8は、撮像素子5から光電変換された各画素に対応する電荷量を映像データとして読み出す。また、システムコントローラ8は、撮像素子5に対して、光電変換による電荷蓄積の開始及び終了と、蓄積された電荷を映像データとして読み出す制御信号とを出力する。   The image sensor 5 photoelectrically converts a subject image formed with the light receiving surface exposed. The system controller 8 reads out the charge amount corresponding to each pixel photoelectrically converted from the image sensor 5 as video data. Further, the system controller 8 outputs to the image sensor 5 the start and end of charge accumulation by photoelectric conversion and a control signal for reading the accumulated charge as video data.

システムコントローラ8は、撮像素子5によって読み出された映像データを受信し、更に、この映像データに対して種々の信号処理を施す。また、種々の信号処理が施された後の映像データは、EVF12に対して、撮影時のライブビュー映像として逐次表示されたり、撮影された後に生成された画像データとしてメモリーカード13或いはカメラ1に内蔵された記憶部に記録されたりする。   The system controller 8 receives the video data read by the image sensor 5 and further performs various signal processing on the video data. The video data after various signal processing is sequentially displayed on the EVF 12 as a live view video at the time of shooting, or as image data generated after shooting on the memory card 13 or the camera 1. Or recorded in a built-in storage unit.

角速度センサ9は、カメラ1の姿勢変化に伴う、所定の回転軸周りの回転運動の角速度を検出して、ブレ補正マイコン7に角速度情報を通知する。ここでは、角速度センサ9は、撮影光学系2の光軸Laと直交する面に対してカメラ1の水平方向(X軸方向)を回転軸とした回転運動であるピッチ方向と、撮影光学系2の光軸Laと直交する面に対して垂直方向(Y軸方向)を回転軸とした回転運動であるヨー方向との角速度を検出する。   The angular velocity sensor 9 detects the angular velocity of the rotational motion around a predetermined rotational axis accompanying the change in the posture of the camera 1 and notifies the blur correction microcomputer 7 of the angular velocity information. Here, the angular velocity sensor 9 includes a pitch direction that is a rotational motion with the horizontal direction (X-axis direction) of the camera 1 as a rotation axis with respect to a plane orthogonal to the optical axis La of the photographing optical system 2, and the photographing optical system 2. The angular velocity with respect to the yaw direction, which is a rotational motion with the direction perpendicular to the plane (Y-axis direction) as the rotation axis, with respect to the plane perpendicular to the optical axis La of the lens is detected.

ブレ補正マイコン7は、ヨー方向及びピッチ方向に対してそれぞれ取得した角速度に基づいて、カメラ1の姿勢変化に伴う角度変化を算出する。そして、ブレ補正マイコン7は、ヨー方向及びピッチ方向に対するそれぞれの角度変化量と、撮影光学系2の焦点距離の情報とに基づいて撮像素子5の受光面に生じる水平方向及び垂直方向に対する像ブレ量(像面移動量)を算出する。更に、ブレ補正マイコン7は、これらの像ブレ量を打ち消す方向に撮像素子5の受光面を水平方向及び垂直方向にそれぞれ移動させるように、駆動部6を制御する。これにより、ブレの無い画像を撮影することができる。   The shake correction microcomputer 7 calculates an angle change accompanying a change in the posture of the camera 1 based on the angular velocities acquired with respect to the yaw direction and the pitch direction, respectively. The blur correction microcomputer 7 then performs image blurring on the light receiving surface of the image sensor 5 with respect to the horizontal direction and the vertical direction based on the respective angle change amounts with respect to the yaw direction and the pitch direction and the focal length information of the photographing optical system 2. The amount (image plane movement amount) is calculated. Further, the blur correction microcomputer 7 controls the drive unit 6 so as to move the light receiving surface of the image sensor 5 in the horizontal direction and the vertical direction in a direction to cancel out these image blur amounts. Thereby, an image without blurring can be taken.

変倍率操作部10は、ユーザー操作に基づいて、撮影光学系2の変倍率(ズーム倍率、焦点距離)を変更する。このとき、撮影光学系2の変倍率に合わせて、撮影光学系2に含まれるレンズ等の光軸方向への位置が変化する。更に、エンコーダ3によって、撮影光学系2に含まれるレンズ等に対する光軸方向の位置が検出され、検出された位置情報に基づいて、システムコントローラ8が焦点距離の情報などに変換する。   The variable magnification operation unit 10 changes the variable magnification (zoom magnification, focal length) of the photographing optical system 2 based on a user operation. At this time, the position of the lens or the like included in the photographing optical system 2 in the optical axis direction changes in accordance with the magnification of the photographing optical system 2. Furthermore, the position in the optical axis direction with respect to the lens or the like included in the photographing optical system 2 is detected by the encoder 3, and the system controller 8 converts the information into focal length information or the like based on the detected position information.

図3は、ブレ補正マイコン7の内部機能を示すブロック図である。
ブレ補正マイコン7は、CPU70と、ADC(Analog to Digital Convertor)71と、SIO(Serial Input and Output interface unit)72と、ドライバ73と、基準算出部74と、演算部75と、流し撮り検出部76と、ブレ補正部77と、通信部78と、を有する。
FIG. 3 is a block diagram showing the internal functions of the blur correction microcomputer 7.
The blur correction microcomputer 7 includes a CPU 70, an ADC (Analog to Digital Converter) 71, a SIO (Serial Input and Output interface unit) 72, a driver 73, a reference calculation unit 74, a calculation unit 75, and a panning detection unit. 76, a blur correction unit 77, and a communication unit 78.

CPU70は、制御プログラムを読み込んで所定の処理を実行する演算処理手段である。CPU70により実行される処理を、基準算出部74、減算部75、流し撮り検出部76、ブレ補正部77、通信部78として表す。このように、CPU70により実行される各処理は、ブレ補正マイコン7で動作するプログラムとして実装され、例えば、ファームウェアによって演算機能が生成される。なお、演算処理の各機能は、CPU70内で動作するプログラムによって構成される方式に限らず、例えば複数の電子回路で構成される方式であってもよい。これは、後述するシステムコントローラ8が有するCPUに関しても同様である。   The CPU 70 is arithmetic processing means that reads a control program and executes predetermined processing. The processing executed by the CPU 70 is represented as a reference calculation unit 74, a subtraction unit 75, a panning detection unit 76, a shake correction unit 77, and a communication unit 78. In this manner, each process executed by the CPU 70 is implemented as a program that operates on the shake correction microcomputer 7, and for example, a calculation function is generated by firmware. Each function of the arithmetic processing is not limited to a method configured by a program operating in the CPU 70, and may be a method configured by, for example, a plurality of electronic circuits. The same applies to a CPU included in the system controller 8 described later.

ADC71は、角速度センサ9から角速度の検出値であるアナログ信号を入力し、AD変換して、CPU70で扱うことができるデジタル値に変換する。また、ADC71は、角速度センサ9からの角速度を平均化する処理も行う。   The ADC 71 receives an analog signal that is a detected value of the angular velocity from the angular velocity sensor 9, performs AD conversion, and converts it into a digital value that can be handled by the CPU 70. The ADC 71 also performs processing for averaging the angular velocities from the angular velocity sensor 9.

SIO72は、システムコントローラ8との間でデータの送受信を行うシリアルインターフェースである。
ドライバ73は、CPU70から駆動部6に対して操作信号を出力する。また、ドライバ73は、例えば、スイッチング制御によりPWM(Pulse Width Modulation)変調して操作量を出力するPWMドライバ方式と、操作量をアナログ量として出力するリニアドライバ方式との両方に対応している。
The SIO 72 is a serial interface that transmits and receives data to and from the system controller 8.
The driver 73 outputs an operation signal from the CPU 70 to the drive unit 6. The driver 73 corresponds to both a PWM driver system that outputs an operation amount by PWM (Pulse Width Modulation) modulation by switching control and a linear driver system that outputs the operation amount as an analog amount.

次に、ブレ補正マイコン7内の機能の詳細作用について説明する。
まず、角速度センサ9から角速度の検出値であるアナログ信号が入力されると、ADC71は、所定の時間周期毎にAD変換を行い、CPU70で演算可能なデジタル値に変換する。
Next, the detailed operation of the function in the blur correction microcomputer 7 will be described.
First, when an analog signal that is a detected value of angular velocity is input from the angular velocity sensor 9, the ADC 71 performs AD conversion for each predetermined time period and converts it into a digital value that can be calculated by the CPU 70.

基準算出部74は、カメラ1が静止状態となるときの角速度の値を基準値として算出する。
減算部75は、逐次、角速度センサ9が検出した角速度の検出値に対してADC71によりAD変換された値から、基準算出部74が算出した角速度の基準値を減算処理する。減算部75による演算出力は、ヨー及びピッチ方向に対する回転方向の正負に対応する符号付きの値となる。このときの符号は、ヨー及びピッチ方向に対する回転方向の正負情報を示すことになる。
The reference calculation unit 74 calculates the value of the angular velocity when the camera 1 is in a stationary state as a reference value.
The subtractor 75 sequentially subtracts the reference value of the angular velocity calculated by the reference calculator 74 from the value AD-converted by the ADC 71 with respect to the detected value of the angular velocity detected by the angular velocity sensor 9. The calculation output by the subtracting unit 75 is a signed value corresponding to the sign of the rotation direction with respect to the yaw and pitch directions. The sign at this time indicates the positive / negative information of the rotation direction with respect to the yaw and pitch directions.

以上の基準算出74及び減算部75による演算処理は、ADC71の角速度検出値に対して、直流成分を除去するハイパスフィルタ演算処理(HPF:High-Pass Filtering operation)などでも代用することが可能であり、本方法に限定するものではない。   The above calculation processing by the reference calculation 74 and the subtraction unit 75 can be replaced by high-pass filtering operation (HPF: High-Pass Filtering operation) for removing a direct current component from the angular velocity detection value of the ADC 71. However, the present invention is not limited to this method.

次に、減算部75によって符号付きの値に変換された角速度は、流し撮り検出部76に入力される。そして、流し撮り検出部76は、角速度情報に基づいてカメラ1が流し撮り状態であるか否かを判定する。この流し撮り検出部76の判定処理は、流し撮り判定手段として機能する。   Next, the angular velocity converted into a signed value by the subtracting unit 75 is input to the panning detection unit 76. Then, the panning detection unit 76 determines whether the camera 1 is in the panning state based on the angular velocity information. The determination process of the panning detection unit 76 functions as a panning determination unit.

流し撮り検出部76は、流し撮り中か否かの判定結果に応じて、駆動部6を駆動して補正すべき角速度をブレ補正部77に通知する。更に、流し撮り検出部76は、流し撮り操作に係る角速度を算出する角速度算出手段としても機能し、算出した結果となる情報を、通信部78を介してSIO72経由でシステムコントローラ8に通知する。   The panning detection unit 76 drives the driving unit 6 to notify the blur correction unit 77 of the angular velocity to be corrected according to the determination result of whether the panning is being performed. Further, the panning detection unit 76 also functions as an angular velocity calculation unit that calculates an angular velocity related to the panning operation, and notifies the system controller 8 of information obtained as a result of the calculation via the SIO 72 via the communication unit 78.

ここで、上述の流し撮りと判定された場合の補正すべき角速度とは、検出した角速度に係り、減算部75で減算された符号付きの角速度出力から、流し撮り操作に係る角速度(後述する図4の時間t1〜t2の期間で算出され、流し撮り時の基準となる角速度ω)を差し引いた値である。なお、流し撮りでない場合の補正すべき角速度は、検出した角速度そのままである。つまり、流し撮り検出部76は、流し撮りでない場合は、流し撮りと判定された場合の補正すべき角速度を演算出力する。   Here, the angular velocity to be corrected when it is determined to be the above-described panning shot is related to the detected angular velocity, and the angular velocity relating to the panning operation (a diagram to be described later) from the signed angular velocity output subtracted by the subtracting unit 75. 4 is a value obtained by subtracting the angular velocity ω) that is calculated in the period of time t1 to t2 and that is a reference during panning. Note that the angular velocity to be corrected in the case of non-panning is the detected angular velocity. In other words, when the panning is not panning, the panning detection unit 76 calculates and outputs the angular velocity to be corrected when it is determined to be panning.

ブレ補正部77は、まず、入力された角速度を時間積分してカメラ1の姿勢変化による角度変化を算出する。この角度変化は、撮影開始時点のカメラ1の姿勢と、ある時間後の姿勢変化した際の姿勢との角度の差のことである。   The blur correction unit 77 first calculates an angle change due to a change in the posture of the camera 1 by time-integrating the input angular velocity. This angle change is a difference in angle between the posture of the camera 1 at the start of photographing and the posture when the posture is changed after a certain time.

次に、ブレ補正部77は、上述の入力された角速度を時間積分して算出された角度変化と撮影光学系2の焦点距離とから撮像素子5の受光面(撮像面)に生じる像ブレ量(像面移動量)を算出する。そして、ブレ補正部77は、算出した像ブレ量を打ち消すように駆動部6を駆動するための補正量を算出する。   Next, the blur correction unit 77 generates an image blur amount generated on the light receiving surface (imaging surface) of the image sensor 5 from the angle change calculated by time integration of the input angular velocity and the focal length of the imaging optical system 2. (Image plane movement amount) is calculated. Then, the blur correction unit 77 calculates a correction amount for driving the drive unit 6 so as to cancel the calculated image blur amount.

更に、算出された補正量は、ドライバ73を介して駆動部6に操作量(操作信号)として伝達される。駆動部6は、算出された操作量に基づいて撮像素子5を移動(駆動)することでブレ補正動作が実施される。   Further, the calculated correction amount is transmitted as an operation amount (operation signal) to the drive unit 6 via the driver 73. The drive unit 6 moves (drives) the image sensor 5 based on the calculated operation amount, thereby performing the shake correction operation.

次に、図3に示す流し撮り検出部76及びブレ補正部77の演算機能の作用に関連して、カメラ1が流し撮り中に角速度センサ9が検出する角速度の変化について図4から図6を基に説明する。   Next, FIGS. 4 to 6 show changes in angular velocity detected by the angular velocity sensor 9 during panning of the camera 1 in relation to the operation of the calculation functions of the panning detection unit 76 and the shake correction unit 77 shown in FIG. Based on the explanation.

図4は、流し撮りが行われた場合の角速度センサ9の検出結果の時間変化を示すグラフである。
流し撮りがされる期間中は、角速度の検出値に以下の特徴的な傾向が生じる。
(1)基準値(静止時の角速度)に対して、一方向に偏りが生じる。更に、
(2)角速度の大きさは、通常カメラ1を構えたときに生じる角速度よりも大きな角速度が発生する。
FIG. 4 is a graph showing temporal changes in the detection result of the angular velocity sensor 9 when panning is performed.
During the time of panning, the following characteristic tendency occurs in the detected angular velocity.
(1) Deviation occurs in one direction with respect to a reference value (angular velocity at rest). Furthermore,
(2) As for the magnitude of the angular velocity, an angular velocity larger than the angular velocity usually generated when the camera 1 is held is generated.

上記の特徴的な傾向から、流し撮り検出部76では、以下の方法で流し撮りを検出する。まず、上記(2)の特徴的な傾向より、通常カメラ1を構えたときに生じる角速度よりも高い流し撮り検出閾値THを設定する。   From the characteristic tendency described above, the panning detection unit 76 detects the panning by the following method. First, a panning detection threshold TH higher than the angular velocity generated when the normal camera 1 is held is set based on the characteristic tendency of (2) above.

次に、上記(1)の特徴的な傾向より、逐次検出される角速度が、流し撮り検出閾値THを所定期間(図4では時間t1〜t2)継続して超えた場合は、流し撮りが開始されたと判定する。そして、カメラ1に姿勢変化が生じない場合となる基準値と角速度とがクロスした場合(図4では時間t3)に、流し撮り検出部76は流し撮りが終了したと判定する。   Next, from the characteristic tendency of (1) above, when the angular velocity detected sequentially exceeds the panning detection threshold TH for a predetermined period (time t1 to t2 in FIG. 4), panning starts. It is determined that When the reference value and the angular velocity at which the posture change does not occur in the camera 1 crosses (time t3 in FIG. 4), the panning detection unit 76 determines that the panning has been completed.

従って、カメラ1が流し撮り状態にあると検出する流し撮り検出期間は、時間t2〜t3の期間となる。流し撮り開始の判定を、角速度の大きさだけはなく、一定以上の大きさの角速度が、設定期間である所定時間以上継続したことにより判定することで、カメラ1を大きく動かしただけの動作を流し撮りと誤判定することが防止できる。なお、図4に示す角速度の検出結果は、流し撮り時の角速度の値が正の値を示した例である。そのため、基準値とクロスした直後の角速度の値は、負の値となる。   Accordingly, the panning detection period for detecting that the camera 1 is in the panning state is a period of time t2 to t3. The determination of the start of panning is not only based on the magnitude of the angular velocity, but also by determining that the angular velocity of a certain magnitude or more has continued for a predetermined time, which is a set period, so that the camera 1 can be moved greatly. It is possible to prevent erroneous determination as panning. The angular velocity detection result shown in FIG. 4 is an example in which the angular velocity value at the time of panning shows a positive value. For this reason, the value of the angular velocity immediately after crossing the reference value is a negative value.

図5は、流し撮りを行う際に、流し撮りを行う方向に対して、カメラ1が水平又は垂直方向に対して傾いていた場合や、カメラ1に対して斜め方向に流し撮りを行った場合での、流し撮り検出部76に入力されるヨー方向(ωyaw)、ピッチ方向(ωpitch)、並びに、これらヨー方向及びピッチ方向の成分を含む絶対値(ωpan:破線)となる角速度の変化を示すグラフである。   FIG. 5 shows a case where the camera 1 is tilted with respect to the horizontal or vertical direction with respect to the direction in which the panning is performed, or when the panning is performed in an oblique direction with respect to the camera 1. 4 shows changes in the yaw direction (ωyaw) and pitch direction (ωpitch) input to the panning detection unit 76 and the angular velocity that is an absolute value (ωpan: broken line) including components in the yaw direction and the pitch direction. It is a graph.

この場合、角速度の偏りは、図5のようにヨー方向及びピッチ方向双方に発生する。
実際の流し撮りに基づく角速度は、ヨー方向及びピッチ方向の角速度を2乗平均したωpanとなる。以下に関係式を示す。
In this case, the angular velocity deviation occurs in both the yaw direction and the pitch direction as shown in FIG.
The angular velocity based on the actual panning is ωpan obtained by squaring the angular velocity in the yaw direction and the pitch direction. The relational expression is shown below.

ここで、式1で示すωpanは、ヨー方向及びピッチ方向の角速度成分を合成した角速度の絶対値である。
図6は、ωyaw、ωpitch及びωpanの方向関係を示す座標である。なお、図6では、ωyawをX軸、ωpitchをY軸としている。
Here, ωpan shown in Expression 1 is an absolute value of the angular velocity obtained by combining the angular velocity components in the yaw direction and the pitch direction.
FIG. 6 shows coordinates indicating the directional relationship between ωyaw, ωpitch, and ωpan. In FIG. 6, ωyaw is the X axis and ωpitch is the Y axis.

流し撮り方向の傾き角度は、図6のような関係となり、各軸に対する傾き角度(θpitch又はθyaw)を、ヨー方向(ωyaw)とピッチ方向(ωpitch)との角速度の比から算出することができる。   The inclination angle in the panning direction has a relationship as shown in FIG. 6, and the inclination angle (θpitch or θyaw) with respect to each axis can be calculated from the ratio of the angular velocities between the yaw direction (ωyaw) and the pitch direction (ωpitch). .

以上が、ブレ補正マイコン7が行う、流し撮り判定作用、並びに、流し撮り判定がされた場合の流し撮り方向(傾き)及び絶対値となる角速度の大きさの検出作用である。
図7は、システムコントローラ8の機能ブロック図である。なお、図7は、本実施の形態の特徴点を機能ブロック図として示したものである。
The above is the panning determination operation performed by the blur correction microcomputer 7, and the detection operation of the panning direction (inclination) and the magnitude of the angular velocity when the panning determination is performed.
FIG. 7 is a functional block diagram of the system controller 8. FIG. 7 shows the feature points of this embodiment as a functional block diagram.

図7に示すシステムコントローラ8は、上述のようにカメラ1の全体を統括して制御する。
流し撮りモードでのシャッター速度は、システムコントローラ8内部のプログラム処理により算出される。システムコントローラ8は、傾き検出部81と、流し撮り角速度算出部82と、流し撮りTv値算出部83と、AE制御部84と、SIO85と、を有する。傾き検出部81、流し撮り角速度算出部82、流し撮りTv値算出部83、及びAE制御部84は、システムコントローラ8のCPUのソフトウェア処理により実行される機能である。
The system controller 8 shown in FIG. 7 controls the entire camera 1 as described above.
The shutter speed in the panning mode is calculated by a program process inside the system controller 8. The system controller 8 includes an inclination detection unit 81, a panning angular velocity calculation unit 82, a panning Tv value calculation unit 83, an AE control unit 84, and an SIO 85. The tilt detection unit 81, the panning angular velocity calculation unit 82, the panning Tv value calculation unit 83, and the AE control unit 84 are functions executed by software processing of the CPU of the system controller 8.

傾き検出部81へ入力される情報として、ブレ補正マイコン7から出力されるヨー方向及びピッチ方向の流し撮り時の基準となる角速度情報がある。なお、焦点距離情報は、エンコーダ3が検出した撮影光学系2に含まれるレンズの位置情報に基づいて算出される。   As information input to the inclination detection unit 81, there is angular velocity information which is a reference at the time of panning in the yaw and pitch directions output from the shake correction microcomputer 7. The focal length information is calculated based on the position information of the lens included in the photographing optical system 2 detected by the encoder 3.

傾き検出部81及び流し撮り角速度算出部82は、流し撮り方向の情報を含めた流し撮り時の角速度(ωpan)を算出する演算手段である。
流し撮りTv値算出部83は、流し撮り時の角速度と、撮影光学系2の焦点距離情報とから、流し撮り時のシャッター速度を算出する。
The inclination detection unit 81 and the panning angular velocity calculation unit 82 are calculation units that calculate an angular velocity (ωpan) at the time of panning including information on the panning direction.
The panning Tv value calculation unit 83 calculates the shutter speed during panning from the angular velocity during panning and the focal length information of the photographing optical system 2.

流し撮りTv値算出部83から露出制御部であるAE制御部84へ出力される情報として、フォーカルプレーンシャッター4に対するシャッターの開閉操作量がある。
傾き検出部81は、ブレ補正マイコン7から図3に示すSIO72及び図7に示すSIO85を介して取得されたヨー方向の角速度及びピッチ方向の角速度からカメラ1が振られている軸と、角速度の検出軸の傾き量θpitch又はθyawと、を検出する。
Information output from the panning Tv value calculation unit 83 to the AE control unit 84 that is an exposure control unit includes a shutter opening / closing operation amount with respect to the focal plane shutter 4.
The tilt detection unit 81 includes an axis at which the camera 1 is shaken from the angular velocity in the yaw direction and the angular velocity in the pitch direction acquired from the blur correction microcomputer 7 via the SIO 72 shown in FIG. 3 and the SIO 85 shown in FIG. The inclination amount θpitch or θyaw of the detection axis is detected.

流し撮り角速度算出部82は、傾き検出部81が検出する傾き量に基づく判断の結果、所定量以上に傾いている場合には、角速度の補正をして、実際の角速度ωpanを算出する。これら実際の角速度ωpanの算出は、上述の式1により求めることができる。   The panning angular velocity calculation unit 82 calculates the actual angular velocity ωpan by correcting the angular velocity when the inclination based on the amount of inclination detected by the inclination detecting unit 81 is tilted to a predetermined amount or more. The calculation of these actual angular velocities ωpan can be obtained by the above-described equation 1.

流し撮りTv値算出部83は、流し撮り角速度算出部82が算出した角速度と焦点距離とに基づいて流し撮りシャッター速度を算出し、流し撮りTv値に変換する。
AE制御部84は、フォーカルプレーンシャッター4(撮像部)に対して、映像データを取得する際の露出条件の制御を行う。また、AE制御部84は、第1の露出制御手段84aと、第2の露出制御手段84bと、露出判定手段84cと、下限値規定手段84dと、を有する。
The panning shot Tv value calculation unit 83 calculates the panning shutter speed based on the angular velocity and the focal length calculated by the panning angular velocity calculation unit 82 and converts them into a panning Tv value.
The AE control unit 84 controls the exposure condition when acquiring video data for the focal plane shutter 4 (imaging unit). The AE control unit 84 includes a first exposure control unit 84a, a second exposure control unit 84b, an exposure determination unit 84c, and a lower limit value defining unit 84d.

第1の露出制御手段84aは、撮像素子5(撮像部)が取得する映像データの輝度情報に基づいて、像ブレを生じさせないように撮影を行うための露出制御(Pモード露出制御)を行う。   The first exposure control unit 84a performs exposure control (P-mode exposure control) for performing shooting so as not to cause image blur based on luminance information of video data acquired by the imaging device 5 (imaging unit). .

第2の露出制御手段84bは、角速度センサ9が取得する角速度情報と、撮影光学系2の焦点距離情報とに基づいて決定される露光時間に基づいて、撮影時の露出制御(流し撮り露出制御)を行う。   The second exposure control unit 84b is configured to perform exposure control during shooting based on the exposure time determined based on the angular velocity information acquired by the angular velocity sensor 9 and the focal length information of the photographing optical system 2. )I do.

露出判定手段84cは、第2の露出制御手段84bの露出制御において映像データが、適正露光が得られるか否かを判定する。
下限値規定手段84dは、第2の露出制御手段84bにより露出制御を行う場合における露光時間の下限値を規定する。なお、露光時間が下限値を下回る場合は、第2の露出制御手段84bによる流し撮り露出制御ではなく、第1の露出制御手段84aによるPモード露出制御が行われる。
下限値は、例えば撮影光学系2の焦点距離に基づいて、手ブレの影響が見え始めるシャッター速度である手ブレ限界秒時(1/35mm換算焦点距離)よりも2段落低い、つまり4倍のシャッター速度とするなどの方法でも良い。
The exposure determination unit 84c determines whether or not the video data can be properly exposed in the exposure control of the second exposure control unit 84b.
The lower limit value defining means 84d defines the lower limit value of the exposure time when exposure control is performed by the second exposure control means 84b. When the exposure time is less than the lower limit value, P-mode exposure control is performed by the first exposure control unit 84a, not by panning exposure control by the second exposure control unit 84b.
The lower limit value is, for example, four times lower than the camera shake limit second (1/35 mm equivalent focal length), which is the shutter speed at which the influence of camera shake starts to appear based on the focal length of the photographic optical system 2, for example. A method such as a shutter speed may be used.

次に、流し撮りモードが選択された場合のシステムコントローラ8及びブレ補正マイコン7の制御の流れを図8に基づいて説明する。
図8の左側の処理は、システムコントローラ8の制御の流れを示し、図8の右側の処理は、ブレ補正マイコン7の制御の主な流れを示すものである。図8の左側(システムコントローラ8)と右側(ブレ補正マイコン7)とに渡る信号の流れは、システムコントローラ8とブレ補正マイコン7との相互間での通信を示す。
Next, the control flow of the system controller 8 and the shake correction microcomputer 7 when the panning mode is selected will be described with reference to FIG.
The processing on the left side of FIG. 8 shows the control flow of the system controller 8, and the processing on the right side of FIG. 8 shows the main flow of control of the shake correction microcomputer 7. The flow of signals across the left side (system controller 8) and the right side (blur correction microcomputer 7) in FIG. 8 indicates communication between the system controller 8 and the blur correction microcomputer 7.

まず、流し撮りモードが選択されると、システムコントローラ8は、カメラ状態取得コマンド(コマンド−1)をブレ補正マイコン7に発行し、カメラ1の状態を取得する(ステップSC1)。   First, when the panning mode is selected, the system controller 8 issues a camera state acquisition command (command-1) to the shake correction microcomputer 7 and acquires the state of the camera 1 (step SC1).

ここで、カメラ1の状態には、流し撮り中か否かの判定状態結果(流し撮り判定フラグの有無)と、流し撮り角速度の値とが含まれる。流し撮り角速度は、図4に示す所定期間(検出期間t1~t2)での角速度の平均値とする。   Here, the state of the camera 1 includes a determination state result (whether there is a panning determination flag) whether or not the panning is being performed, and a panning angular velocity value. The panning angular velocity is an average value of angular velocities in a predetermined period (detection period t1 to t2) shown in FIG.

更に、流し撮り判定フラグが、流し撮り検出中の場合(例えば、図4に示す時間t2〜t3)は、流し撮り角速度は有効な値として用い、流し撮り検出中でない場合は、流し撮り角速度は無効な値となる。   Further, when the panning shot determination flag is during detection of the panning shot (for example, time t2 to t3 shown in FIG. 4), the panning angular velocity is used as an effective value, and when the panning shot detection is not being performed, the panning angular velocity is Invalid value.

流し撮り検出中となる条件としては、図4に示すように角速度が閾値THを超えて(時間t1)から所定の検出期間(時間t2〜t1の期間)を超えても閾値THの値を超えている状態が一例として挙げられる。   As shown in FIG. 4, the condition for detecting the panning shot is that the threshold value TH is exceeded even if the angular velocity exceeds the threshold value TH (time t1) and exceeds a predetermined detection period (time period t2 to t1). An example is the state of

一方、ブレ補正マイコン7は、まずカメラ状態取得コマンド(コマンド−1)を受信したら、流し撮り判定フラグ及び流し撮り角速度を応答する(ステップBC1)。
次に、システムコントローラ8は、取得した流し撮り判定フラグに基づいてカメラ1が流し撮り中かを判定する(ステップSC2)。
On the other hand, when the camera shake correction microcomputer 7 first receives a camera state acquisition command (command-1), it responds with a panning determination flag and a panning angular velocity (step BC1).
Next, the system controller 8 determines whether the camera 1 is performing the panning based on the acquired panning determination flag (step SC2).

流し撮り判定フラグに基づいてカメラ1が流し撮り中であると判定される場合(ステップSC2がYES)、流し撮りTv値算出部83は、ブレマイコン7から送信される角速度平均値である流し撮り角速度に応じて、流し撮りシャッター速度算出を行う(ステップSC3)。流し撮りシャッター速度算出処理(ステップSC3)に関しては、後述する。   When it is determined that the camera 1 is in the state of panning based on the panning determination flag (step SC2 is YES), the panning Tv value calculation unit 83 is a panning that is an average angular velocity value transmitted from the blur microcomputer 7. According to the angular velocity, the panning shutter speed is calculated (step SC3). The panning shutter speed calculation process (step SC3) will be described later.

一方、流し撮り判定フラグに基づいてカメラ1が流し撮り中でないと判定される場合(ステップSC2がNO)、流し撮りシャッター速度算出処理(ステップSC3)は行われずに、AE制御処理(ステップSC4)が行われる。   On the other hand, when it is determined that the camera 1 is not in the state of panning based on the panning determination flag (step SC2 is NO), the panning shutter speed calculation processing (step SC3) is not performed and the AE control processing (step SC4). Is done.

詳しくは後述するが、AE制御処理(ステップSC4)では、設定ダイヤル14(撮影モード設定部)が、映像データから自動的に露光時間及び露出開口量を判断する露出設定モードに選択された状態において、カメラ1が流し撮り状態にあると流し撮り検出部76(流し撮り判定部)が判定した場合で、且つ、適正露光が得られると露出判定手段84cが判定した場合において、第2の露出制御手段84bにより、角速度情報と焦点距離情報とから決定される露光時間に基づく流し撮り露出制御が行われる。   As will be described in detail later, in the AE control process (step SC4), the setting dial 14 (shooting mode setting unit) is selected in the exposure setting mode for automatically determining the exposure time and the exposure opening amount from the video data. The second exposure control is performed when the panning detection unit 76 (the panning determination unit) determines that the camera 1 is in the panning state and when the exposure determination unit 84c determines that proper exposure is obtained. By means 84b, panning exposure control based on the exposure time determined from the angular velocity information and the focal length information is performed.

また、設定ダイヤル14(撮影モード設定部)が、映像データから自動的に露光時間及び露出開口量を判断する露出設定モードに選択された上記の状態において、カメラ1が流し撮り状態にないと流し撮り検出部76が判定した場合、第1の露出制御手段84aにより輝度情報に基づくPモード露出制御が行われる。   In addition, when the setting dial 14 (shooting mode setting unit) is selected in the exposure setting mode in which the exposure time and the exposure opening amount are automatically determined from the video data, the camera 1 is not in the panning shooting state. When the shooting detection unit 76 determines, P-mode exposure control based on luminance information is performed by the first exposure control unit 84a.

なお、上述の輝度値の取得は、例えば、図示しない測光センサを用いるものや、ライブビュー撮影時に撮像素子5から取得される映像データより被写体の輝度値を逐次取得するものが挙げられる。   Note that the above-described luminance value acquisition includes, for example, a method using a photometric sensor (not shown) and a method in which the luminance value of a subject is sequentially acquired from video data acquired from the image sensor 5 during live view shooting.

AE制御処理(ステップSC4)の後、次の処理ステップとして、被写体に撮影光学系2のピントを合わせる動作であるAF処理(ステップSC5)が行われる。AF処理(ステップSC5)の後、次のステップとして撮影開始指示(露光開始)があったか否か、つまりレリーズSW11が全押し状態となったか否かが判定される(ステップSC6)。   After the AE control process (step SC4), as the next process step, an AF process (step SC5) which is an operation for focusing the photographing optical system 2 on the subject is performed. After the AF process (step SC5), it is determined as a next step whether or not an imaging start instruction (exposure start) has been issued, that is, whether or not the release SW11 has been fully pressed (step SC6).

撮影開始指示(露光開始)がなかった場合(ステップSC6がNO)は、再度ステップSC1に移行して、ステップSC1〜ステップSC6の処理が繰り返し行われる。
ここで、AE処理(ステップSC4)及びAF処理(ステップSC5)に関しては、毎周期行う必要はなく、必要に応じて実施されればよい。
If there is no shooting start instruction (exposure start) (NO in step SC6), the process proceeds to step SC1 again, and the processes in steps SC1 to SC6 are repeated.
Here, the AE process (step SC4) and the AF process (step SC5) do not need to be performed every cycle, and may be performed as necessary.

一方、撮影開始指示(露光開始)があった場合(ステップSC6がYES)、システムコントローラ8は、手ブレ補正が有効かを判断し(ステップSC7)、有効な場合(ステップSC7がYES)は補正開始指示(コマンド−2)をブレ補正マイコン7に通知する(ステップSC8)。その後、次のステップとして露光処理(ステップSC9)が開始されるが、手ブレ補正が無効な場合は、補正開始指示(コマンド−2)がブレ補正マイコン7に通知されずに、そのまま露光が開始する。   On the other hand, when there is a photographing start instruction (exposure start) (YES at step SC6), the system controller 8 determines whether camera shake correction is effective (step SC7), and when it is effective (YES at step SC7). A start instruction (command-2) is notified to the blur correction microcomputer 7 (step SC8). Thereafter, the exposure process (step SC9) is started as the next step. However, when the camera shake correction is invalid, the correction start instruction (command-2) is not notified to the camera shake correction microcomputer 7, and the exposure starts as it is. To do.

このとき、ブレ補正マイコン7は、システムコントローラ8から補正開始指示(コマンド−2)を受信したら、処理ステップとしてブレ補正を開始する(ステップBC2)。そして、ブレ補正マイコン7は、システムコントローラ8の処理が露光(ステップSC9)中の間はブレ補正を続ける(ステップBC3)。   At this time, when the shake correction microcomputer 7 receives a correction start instruction (command-2) from the system controller 8, it starts shake correction as a processing step (step BC2). The blur correction microcomputer 7 continues the blur correction while the processing of the system controller 8 is during exposure (step SC9) (step BC3).

なお、ブレ補正マイコン7は、流し撮り検出状態の場合、流し撮り時に基準とした角速度に対する角速度の偏差に基づいてブレ補正制御を行う。つまり、流し撮り時の角速度のムラを補正する。一方、ブレ補正マイコン7は、流し撮り状態を検出しない場合、カメラ1の姿勢変化に伴う角速度に基づいてブレ補正する。つまり、カメラ1の姿勢変化がない状態を基準の角速度(ゼロ)として、逐次検出された角速度に応じてブレ補正する(通常の手ブレ補正)。   In the case of the panning detection state, the blur correction microcomputer 7 performs the blur correction control based on the deviation of the angular velocity with respect to the angular velocity used as a reference at the time of panning. That is, unevenness in angular velocity during panning is corrected. On the other hand, the blur correction microcomputer 7 corrects the blur based on the angular velocity accompanying the posture change of the camera 1 when the panning state is not detected. In other words, a state in which the posture of the camera 1 is not changed is set as a reference angular velocity (zero), and shake correction is performed according to the sequentially detected angular velocity (normal camera shake correction).

再び、システムコントローラ8の制御ステップの説明に戻り、システムコントローラ8は、露光(ステップSC9)が終了すると、手ブレ補正が有効かを判断し(ステップSC10)、有効な場合(ステップSC10がYES)には補正終了コマンド(コマンド−3)をブレ補正マイコン7に通知する補正終了指示を行う(ステップSC11)。一方、手ブレ補正が無効な場合(ステップSC10がNO)、そのまま撮影が終了する。   Returning to the description of the control steps of the system controller 8 again, when the exposure (step SC9) is completed, the system controller 8 determines whether camera shake correction is effective (step SC10), and if it is effective (YES at step SC10). In step SC11, a correction end instruction is sent to notify the shake correction microcomputer 7 of a correction end command (command-3). On the other hand, when the camera shake correction is invalid (NO in step SC10), the photographing is finished as it is.

これに対して、ブレ補正マイコン7の処理では、システムコントローラ8から補正終了コマンド(コマンド−3)を受信したら、ブレ補正マイコン7は、補正を終了する(ステップBC4)。   On the other hand, in the process of the blur correction microcomputer 7, when the correction end command (command-3) is received from the system controller 8, the blur correction microcomputer 7 ends the correction (step BC4).

なお、システムコントローラ8は、露光(ステップSC9)が終了して補正終了指示(ステップSC11)を発行後も、流し撮りモードが継続中であれば、カメラ状態取得処理(ステップSC1)に戻って最初から処理を繰り返す。   Note that the system controller 8 returns to the camera state acquisition process (step SC1) and returns to the camera state acquisition process (step SC1) after the exposure (step SC9) is completed and the correction end instruction (step SC11) is issued. Repeat the process.

次に、流し撮りTv値の算出方法に関して詳しく説明する。
流し撮り角速度から、1秒間露光した場合の流れ量は以下の式2及び式3により求めることができる。
Next, a method for calculating the panning Tv value will be described in detail.
From the panning angular velocity, the flow amount when exposed for 1 second can be obtained by the following equations 2 and 3.


Fps=f×tanωpan≒f×ωpan×π/180 (式2)

ただし、
f:焦点距離
Fps:1秒あたりの流れ量
ωpan:流し撮り角速度

Fps = f × tan ωpan≈f × ωpan × π / 180 (Formula 2)

However,
f: Focal length Fps: Flow rate per second ωpan: Panning angular velocity

なお、式2の右辺で示すものは、流し撮り角速度ωpanの値が小さい値であるために近似できる際の算出例を示したものである。
流れ量をLとして、Lの流れ量を生じさせるためのシャッター速度を流し撮りシャッター速度Tpanとすると、流し撮りシャッター速度は以下となる。

Tpan=L/Fps (式3)

ただし、
Tpan:流し撮りシャッター速度
L:目標流れ量
In addition, what is shown by the right side of Formula 2 shows a calculation example when the value of the panning angular velocity ωpan is small and can be approximated.
Assuming that the flow rate is L and the shutter speed for generating the L flow amount is the panning shutter speed Tpan, the panning shutter speed is as follows.

Tpan = L / Fps (Formula 3)

However,
Tpan: Panning shutter speed L: Target flow rate

ここで、目標流れ量Lは、例えば撮像素子5のサイズが35mmフルサイズであり、目標の流れ量を長辺に対する5%とすると、Lは1.8mmである。
上述の手法により算出した流し撮りシャッター速度は、APEX(Additive system of Fhotographic EXposure)の式に基づき流し撮りTv値として変換できる。
Here, the target flow amount L is, for example, when the size of the image sensor 5 is 35 mm and the target flow amount is 5% of the long side, L is 1.8 mm.
The panning shutter speed calculated by the above method can be converted as a panning Tv value based on an APEX (Additive system of Fhotographic EXposure) formula.


Tvpan=−log2 Tpan (式4)

Tvpan = -log2 Tpan (Formula 4)

<第1の実施の形態>
本実施の形態の構成は、上述のブレマイコン7に示す流し撮りモードの構成及び制御はほぼ同一である。一方、図8に示すAE制御処理(ステップSC4)や流し撮りシャッター速度算出処理(ステップSC3)での制御に対して追加機能がある。
<First Embodiment>
In the configuration of the present embodiment, the configuration and control of the panning mode shown in the blur microcomputer 7 are substantially the same. On the other hand, there is an additional function to the control in the AE control process (step SC4) and the panning shutter speed calculation process (step SC3) shown in FIG.

よって、本実施の形態では、上述の追加機能の詳細説明を主に行い、上述の他の作用については説明が重複するので省略する。
最初に、図8に示すシステムコントローラ8の流し撮りTv値算出処理(ステップSC3)の詳細ステップを図9のフローチャートを基に説明する。
Therefore, in the present embodiment, the detailed description of the above-described additional function is mainly performed, and the description of the other functions described above is omitted because it is redundant.
First, detailed steps of the panning Tv value calculation process (step SC3) of the system controller 8 shown in FIG. 8 will be described based on the flowchart of FIG.

まず、図7に示す傾き検出部81及び流し撮り角速度算出部82は、上述のように、ヨー方向の角速度の平均値ωyawと、ピッチ方向の角速度の平均値ωpitchとから検出軸に対する傾きを算出する(ステップSC301)。   First, as described above, the inclination detection unit 81 and the panning angular velocity calculation unit 82 shown in FIG. 7 calculate the inclination with respect to the detection axis from the average value ωyaw of the angular velocity in the yaw direction and the average value ωpitch of the angular velocity in the pitch direction. (Step SC301).

ここでは、ヨー方向及びピッチ方向の2つの回転方向の角速度の検出値から、流し撮りが行われている主となる回転軸の検出と、検出された主となる回転軸の角速度平均値と、もう一方の角速度平均値の比率と、が求められる。   Here, from the detected values of the angular velocities in the two rotational directions of the yaw direction and the pitch direction, detection of the main rotating shaft on which the panning is performed, and the detected angular velocity average value of the main rotating shaft, The ratio of the other average angular velocity is obtained.

流し撮りが行われている主となる回転軸は、ωyawとωpitchとの大小比較により大きい方を流し撮りが行われている主な回転軸とする。
一方、傾き角及び傾き補正値を算出するに際して、まず大きい側の回転軸となる角速度軸に対する正接値が求められる。
The main rotation axis on which panning is performed is the main rotation axis on which panning is performed on the larger comparison between ωyaw and ωpitch.
On the other hand, when calculating the inclination angle and the inclination correction value, first, a tangent value with respect to the angular velocity axis serving as the larger rotation axis is obtained.

例えば、ωyawが大きい場合は、以下の式5に基づいてωyawに対する正接値を算出する。

Tanθyaw=ωpitch/ωyaw (式5)
For example, when ωyaw is large, a tangent value with respect to ωyaw is calculated based on Equation 5 below.

Tanθyaw = ωpitch / ωyaw (Formula 5)

次に、傾き検出処理(ステップSC301)により決定した角速度補正値を、流し撮りを検出した軸の角速度に乗算することで流し撮りパンニング速度ωpanが算出される(ステップSC302)。   Next, the panning panning speed ωpan is calculated by multiplying the angular velocity correction value determined by the tilt detection process (step SC301) by the angular velocity of the axis where the panning is detected (step SC302).

流し撮りパンニング速度ωpanの算出(ステップSC302)が終了した後、次に、図7に示す流し撮りTv値算出部82により流し撮りパンニング速度ωpanから式2及び式3に基づいて流し撮りシャッター速度が算出される(ステップSC303)。   After calculating the panning panning speed ωpan (step SC302), the panning shutter speed is calculated from the panning panning speed ωpan by the panning Tv value calculation unit 82 shown in FIG. Calculated (step SC303).

更に、次の処理ステップとして式4に基づいてAPEX式による露出値に応じて流し撮りTv値算出部82により上記の流し撮りシャッター速度が流し撮りTv値に変換される(ステップSC304)。   Further, as the next processing step, the panning shutter speed is converted into the panning Tv value by the panning Tv value calculation unit 82 according to the exposure value based on the APEX formula based on Formula 4 (step SC304).

次に、図8に示すシステムコントローラ8のAE制御処理(ステップSC4)の詳細ステップを図10のフローチャートを基に説明する。
なお、図10の処理は、設定ダイヤル14(撮影モード設定部)が、映像データから自動的に露光時間及び露出開口量を判断する露出設定モードに選択された状態において行われる。
Next, detailed steps of the AE control process (step SC4) of the system controller 8 shown in FIG. 8 will be described based on the flowchart of FIG.
Note that the processing in FIG. 10 is performed in a state where the setting dial 14 (shooting mode setting unit) is selected in the exposure setting mode in which the exposure time and the exposure opening amount are automatically determined from the video data.

まず、AE制御部84は、測光を行うことで被写体輝度であるBv値を算出する(ステップSC401)。
次に、AE制御部84は、図8に示す流し撮りシャッター速度算出処理(ステップSC3)において流し撮りTv値が算出されたかを確認し(ステップSC402)、有効なTv値が算出されている場合(ステップS402がYES)は、露出条件が露出連動範囲内かを判定する(ステップSC403)。ここでの判定は、露出判定手段84cにより図12に示すプログラム線図を基に行われる。
First, the AE control unit 84 calculates a Bv value that is subject brightness by performing photometry (step SC401).
Next, the AE control unit 84 confirms whether or not the panning shot Tv value is calculated in the panning shutter speed calculation process (step SC3) shown in FIG. 8 (step SC402), and the effective Tv value is calculated. In step S402, it is determined whether the exposure condition is within the exposure interlocking range (step SC403). This determination is made by the exposure determination means 84c based on the program diagram shown in FIG.

図12は、流し撮りTv値と、測光で求められるBv値との関係をしている。なお、図12において、Bv値は斜めの破線で示され、Tv値が横軸となる
上述のTv値(図12の横軸)及びBv値(斜めの破線)の各値の線での交点が示す値(つまり右側の縦軸で決定される値)が、上述の値の差であるTv−Bvの演算結果となる。
FIG. 12 shows the relationship between the panning Tv value and the Bv value obtained by photometry. In FIG. 12, the Bv value is indicated by an oblique broken line, and the Tv value is on the horizontal axis. (That is, the value determined by the right vertical axis) is the calculation result of Tv−Bv, which is the difference between the above values.

図12に示す太枠は、有効な流し撮りTv値の範囲(横軸)及び連動可能な範囲(縦軸右側)で示している。これは、流し撮り状態での露出制御において太枠の範囲内にあれば、絞り値(Av)、及び撮像素子5の感度(Sv)を可変して露出制御が可能な連動範囲内である。そして、1つの設定されたシャッター速度に対して、縦軸右側でTv−Bvが取りえる範囲として示す様に12段階の連動が可能になっていることが分かる。   The thick frame shown in FIG. 12 indicates the effective panning Tv value range (horizontal axis) and the interlockable range (vertical axis right side). This is within an interlocking range in which exposure control is possible by varying the aperture value (Av) and the sensitivity (Sv) of the image sensor 5 if the exposure control in the panning state is within the range of the thick frame. Then, it can be seen that 12 stages of linkage are possible with respect to one set shutter speed as shown as a range that Tv-Bv can take on the right side of the vertical axis.

また、下限値規定手段84dは、流し撮りTv値に関して、一例として図12に示すように1/15を下限として規定している。このように下限値規定手段84dが下限値を規定しるのは、下限値未満のシャッター速度の場合、撮影時の手ぶれにより、流し撮りがほとんど成功しない領域となるためである。   Moreover, the lower limit value defining means 84d defines 1/15 as the lower limit for the panning Tv value as shown in FIG. The reason why the lower limit value defining means 84d defines the lower limit value in this way is that, when the shutter speed is less than the lower limit value, it becomes a region in which panning is hardly successful due to camera shake at the time of photographing.

なお、AE制御部84は、流し撮り時に下限値規定手段84dが規定する下限値を露光時間(Tv値)が下回る場合は、露光時間を下限値に置き換え、流し撮り露出制御処理(ステップSC404)を行ってもよい。   When the exposure time (Tv value) falls below the lower limit value defined by the lower limit value defining means 84d during panning, the AE control unit 84 replaces the exposure time with the lower limit value, and the panning exposure control process (step SC404). May be performed.

こうすることで、流し撮りの振り出し時は、角速度が低い状態でシャッター速度が遅く算出される場合において、下限値のシャッター速度よりも低いシャッター速度設定にならないため、流し撮りがほとんど不可能な低いシャッター速度が選択されて、失敗撮影になることを防止できる。   By doing this, when the panning shot is started, if the shutter speed is calculated with a low angular velocity, the shutter speed setting is not lower than the lower limit shutter speed. The shutter speed can be selected to prevent failure shooting.

連動範囲内であるか否かの判定処理(ステップSC403)は、Bv値及び流し撮りTv値に基づいて求められる交点が太枠の範囲内にあれば連動範囲内とする。
よって本実施の形態では、被写体の明るさは、図12に示すようにBv値が−3から+13までは対応できる範囲となる。
The determination process (step SC403) for determining whether or not within the interlocking range is within the interlocking range if the intersection obtained based on the Bv value and the panning Tv value is within the range of the thick frame.
Therefore, in the present embodiment, the brightness of the subject is in a range where Bv values from −3 to +13 can be handled as shown in FIG.

その後、AE制御部84は、Sv値(撮像素子5の感度)及びAv値(絞り値)を算出し、流し撮り露出制御を行う(ステップSC404)。
ここでは、図13のプログラム線図に従うが、上述の判定で算出されたTv―Bvの結果に基づいた斜めの破線が線図の太線と交差することで決定されるSv値及びAv値を算出する。なお、図13では、Sv−Avを斜めの破線としているが、Sv−Avは、Tv―Bvと等しくなる。
Thereafter, the AE control unit 84 calculates the Sv value (sensitivity of the image sensor 5) and the Av value (aperture value), and performs panning exposure control (step SC404).
Here, although the program diagram of FIG. 13 is followed, the Sv value and the Av value determined by the oblique broken line intersecting with the bold line of the diagram based on the result of Tv-Bv calculated in the above determination are calculated. To do. In FIG. 13, Sv-Av is an oblique broken line, but Sv-Av is equal to Tv-Bv.

そして、第2の露出制御手段84bは、Tv値、Sv値、及びAv値に基づいて、撮影時の流し撮り露出制御を行う(ステップSC404)。
ステップSC402又はステップSC403の判定がNOである場合は、適正露出が得られないものとして、Pモード露出制御処理(ステップSC405)において、入射される光束から取得した輝度値から、適正露出が得られるように図11に示すプログラム線図によりSv値、Av値、Tv値が算出される。図11は、Sv値が5でISO感度が100固定の線図であるが、Sv値を連動させた場合は、Svのシフト量に応じてプログラム線図もシフトすることで対応可能である。
Then, the second exposure control unit 84b performs the panning exposure control at the time of shooting based on the Tv value, the Sv value, and the Av value (step SC404).
If the determination in step SC402 or step SC403 is NO, it is assumed that proper exposure cannot be obtained, and proper exposure is obtained from the luminance value acquired from the incident light beam in the P-mode exposure control process (step SC405). Thus, the Sv value, Av value, and Tv value are calculated by the program diagram shown in FIG. FIG. 11 is a diagram in which the Sv value is 5 and the ISO sensitivity is fixed at 100. However, when the Sv value is linked, it can be handled by shifting the program diagram according to the shift amount of Sv.

そして、第1の露出制御手段84aは、Tv値、Sv値、及びAv値に基づいて、撮影時のPモード露出制御を行う。つまり、第1の露出制御手段84aは、映像データの輝度情報に基づいて像ブレを生じさせないように撮影を行うための露出制御を行う。   Then, the first exposure control unit 84a performs P-mode exposure control during shooting based on the Tv value, the Sv value, and the Av value. That is, the first exposure control unit 84a performs exposure control for performing shooting so as not to cause image blur based on the luminance information of the video data.

以上説明した第1の実施の形態を含む実施の形態では、流し撮り判定部(流し撮り検出部76)は、角速度センサ9が取得する角速度情報に基づいて、カメラ1が流し撮り状態であるか否かを判定する。また、撮像部(フォーカルプレーンシャッター4及び撮像素子5)に対して映像データを取得する際の露出条件の制御を行うAE制御部84は、映像データの輝度情報に基づいて、像ブレを生じさせないように撮影を行うための露出制御を行う第1の露出制御手段84aと、角速度センサ9が取得する角速度情報と撮影光学系2の焦点距離情報とに基づいて決定される露光時間に基づいて、撮影時の露出制御を行う第2の露出制御手段84bと、第2の露出制御手段84bの露出制御において映像データが、適正露光が得られるか否かを判定する露出判定手段と、を有する。また、AE制御部84は、撮影モード設定部(設定ダイヤル14)が、映像データから自動的に露光時間及び露出開口量を判断する露出設定モードに選択された状態において、以下の処理を行う。すなわち、AE制御部84は、カメラ1が流し撮り状態にあると流し撮り判定部が判定した場合で、且つ、適正露光が得られると露出判定手段84cが判定した場合において、第2の露出制御手段84bにより露出制御(流し撮り露出制御)を行う。また、AE制御部84は、カメラ1が流し撮り状態にないと流し撮り判定部が判定した場合において、第1の露出制御手段84aにより露出制御(Pモード露出制御)を行う。   In the embodiment including the first embodiment described above, the panning determination unit (the panning detection unit 76) determines whether the camera 1 is in the panning state based on the angular velocity information acquired by the angular velocity sensor 9. Determine whether or not. In addition, the AE control unit 84 that controls the exposure condition when acquiring video data to the imaging unit (focal plane shutter 4 and imaging device 5) does not cause image blur based on the luminance information of the video data. Thus, based on the exposure time determined based on the first exposure control means 84a for performing exposure control for performing shooting, the angular velocity information acquired by the angular velocity sensor 9 and the focal length information of the photographing optical system 2, Second exposure control means 84b that performs exposure control during shooting, and exposure determination means that determines whether or not video data can be properly exposed in the exposure control of the second exposure control means 84b. The AE control unit 84 performs the following processing in a state where the shooting mode setting unit (setting dial 14) is selected to the exposure setting mode in which the exposure time and the exposure opening amount are automatically determined from the video data. That is, the AE control unit 84 performs the second exposure control when the panning determination unit determines that the camera 1 is in the panning state and when the exposure determination unit 84c determines that appropriate exposure is obtained. Exposure control (pan shot exposure control) is performed by means 84b. The AE control unit 84 performs exposure control (P-mode exposure control) by the first exposure control unit 84a when the panning determination unit determines that the camera 1 is not in the panning state.

そのため、適正露光が得られる場合に流し撮り時に決定される露光時間により露出制御が行われることで、流し撮り設定時のシャッター速度では露出オーバー又はアンダーになるのを回避することができる。よって、実施の形態によれば、カメラ1が流し撮りを行う設定で撮影された場合でも、被写体やシーンによらず露出設定による失敗撮影の発生が低減する。   Therefore, by performing exposure control according to the exposure time determined at the time of panning when appropriate exposure is obtained, it is possible to avoid overexposure or underexposure at the shutter speed at the time of panning setting. Therefore, according to the embodiment, even when the camera 1 is shot with the setting for performing panning, the occurrence of failed shooting due to the exposure setting is reduced regardless of the subject or the scene.

また、実施の形態では、下限値規定手段84dは、第2の露出制御手段84bにより露出制御を行う場合の露光時間(換言するとTv値)の下限値を規定する。また、AE制御部84は、下限値規定手段84dが規定する下限値を露光時間が下回る場合は、第1の露出制御手段84aにより露出制御を行う。また、露光時間を下限値に置き換えて第2の露出制御手段84bによる露出制御を行ってもよい。そのため、流し撮りが成功しにくい露光時間を除外するように下限値を規定することで、失敗撮影になることを防止できる。   In the embodiment, the lower limit value defining means 84d defines the lower limit value of the exposure time (in other words, the Tv value) when exposure control is performed by the second exposure control means 84b. Further, the AE control unit 84 performs exposure control by the first exposure control unit 84a when the exposure time is less than the lower limit value defined by the lower limit value defining unit 84d. Further, exposure control by the second exposure control means 84b may be performed by replacing the exposure time with the lower limit value. Therefore, it is possible to prevent unsuccessful shooting by defining the lower limit value so as to exclude the exposure time during which panning is difficult to succeed.

<第2の実施の形態>
本実施の形態では、説明の重複を避けるため、第1の実施の形態との相違点のみについて説明する。
図14は、第2の実施の形態におけるシステムコントローラ8の機能ブロック図である。
<Second Embodiment>
In the present embodiment, only differences from the first embodiment will be described in order to avoid duplication of explanation.
FIG. 14 is a functional block diagram of the system controller 8 according to the second embodiment.

図15は、第2の実施の形態におけるAE制御処理を示すフローチャートである。
図14に示すシステムコントローラ8は、下限値規定手段84dに代えて測光エリア決定手段84e及び被写体像情報抽出手段84fを有する点において、図7に示すシステムコントローラ8と相違する。なお、本実施の形態においても、システムコントローラ8が下限値規定手段84dを有していてもよい。
FIG. 15 is a flowchart showing the AE control process in the second embodiment.
The system controller 8 shown in FIG. 14 is different from the system controller 8 shown in FIG. 7 in that it includes a photometric area determining unit 84e and a subject image information extracting unit 84f instead of the lower limit value defining unit 84d. Also in this embodiment, the system controller 8 may include the lower limit value defining means 84d.

本実施の形態の図15に示すフローチャートは、測光処理(SC401)が開始される前に被写体検出処理(ステップS400−1)及び測光エリア判定処理(ステップS400−2)が行われる点において、第1の実施の形態の図10に示すフローチャートと相違する。   The flowchart shown in FIG. 15 of the present embodiment is that the subject detection process (step S400-1) and the photometry area determination process (step S400-2) are performed before the photometry process (SC401) is started. This is different from the flowchart shown in FIG. 10 of the first embodiment.

測光エリア決定手段84eは、測光処理(ステップSC401)を行う測光エリアを決定する。
被写体像情報抽出手段84fは、撮像素子5が取得する映像データに基づいて被写体像の色情報を抽出する色情報抽出手段として機能する。また、被写体像情報抽出手段84fは、撮像素子5が取得する映像データに基づいて被写体像の輝度情報を抽出する輝度情報抽出手段としても機能する。
The photometric area determining unit 84e determines a photometric area for performing photometric processing (step SC401).
The subject image information extraction unit 84f functions as a color information extraction unit that extracts color information of the subject image based on the video data acquired by the imaging device 5. The subject image information extracting unit 84f also functions as a luminance information extracting unit that extracts luminance information of the subject image based on the video data acquired by the imaging device 5.

図15に示すフローチャートでは、まず、図16に示すように、映像データのうち、流し撮り中の主要被写体(つまり、動く被写体)が存在する第1の領域A1と、この第1の領域A1に含まれない第2の領域とを検出する被写体検出処理(ステップSC400−1)が行われる。なお、流し撮りでは、背景は流れてぼやけるのでフレーム間で流れの無い領域を検出することで主要被写体を検出できる。   In the flowchart shown in FIG. 15, first, as shown in FIG. 16, in the video data, there are a first area A1 in which a main subject (that is, a moving subject) being panned exists, and the first area A1. A subject detection process (step SC400-1) for detecting a second region not included is performed. In panning, the background flows and blurs, so that the main subject can be detected by detecting an area that does not flow between frames.

次に、測光エリア判定処理(ステップS400−2)が行われる。この測光エリア判定処理(ステップS401−2)において、測光エリア決定手段84eは、第1の領域A1及び第2の領域A2に対し、被写体像情報抽出手段84fが検出する色情報に基づき、白色又は黒色の割合が所定の基準を満たす場合には測光エリアに決定し、所定の基準を満たさない場合には測光エリアから除外する。なお、このように測光エリアが決定されることで、第2の露出制御手段84bが流し撮り露出制御を行う条件として、角速度情報及び焦点距離情報と同様に、測光エリアの輝度情報が含まれるといえる。   Next, photometric area determination processing (step S400-2) is performed. In the photometric area determination process (step S401-2), the photometric area determining unit 84e determines whether the first area A1 and the second area A2 are white or white based on the color information detected by the subject image information extracting unit 84f. When the black ratio satisfies a predetermined standard, the photometric area is determined, and when the black ratio does not satisfy the predetermined standard, it is excluded from the photometric area. When the photometry area is determined in this way, the second exposure control unit 84b performs the panning exposure control, and the luminance information of the photometry area is included as in the angular velocity information and the focal length information. I can say that.

上述に示す測光エリアに決定する上での所定の基準としては、例えば、白色及び黒色のそれぞれについて面積割合が一定量以上になることが挙げられる。なお、第1の領域A1及び第2の領域A2が両方とも測光対象で無いと判定された場合は、画面全体を測光対象とするとよい。   As a predetermined reference | standard in determining to the photometry area shown above, it is mentioned that an area ratio becomes more than fixed amount about each of white and black, for example. When it is determined that both the first area A1 and the second area A2 are not photometric objects, the entire screen may be the photometric object.

変形例として、測光エリア決定手段84eは、第1の領域A1及び第2の領域A2に対し、被写体像情報抽出手段84fが検出する輝度情報に基づき、輝度情報が所定の基準を満たす場合には測光エリアに決定し、所定の基準を満たさない場合には測光エリアから除外してもよい。この場合、例えば、映像データをグレーに変換した後に一定量以上明るくなったり或いは一定量以上暗くなったりする場合に所定の基準を満たさないと判断する例が挙げられる。   As a modification, the photometry area determining unit 84e is configured to detect the luminance information for the first region A1 and the second region A2 based on the luminance information detected by the subject image information extracting unit 84f. If the photometric area is determined and the predetermined standard is not satisfied, the photometric area may be excluded. In this case, for example, an example in which a predetermined criterion is determined not to be satisfied when the video data is converted to gray and then becomes brighter than a certain amount or darker than a certain amount.

ステップSC401〜SC405の処理は、第1の実施の形態の図10に示すフローチャートと同様であるため、説明を省略する。
以上説明した第2の実施の形態によっても、第1の実施の形態と同様に、カメラ1が流し撮りを行う設定で撮影された場合でも、被写体やシーンによらず露出設定による失敗撮影の発生が低減する。
Since the processing of steps SC401 to SC405 is the same as the flowchart shown in FIG. 10 of the first embodiment, the description thereof is omitted.
Even in the second embodiment described above, similarly to the first embodiment, even when the camera 1 is shot with a setting for performing panning, the failure shooting due to the exposure setting occurs regardless of the subject or the scene. Is reduced.

更には、本実施の形態では、AE制御部84は、測光エリアを決定する測光エリア決定手段84eを有し、第2の露出制御手段84bは、測光エリアの輝度情報と、各速度情報と、焦点距離情報とに基づいて、露出制御を行う。そのため、測光エリアにおいて露出失敗の可能性があるエリアを除外することで、流し撮りにおける失敗撮影がより一層低減する。   Furthermore, in the present embodiment, the AE control unit 84 includes a photometric area determining unit 84e that determines the photometric area, and the second exposure control unit 84b includes the luminance information of the photometric area, each speed information, Exposure control is performed based on the focal length information. For this reason, by excluding an area where there is a possibility of exposure failure in the photometric area, failure shooting in panning is further reduced.

また、本実施の形態では、測光エリア決定手段84eは、映像データのうち流し撮り中の主要被写体を含む第1の領域A1と、映像データのうち第1の領域A1に含まれない第2の領域A2とに対し、色情報抽出手段(被写体像情報抽出手段84f)が映像データに基づいて抽出する被写体像の色情報に基づき、白色又は黒色の割合が所定の基準を満たす場合には測光エリアに決定し、所定の基準を満たさない場合には測光エリアから除外する。そのため、測光エリアにおいて露出失敗の可能性があるエリアが除外され、流し撮りにおける失敗撮影がより一層低減する。   In the present embodiment, the photometry area determining means 84e includes the first area A1 that includes the main subject being panned in the video data and the second area that is not included in the first area A1 in the video data. When the ratio of white or black satisfies a predetermined standard based on the color information of the subject image extracted by the color information extraction means (subject image information extraction means 84f) with respect to the area A2, the photometry area If the predetermined standard is not satisfied, it is excluded from the photometry area. For this reason, areas where there is a possibility of exposure failure in the photometric area are excluded, and failure shooting in panning is further reduced.

また、本実施の形態では、測光エリア決定手段84eは、映像データのうち流し撮り中の主要被写体を含む第1の領域A1と、映像データのうち第1の領域A1に含まれない第2の領域A2とに対し、輝度情報抽出手段(被写体像情報抽出手段84f)が映像データに基づいて抽出する被写体像の輝度情報に基づき、輝度情報が所定の基準を満たす場合には測光エリアに決定し、所定の基準を満たさない場合には測光エリアから除外する。そのため、測光エリアにおいて露出失敗の可能性があるエリアが除外され、流し撮りにおける失敗撮影がより一層低減する。   In the present embodiment, the photometry area determining means 84e includes the first area A1 that includes the main subject being panned in the video data and the second area that is not included in the first area A1 in the video data. For the area A2, the luminance information extraction unit (subject image information extraction unit 84f) determines the photometric area based on the luminance information of the subject image extracted based on the video data when the luminance information satisfies a predetermined standard. If the predetermined standard is not satisfied, it is excluded from the photometry area. For this reason, areas where there is a possibility of exposure failure in the photometric area are excluded, and failure shooting in panning is further reduced.

<第3の実施の形態>
本実施の形態では、説明の重複を避けるため、第1の実施の形態との相違点についてのみ説明する。
<Third Embodiment>
In the present embodiment, only differences from the first embodiment will be described in order to avoid duplication of explanation.

本実施の形態では、第1の実施の形態の制御の一部を変更して連写時特有の問題に対応している。
流し撮りを連写設定で行った場合、第1の実施の形態では、露出条件が露出連動範囲内外の境界付近であった場合に、1回の連写で、流し撮り露出制御とPモード露出制御とが頻繁に切り替わる可能性があり、ユーザーに違和感を与える可能性がある。
In this embodiment, a part of the control of the first embodiment is changed to deal with a problem specific to continuous shooting.
When panning is performed with continuous shooting setting, in the first embodiment, when the exposure condition is near the boundary between the exposure interlocking range and the exposure interlocking range, panning exposure control and P-mode exposure are performed with one continuous shooting. There is a possibility that the control is frequently switched, and there is a possibility that the user feels uncomfortable.

このような問題に対応するために、図17に示すフローチャートのようにAE制御処理が行われる。
図17に示すフローチャートは、連写中かつ前回流し撮り露光制御が行われたかを判定する処理(ステップSC406)が付加された点を除いては第1の実施の形態の図10に示すフローチャートと同様であるため、相違点のみ説明する。
In order to deal with such a problem, an AE control process is performed as shown in the flowchart of FIG.
The flowchart shown in FIG. 17 is the same as the flowchart shown in FIG. 10 of the first embodiment except that a process (step SC406) for determining whether continuous shooting exposure control was performed during continuous shooting is added. Since they are similar, only the differences will be described.

流し撮りTv値及びBv値に基づいて露出条件が露出連動範囲内かを判定する処理(ステップSC403)において、連動範囲内でない場合(ステップSC403がNO)、連写中、かつ、前回流し撮り露出制御が行われたかの判定処理(ステップSC406)が行われる。つまり、この処理(ステップSC406)では、撮像部(フォーカルプレーンシャッター4及び撮像素子5)に対して複数回の連続撮影の制御が行われる場合で、且つ、連続撮影中に一旦第2の露出制御手段84bにより露出制御が行われた場合に該当するかが判定される。   In the process of determining whether the exposure condition is within the exposure interlocking range (step SC403) based on the panning Tv value and Bv value (step SC403 is NO), during continuous shooting and the previous panning exposure Processing for determining whether control has been performed (step SC406) is performed. That is, in this process (step SC406), the second exposure control is once performed when continuous imaging control is performed a plurality of times for the imaging unit (focal plane shutter 4 and imaging element 5). It is determined whether the exposure control is performed by the means 84b.

そして、連写中でかつ流し撮り検出中において、前回流し撮り制御が行われている場合(ステップSC406がYES)は、流し撮り露出制御処理(ステップSC404)に移行し、そうで無い場合(ステップSC406がNO)は、Pモード露出制御処理(ステップSC405)が行われる。   Then, during continuous shooting and during panning detection, if the previous panning control has been performed (YES in step SC406), the process proceeds to panning exposure control processing (step SC404), and otherwise (step SC406). When SC406 is NO, a P-mode exposure control process (step SC405) is performed.

以上説明した第3の実施の形態によっても、第1の実施の形態と同様に、カメラ1が流し撮りを行う設定で撮影された場合でも、被写体やシーンによらず露出設定による失敗撮影の発生が低減する。   Even in the third embodiment described above, similarly to the first embodiment, even when the camera 1 is shot with a setting for performing panning, the failure shooting due to the exposure setting occurs regardless of the subject or the scene. Is reduced.

更には、本実施の形態では、AE制御部84は、撮像部(フォーカルプレーンシャッター4及び撮像素子5)に対して複数回の連続撮影の制御が行われる場合で、且つ、連続撮影中に一旦第2の露出制御手段84bにより露出制御が行われた場合は、流し撮り検出状態が非検出状態になるまでは第2の露出制御手段84bにより露出制御を行う。そのため、連写中に一旦流し撮り露出制御が行われると、流し撮り検出状態が非検出状態になるまでは流し撮り露出制御が継続されるため、流し撮り露出制御とPモード露出撮影とが切り替わる場合のような違和感を生じるのを防ぐことができる。   Furthermore, in the present embodiment, the AE control unit 84 is a case where a plurality of continuous shooting controls are performed on the imaging unit (focal plane shutter 4 and imaging element 5), and once during continuous shooting. When exposure control is performed by the second exposure control unit 84b, exposure control is performed by the second exposure control unit 84b until the panning detection state becomes a non-detection state. Therefore, once the panning exposure control is performed during continuous shooting, the panning exposure control is continued until the panning detection state becomes the non-detection state, so that the panning exposure control and the P-mode exposure shooting are switched. It is possible to prevent an uncomfortable feeling as in the case.

<第4の実施の形態>
本実施の形態では、説明の重複を避けるため、第1の実施の形態との相違点についてのみ説明する。
<Fourth embodiment>
In the present embodiment, only differences from the first embodiment will be described in order to avoid duplication of explanation.

図18は、第4の実施の形態におけるAE制御処理を示すフローチャートである。
まず、AE制御部84は、測光を行うことで被写体輝度であるBv値を算出する(ステップSC501)。
FIG. 18 is a flowchart showing the AE control process in the fourth embodiment.
First, the AE control unit 84 calculates a Bv value that is subject brightness by performing photometry (step SC501).

次に、AE制御部84は、図3に示す流し撮り検出部76によって或いは流し撮りTv値が算出されたかを検出することによって、流し撮り中か否かを判定する(ステップSC502)。流し撮り中でない場合(ステップSC502がNO)は、Sv、Tv、及びAvの各値が算出され、Pモード露出制御処理(ステップSC506)が行われる。   Next, the AE control unit 84 determines whether or not the panning is being performed by the panning detection unit 76 shown in FIG. 3 or by detecting whether the panning Tv value has been calculated (step SC502). When the panning is not being performed (NO in step SC502), each value of Sv, Tv, and Av is calculated, and P mode exposure control processing (step SC506) is performed.

流し撮り中である場合(ステップSC502がYES)、露出判定手段84cは、露出条件が露出連動範囲外かを判定する(ステップSC503)。この露出連動範囲外であるか否かの処理は、第1の実施の形態の図10に示す露出連動範囲内であるかの処理(ステップSC403)と同様である。但し、本実施の形態では、露出連動範囲「内」であるか否かではなく、露出連動範囲「外」であるか否かが判定される。   When the panning is being performed (YES in step SC502), the exposure determining unit 84c determines whether the exposure condition is outside the exposure interlocking range (step SC503). The process for determining whether or not the exposure interlocking range is outside is the same as the process for determining whether or not the exposure interlocking range is within the exposure interlocking range shown in FIG. 10 of the first embodiment (step SC403). However, in this embodiment, it is determined whether or not the exposure interlocking range is “outside”, not whether or not the exposure interlocking range is “inside”.

露出条件が露出連動範囲外である場合(ステップSC503がYES)は、Tv値補正処理(ステップSC504)によりTv値が露出連動範囲内に補正される。
Tv値補正処理の例を示すと、算出した流し撮りTv値が5でシャッター速度1/30で被写体のBv値が11の場合、図12に示すように連動範囲外となる。しかし、Bv値11が太枠内である連動範囲内になるTv値7に補正する。これにより、流し撮り効果(流れ量)は、算出された流し撮りTv値の場合に比べて、1/4に弱まるが、適正露出で撮影を行うことができる。
If the exposure condition is outside the exposure interlocking range (YES at step SC503), the Tv value is corrected within the exposure interlocking range by the Tv value correction process (step SC504).
As an example of the Tv value correction process, when the calculated panning Tv value is 5, the shutter speed is 1/30, and the Bv value of the subject is 11, it is out of the interlocking range as shown in FIG. However, the Bv value 11 is corrected to a Tv value 7 that falls within the interlocking range within the thick frame. As a result, the panning effect (flow amount) is reduced to ¼ compared to the calculated panning Tv value, but it is possible to perform photographing with appropriate exposure.

つまり、カメラ1が流し撮り状態にあると判定された場合で、且つ、適正露光が得られないと判定された場合において、決定する露光時間が、露出判定手段84cの適正露出が得られる条件を満たすように変更され、且つ、変更に伴う露光時間の変化が最小になる露光時間に変更される。   That is, when it is determined that the camera 1 is in the panning state and when it is determined that the proper exposure cannot be obtained, the exposure time to be determined satisfies the condition for obtaining the proper exposure of the exposure determining unit 84c. The exposure time is changed so as to satisfy the exposure time, and the exposure time is changed to minimize the change in the exposure time.

次に、Tv値補正処理(ステップSC504)が行われた後、又は、連動範囲外でない場合(ステップSC503がNO)、AE制御部84は、算出されたTv値又は補正されたTv値を基にSv値及びAv値が算出され、流し撮り露出制御が行われる(ステップSC505)。   Next, after the Tv value correction process (step SC504) is performed or when it is not out of the interlocking range (step SC503 is NO), the AE control unit 84 uses the calculated Tv value or the corrected Tv value as a basis. Then, the Sv value and the Av value are calculated, and the panning exposure control is performed (step SC505).

上述の例では、Tv−Bvが−4であり、図13に示すように、Sv値が5でISO100、Av値が9でF22となる。
以上説明した第4の実施の形態によっても、第1の実施の形態と同様に、カメラ1が流し撮りを行う設定で撮影された場合でも、被写体やシーンによらず露出設定による失敗撮影の発生が低減する。
In the above example, Tv-Bv is −4, and as shown in FIG. 13, the Sv value is 5, ISO 100, the Av value is 9, and F22.
Even in the fourth embodiment described above, similarly to the first embodiment, even when the camera 1 is shot with the setting to perform panning, the failure shooting due to the exposure setting occurs regardless of the subject or the scene. Is reduced.

更には、本実施の形態では、第2の露出制御手段84bは、カメラ1が流し撮り状態にあると流し撮り判定部(流し撮り検出部76)が判定した場合で、且つ、適正露光が得られないと露出判定手段84cが判定した場合において、決定する露光時間を、露出判定手段84cの適正露出が得られる条件を満たすように変更し、且つ、変更に伴う露光時間の変化が最小になる露光時間に変更する。そのため、適性露光が得られるようにすることができる。これにより、流し撮り効果は弱まるが、失敗撮影の発生がより一層低減する。   Furthermore, in the present embodiment, the second exposure control means 84b is the case where the panning determination unit (the panning detection unit 76) determines that the camera 1 is in the panning state, and the proper exposure is obtained. If the exposure determining unit 84c determines that the exposure is not performed, the exposure time to be determined is changed so as to satisfy the condition for obtaining the appropriate exposure of the exposure determining unit 84c, and the change in the exposure time due to the change is minimized. Change to exposure time. Therefore, appropriate exposure can be obtained. As a result, although the panning effect is weakened, the occurrence of failed shooting is further reduced.

<第5の実施の形態>
本実施の形態では、説明の重複を避けるため、第1の実施の形態との相違点についてのみ説明する。
<Fifth embodiment>
In the present embodiment, only differences from the first embodiment will be described in order to avoid duplication of explanation.

図19は、第5の実施の形態におけるシステムコントローラ8の機能ブロック図である。
図20A及び図20Bは、流し撮り中のライブビュー表示の一例を示しており、図20Aは車を、図20Bは人を被写体として検出し、被写体エリア枠を表示している。
FIG. 19 is a functional block diagram of the system controller 8 according to the fifth embodiment.
20A and 20B show an example of a live view display during panning. FIG. 20A detects a car, FIG. 20B detects a person as a subject, and displays a subject area frame.

図19に示すシステムコントローラ8は、下限値規定手段84dに代えて動き情報検出手段84gを有する点において、図7に示すシステムコントローラ8と相違する。なお、本実施の形態においても、システムコントローラ8が下限値規定手段84dを有していてもよい。   The system controller 8 shown in FIG. 19 is different from the system controller 8 shown in FIG. 7 in that it has motion information detecting means 84g instead of the lower limit value defining means 84d. Also in this embodiment, the system controller 8 may include the lower limit value defining means 84d.

詳しくは後述するが、動き情報検出手段84gは、カメラ1が流し撮り状態にある場合に被写体の移動方向とは異なる方向への動きを検出する。
システムコントローラ8は、画像処理により被写体を検出し、検出結果より被写体領域を決定し、被写体枠として、図2Aに示すEVF12における被写体映像上に重畳して表示する。
As will be described in detail later, the movement information detection unit 84g detects movement in a direction different from the moving direction of the subject when the camera 1 is in the panning state.
The system controller 8 detects a subject by image processing, determines a subject region based on the detection result, and displays it as a subject frame superimposed on the subject video in the EVF 12 shown in FIG. 2A.

主要被写体(すなわち、動く被写体)の検出は、流し撮り時は背景が流れるため、周辺部の像の流れは一定方向に流れるが、主要被写体は、異なる流れ方となる。このため、像の流れ方向が周辺と一致しない領域を主要被写体領域とする。上記の検出方法は、あくまで主要被写体検出方法の一例であり、上記の検出方法に限定するものではない。   When detecting a main subject (that is, a moving subject), since the background flows during panning, the flow of the image in the peripheral portion flows in a certain direction, but the main subject has a different flow. For this reason, an area where the flow direction of the image does not coincide with the periphery is set as a main subject area. The above detection method is merely an example of a main subject detection method, and is not limited to the above detection method.

次に、図21に示すAE制御処理のフローチャートに基づいて、本実施の形態の制御の流れを説明する。
まず、AE制御部84は、測光を行うことで被写体輝度であるBv値を算出する(ステップSC601)。
Next, the control flow of the present embodiment will be described based on the flowchart of the AE control process shown in FIG.
First, the AE control unit 84 calculates a Bv value that is subject brightness by performing photometry (step SC601).

次に、AE制御部84は、図3に示す流し撮り検出部76によって或いは流し撮りTv値が算出されたかを検出することによって、流し撮り中か否かを判定する(ステップSC602)。流し撮り中でない場合(ステップSC602がNO)は、Sv、Tv、及びAvの各値が算出され、Pモード露出制御が行われる(ステップSC609)。   Next, the AE control unit 84 determines whether or not the panning is being performed by the panning detection unit 76 shown in FIG. 3 or by detecting whether the panning Tv value has been calculated (step SC602). When the panning is not being performed (NO in step SC602), values of Sv, Tv, and Av are calculated, and P-mode exposure control is performed (step SC609).

流し撮り中である場合(ステップSC602がYES)、動き情報検出手段84gは、被写体(主要被写体)の移動方向とは異なる方向への動きを検出する(ステップSC603)。例えば、図20Aに示す車の場合では、移動方向とは異なる方向への動きが生じにくいが、図20Bに示す人の場合では、手足などにおいて移動方向とは異なる方向への動きが生じる。なお、この動きは、図20Aに示す車の場合でも、ユーザーが正しく被写体を追えていない場合には検出される。   When the panning is being performed (YES in step SC602), the motion information detecting unit 84g detects a movement in a direction different from the moving direction of the subject (main subject) (step SC603). For example, in the case of the car shown in FIG. 20A, movement in a direction different from the moving direction is unlikely to occur, but in the case of the person shown in FIG. 20B, movement in a direction different from the moving direction occurs in the limbs. Note that this movement is detected when the user is not following the subject correctly even in the case of the car shown in FIG. 20A.

次に、動き情報検出手段84gが所定量以上の動きであるかを判定される(ステップSC605)。ここで、上記の動きは、無視できるほどに小さい動きもあり得ることから、所定量以上の場合について判定されている。但し、検出できる最小の動きがあることを所定量以上の動きであると判定してもよい。   Next, it is determined whether or not the motion information detecting means 84g has a predetermined amount or more (step SC605). Here, since the above-mentioned movement may be so small as to be negligible, it is determined for a case where the movement is a predetermined amount or more. However, it may be determined that there is a minimum amount of motion that can be detected as a motion of a predetermined amount or more.

動きがある場合(ステップSC605がYES)、Tv値補正処理(ステップSC606)を経て露出連動範囲の判定処理(ステップSC607)に移行するが、動きが無い場合はそのまま露出連動範囲の判定処理(ステップSC607)に移行する。   If there is movement (YES in step SC605), the process proceeds to the exposure interlocking range determination process (step SC607) via the Tv value correction process (step SC606). The process proceeds to SC607).

Tv値補正処理(ステップSC606)は、例えば、Tv値に単純に1を加算するなどの補正でもよい。これにより、流し撮りTv値よりも速いシャッター速度への補正、すなわち露光時間を短くする補正が行われる。   The Tv value correction process (step SC606) may be correction such as simply adding 1 to the Tv value, for example. Thereby, correction to a shutter speed faster than the panning Tv value, that is, correction to shorten the exposure time is performed.

次に、露出条件が露出連動範囲内と判定された場合(SC607がYES)、第1の実施の形態の図10に示す処理と同様に、Sv値及びAv値が算出され、流し撮り露出制御が行われる(ステップSC608)。一方、露出条件が露出連動範囲内でないと判定された場合(SC607がNO)、Tv値から再算出が行われ、Sv値及びAv値が算出され、Pモード露出制御(ステップSC609)が行われる。   Next, when it is determined that the exposure condition is within the exposure interlocking range (YES in SC607), the Sv value and the Av value are calculated and the panning exposure control is performed as in the process shown in FIG. 10 of the first embodiment. Is performed (step SC608). On the other hand, when it is determined that the exposure condition is not within the exposure interlocking range (NO in SC607), recalculation is performed from the Tv value, Sv value and Av value are calculated, and P-mode exposure control (step SC609) is performed. .

以上説明した第5の実施の形態によっても、第1の実施の形態と同様に、カメラ1が流し撮りを行う設定で撮影された場合でも、被写体やシーンによらず露出設定による失敗撮影の発生が低減する。   Even in the fifth embodiment described above, similarly to the first embodiment, even when the camera 1 is shot with the setting to perform panning, the failure shooting due to the exposure setting occurs regardless of the subject or the scene. Is reduced.

更には、本実施の形態では、動き情報検出手段84gは、カメラ1が流し撮り状態にある場合に被写体の移動方向とは異なる方向への動きを検出する。AE制御部84は、動き情報検出手段84gが所定量以上の動きを検出した場合、第2の露出制御手段84bによる露出制御における露光時間を短く補正する。そのため、流し撮り効果は低下するが、被写体ブレによる失敗撮影を低減できる。従って、流し撮りに不慣れなユーザーが、被写体が移動しながら移動方向とは異なる方向に動く場合や、正しく被写体を追いながら撮影できなかった場合でも失敗撮影になるのを防止できる。   Furthermore, in the present embodiment, the motion information detection unit 84g detects a movement in a direction different from the moving direction of the subject when the camera 1 is in the panning state. The AE control unit 84 corrects the exposure time in the exposure control by the second exposure control unit 84b to be short when the motion information detection unit 84g detects a motion of a predetermined amount or more. Therefore, although the panning effect is reduced, the failure shooting due to subject blurring can be reduced. Therefore, it is possible to prevent a user unfamiliar with panning shot from failing shooting even when the subject moves and moves in a direction different from the moving direction, or when shooting cannot be performed while following the subject correctly.

本発明は、上述の実施の形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、様々な発明を形成できる。例えば、実施の形態に示される全構成要素のいくつかの構成要素を削除してもよい。更に、異なる実施形態の構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, you may combine the component of different embodiment suitably.

1 カメラ
2 撮影光学系
3 エンコーダ
4 フォーカルプレーンシャッター
5 撮像素子
6 駆動部
7 ブレ補正マイコン
8 システムコントローラ
9 角速度センサ
10 変倍操作部
11 レリーズSW
12 EVF
13 メモリーカード
14 設定ダイヤル
70 CPU
71 ADC
72 SIO
73 ドライバ
74 基準算出部
75 減算部
76 流し撮り検出部
77 ブレ補正部
78 通信部
81 傾き検出部
82 流し撮り角速度算出部
83 流し撮りTv値算出部
84 AE制御部
84a 第1の露出制御手段
84b 第2の露出制御手段
84c 露出判定手段
84d 下限値規定手段
84e 測光エリア決定手段
84f 被写体像情報抽出手段
84g 動き情報検出手段
85 SIO
DESCRIPTION OF SYMBOLS 1 Camera 2 Imaging optical system 3 Encoder 4 Focal plane shutter 5 Image sensor 6 Drive part 7 Shake correction microcomputer 8 System controller 9 Angular velocity sensor 10 Scaling operation part 11 Release SW
12 EVF
13 Memory card 14 Setting dial 70 CPU
71 ADC
72 SIO
73 Driver 74 Reference Calculation Unit 75 Subtraction Unit 76 Panning Detection Unit 77 Shake Correction Unit 78 Communication Unit 81 Tilt Detection Unit 82 Panning Angular Velocity Calculation Unit 83 Panning Tv Value Calculation Unit 84 AE Control Unit 84a First Exposure Control Unit 84b Second exposure control means 84c Exposure determination means 84d Lower limit value definition means 84e Photometric area determination means 84f Subject image information extraction means 84g Motion information detection means 85 SIO

Claims (11)

撮像装置であって、
被写体像を結像する撮影光学系と、
前記撮影光学系が結像する被写体像から映像データを取得する撮像部と、
撮影時の露出条件を複数の露出設定モードから選択して設定される撮影モード設定部と、
前記撮像装置の姿勢変化に伴う角速度情報を取得する角速度センサと、
前記角速度センサが取得する角速度情報に基づいて、前記撮像装置が流し撮り状態であるか否かを判定する流し撮り判定部と、
前記撮像部に対して、前記映像データを取得する際の露出条件の制御を行う露出制御部と、を備え、
前記露出制御部は、
前記映像データの輝度情報に基づいて、像ブレを生じさせないように撮影を行うための露出制御を行う第1の露出制御手段と、
前記角速度センサが取得する角速度情報と、前記撮影光学系の焦点距離情報とに基づいて決定される露光時間に基づいて、撮影時の露出制御を行う第2の露出制御手段と、
前記第2の露出制御手段の露出制御において前記映像データが、適正露光が得られるか否かを判定する露出判定手段と、を有し、
前記露出制御部は、
前記撮影モード設定部が、前記映像データから自動的に露光時間及び露出開口量を判断する前記露出設定モードに選択された状態において、
前記撮像装置が流し撮り状態にあると前記流し撮り判定部が判定した場合で、且つ、適正露光が得られると前記露出判定手段が判定した場合において、前記第2の露出制御手段により前記露出制御を行い、
前記撮像装置が流し撮り状態にないと前記流し撮り判定部が判定した場合において、前記第1の露出制御手段により前記露出制御を行う、
ことを特徴とする撮像装置。
An imaging device,
A taking optical system for forming a subject image;
An imaging unit that acquires video data from a subject image formed by the imaging optical system;
A shooting mode setting section that is set by selecting an exposure condition during shooting from a plurality of exposure setting modes;
An angular velocity sensor for obtaining angular velocity information associated with a change in posture of the imaging device;
Based on angular velocity information acquired by the angular velocity sensor, a panning determination unit that determines whether the imaging device is in a panning state;
An exposure control unit that controls exposure conditions when acquiring the video data for the imaging unit;
The exposure control unit
First exposure control means for performing exposure control for performing shooting so as not to cause image blur based on luminance information of the video data;
Second exposure control means for performing exposure control at the time of photographing based on an exposure time determined based on angular velocity information acquired by the angular velocity sensor and focal length information of the photographing optical system;
Exposure determination means for determining whether or not the video data can obtain proper exposure in the exposure control of the second exposure control means;
The exposure control unit
In the state where the shooting mode setting unit is selected in the exposure setting mode for automatically determining an exposure time and an exposure opening amount from the video data,
When the panning determination unit determines that the imaging device is in the panning state and when the exposure determination unit determines that proper exposure is obtained, the exposure control is performed by the second exposure control unit. And
When the panning determination unit determines that the imaging device is not in the panning state, the exposure control is performed by the first exposure control unit.
An imaging apparatus characterized by that.
前記第2の露出制御手段は、前記撮像装置が流し撮り状態にあると前記流し撮り判定部が判定した場合で、且つ、適正露光が得られないと前記露出判定手段が判定した場合において、前記決定する露光時間を、前記露出判定手段の適正露出が得られる条件を満たすように変更し、且つ、前記変更に伴う露光時間の変化が最小になる露光時間に変更することを特徴とする請求項1記載の撮像装置。   The second exposure control means is the case where the panning determination unit determines that the imaging device is in a panning state, and the exposure determination unit determines that proper exposure cannot be obtained. The exposure time to be determined is changed so as to satisfy a condition for obtaining an appropriate exposure of the exposure determination means, and is changed to an exposure time at which a change in exposure time accompanying the change is minimized. The imaging apparatus according to 1. 前記露出制御部は、測光エリアを決定する測光エリア決定手段を更に有し、
前記第2の露出制御手段は、前記測光エリアの輝度情報と、前記角速度情報と、前記焦点距離情報とに基づいて、前記露出制御を行う、
ことを特徴とする請求項1又は請求項2記載の撮像装置。
The exposure control unit further includes a photometric area determining means for determining a photometric area,
The second exposure control means performs the exposure control based on the luminance information of the photometric area, the angular velocity information, and the focal length information.
The imaging apparatus according to claim 1 or 2, characterized in that
前記露出制御部は、前記映像データに基づいて前記被写体像の色情報を抽出する色情報抽出手段を更に有し、
前記測光エリア決定手段は、前記映像データのうち流し撮り中の主要被写体を含む第1の領域と、前記映像データのうち前記第1の領域に含まれない第2の領域とに対し、前記色情報抽出手段が抽出する色情報に基づき、白色又は黒色の割合が所定の基準を満たす場合には前記測光エリアに決定し、前記所定の基準を満たさない場合には前記測光エリアから除外する、
ことを特徴とする請求項3記載の撮像装置。
The exposure control unit further includes color information extraction means for extracting color information of the subject image based on the video data,
The photometric area determining means is configured to apply the color to a first area that includes a main subject being panned in the video data and a second area that is not included in the first area of the video data. Based on the color information extracted by the information extraction means, when the ratio of white or black meets a predetermined standard, it is determined as the photometric area, and when it does not meet the predetermined standard, it is excluded from the photometric area.
The imaging apparatus according to claim 3.
前記露出制御部は、前記映像データに基づいて前記被写体像の輝度情報を抽出する輝度情報抽出手段を更に有し、
前記測光エリア決定手段は、前記映像データのうち流し撮り中の主要被写体を含む第1の領域と、前記映像データのうち前記第1の領域に含まれない第2の領域とに対し、前記輝度情報抽出手段が抽出する輝度情報に基づき、前記輝度情報が所定の基準を満たす場合には前記測光エリアに決定し、前記所定の基準を満たさない場合には前記測光エリアから除外する、
ことを特徴とする請求項3記載の撮像装置。
The exposure control unit further includes luminance information extraction means for extracting luminance information of the subject image based on the video data,
The photometric area determining means is configured to calculate the luminance for a first area including a main subject being panned in the video data and a second area not included in the first area of the video data. Based on the luminance information extracted by the information extracting means, if the luminance information satisfies a predetermined standard, it is determined as the photometric area, and if it does not meet the predetermined standard, it is excluded from the photometric area.
The imaging apparatus according to claim 3.
前記露出制御部は、前記撮像装置が流し撮り状態にある場合に被写体の移動方向とは異なる方向への動きを検出する動き情報検出手段を更に有し、
前記露出制御部は、前記動き情報検出手段が所定量以上の前記動きを検出した場合、前記第2の露出制御手段による前記露出制御における露光時間を短く補正する、
ことを特徴とする請求項1から請求項5のいずれか1項記載の撮像装置。
The exposure control unit further includes motion information detection means for detecting movement in a direction different from the moving direction of the subject when the imaging apparatus is in a panning state,
The exposure control unit corrects the exposure time in the exposure control by the second exposure control unit to be short when the motion information detection unit detects the motion of a predetermined amount or more.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記露出制御部は、前記撮像部に対して複数回の連続撮影の制御が行われる場合で、且つ、連続撮影中に一旦第2の露出制御手段により露出制御が行われた場合は、前記連続撮影が終了するまでは前記第2の露出制御手段により露出制御を行うことを特徴とする請求項1から請求項6のいずれか1項記載の撮像装置。   The exposure control unit is configured to control the continuous shooting when a plurality of continuous shooting controls are performed on the imaging unit and when the second exposure control unit temporarily performs exposure control during the continuous shooting. The imaging apparatus according to any one of claims 1 to 6, wherein exposure control is performed by the second exposure control unit until photographing is finished. 前記露出制御部は、前記第2の露出制御手段により露出制御を行う場合における露光時間の下限値を規定する下限値規定手段を更に有し、
前記露出制御部は、前記下限値規定手段が規定する下限値を前記露光時間が下回る場合は、前記第1の露出制御手段により前記露出制御を行う、
ことを特徴とする請求項1から請求項7のいずれか1項記載の撮像装置。
The exposure control unit further includes lower limit value defining means for defining a lower limit value of an exposure time when performing exposure control by the second exposure control means,
The exposure control unit performs the exposure control by the first exposure control unit when the exposure time is below the lower limit value defined by the lower limit value defining unit.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記露出制御部は、前記第2の露出制御手段により露出制御を行う場合における露光時間の下限値を規定する下限値規定手段を更に有し、
前記露出制御部は、前記撮像装置が流し撮り状態にあると前記流し撮り判定部が判定した場合で、且つ、前記下限値規定手段が規定する下限値を前記露光時間が下回る場合は、前記露光時間を前記下限値に置き換えて第2の露出制御手段により前記露出制御を行う、
ことを特徴とする請求項1から請求項7のいずれか1項記載の撮像装置。
The exposure control unit further includes lower limit value defining means for defining a lower limit value of an exposure time when performing exposure control by the second exposure control means,
The exposure control unit, when the panning determination unit determines that the imaging device is in a panning state, and when the exposure time is below the lower limit defined by the lower limit defining unit, the exposure control unit The time is replaced with the lower limit value, and the exposure control is performed by the second exposure control means.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
撮影光学系が結像する被写体像から映像データを取得する撮像部を備える撮像装置を制御する撮像装置の制御方法であって、
前記撮像装置の姿勢変化に伴う角速度情報を取得する工程と、
前記取得された角速度情報に基づいて、前記撮像装置が流し撮り状態であるか否かを判定する工程と、
前記撮像部に対して、前記映像データを取得する際の露出条件の制御を行う工程と、を含み、
前記露出条件の制御を行う工程では、
前記映像データから自動的に露光時間及び露出開口量を判断する露出設定モードが選択された状態において、
前記撮像装置が流し撮り状態にあると判定された場合で、且つ、適正露光が得られると判定された場合において、前記角速度情報と、前記撮影光学系の焦点距離情報とに基づいて決定される露光時間に基づいて、撮影時の露出制御を行い、
前記撮像装置が流し撮り状態にないと判定された場合において、像ブレを生じさせないように撮影を行うための露出制御を行う、
ことを特徴とする撮像装置の制御方法。
An imaging apparatus control method for controlling an imaging apparatus including an imaging unit that acquires video data from a subject image formed by an imaging optical system,
Obtaining angular velocity information associated with a change in posture of the imaging device;
Determining whether or not the imaging device is in a panning state based on the acquired angular velocity information;
A step of controlling an exposure condition when acquiring the video data for the imaging unit,
In the step of controlling the exposure condition,
In the state where the exposure setting mode for automatically determining the exposure time and the exposure opening amount from the video data is selected,
When it is determined that the imaging apparatus is in the panning state and when it is determined that appropriate exposure can be obtained, it is determined based on the angular velocity information and the focal length information of the imaging optical system. Based on the exposure time, perform exposure control during shooting,
When it is determined that the imaging device is not in the panning state, exposure control is performed to perform shooting so as not to cause image blurring.
And a method of controlling the imaging apparatus.
撮影光学系が結像する被写体像から映像データを取得する撮像部を備える撮像装置の演算処理装置で実行されるプログラムであって、
前記撮像装置の姿勢変化に伴う角速度情報を取得する機能と、
前記取得された角速度情報に基づいて、前記撮像装置が流し撮り状態であるか否かを判定する機能と、
前記撮像部に対して、前記映像データを取得する際の露出条件の制御を行う機能と、を含み、
前記露出条件の制御を行う機能では、
前記映像データから自動的に露光時間及び露出開口量を判断する露出設定モードが選択された状態において、
前記撮像装置が流し撮り状態にあると判定された場合で、且つ、適正露光が得られると判定された場合において、前記角速度情報と、前記撮影光学系の焦点距離情報とに基づいて決定される露光時間に基づいて、撮影時の露出制御を行い、
前記撮像装置が流し撮り状態にないと判定された場合において、像ブレを生じさせないように撮影を行うための露出制御を行う、
ことを特徴とするプログラム。
A program executed by an arithmetic processing unit of an imaging apparatus including an imaging unit that acquires video data from a subject image formed by an imaging optical system,
A function of acquiring angular velocity information accompanying a change in posture of the imaging device;
A function of determining whether the imaging device is in a panning state based on the acquired angular velocity information;
A function of controlling exposure conditions when acquiring the video data for the imaging unit,
In the function of controlling the exposure condition,
In the state where the exposure setting mode for automatically determining the exposure time and the exposure opening amount from the video data is selected,
When it is determined that the imaging apparatus is in the panning state and when it is determined that appropriate exposure can be obtained, it is determined based on the angular velocity information and the focal length information of the imaging optical system. Based on the exposure time, perform exposure control during shooting,
When it is determined that the imaging device is not in the panning state, exposure control is performed to perform shooting so as not to cause image blurring.
A program characterized by that.
JP2014104598A 2014-05-20 2014-05-20 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM Active JP6360721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014104598A JP6360721B2 (en) 2014-05-20 2014-05-20 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014104598A JP6360721B2 (en) 2014-05-20 2014-05-20 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2015219463A true JP2015219463A (en) 2015-12-07
JP6360721B2 JP6360721B2 (en) 2018-07-18

Family

ID=54778858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014104598A Active JP6360721B2 (en) 2014-05-20 2014-05-20 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6360721B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135515A (en) * 2016-01-26 2017-08-03 キヤノン株式会社 Imaging apparatus and control method of the same

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05232562A (en) * 1992-02-24 1993-09-10 Nikon Corp Panning device for camera
US5761545A (en) * 1992-02-06 1998-06-02 Nikon Corporation Pan shot device for a camera
JPH11261882A (en) * 1998-03-12 1999-09-24 Nikon Corp Camera
JP2000194030A (en) * 1998-12-25 2000-07-14 Canon Inc Image recording and reproducing system, image recorder and image reproducing device
JP2001042379A (en) * 1999-07-27 2001-02-16 Olympus Optical Co Ltd Blurring detecting camera
JP2001086398A (en) * 1999-07-15 2001-03-30 Olympus Optical Co Ltd Image-pickup unit
JP2008289032A (en) * 2007-05-21 2008-11-27 Canon Inc Imaging apparatus
JP2010250156A (en) * 2009-04-17 2010-11-04 Nikon Corp Electronic camera
JP2013131996A (en) * 2011-12-22 2013-07-04 Olympus Imaging Corp Imaging apparatus
JP2013200530A (en) * 2012-03-26 2013-10-03 Canon Inc Imaging apparatus and control method thereof

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761545A (en) * 1992-02-06 1998-06-02 Nikon Corporation Pan shot device for a camera
JPH05232562A (en) * 1992-02-24 1993-09-10 Nikon Corp Panning device for camera
JPH11261882A (en) * 1998-03-12 1999-09-24 Nikon Corp Camera
JP2000194030A (en) * 1998-12-25 2000-07-14 Canon Inc Image recording and reproducing system, image recorder and image reproducing device
US20010038748A1 (en) * 1998-12-25 2001-11-08 Ichiro Onuki Image recording/reproducing system, image recording apparatus, and image reproducing apparatus
JP2001086398A (en) * 1999-07-15 2001-03-30 Olympus Optical Co Ltd Image-pickup unit
JP2001042379A (en) * 1999-07-27 2001-02-16 Olympus Optical Co Ltd Blurring detecting camera
US6385398B1 (en) * 1999-07-27 2002-05-07 Olympus Optical Co., Ltd. Camera with blurring detection function
JP2008289032A (en) * 2007-05-21 2008-11-27 Canon Inc Imaging apparatus
JP2010250156A (en) * 2009-04-17 2010-11-04 Nikon Corp Electronic camera
JP2013131996A (en) * 2011-12-22 2013-07-04 Olympus Imaging Corp Imaging apparatus
JP2013200530A (en) * 2012-03-26 2013-10-03 Canon Inc Imaging apparatus and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135515A (en) * 2016-01-26 2017-08-03 キヤノン株式会社 Imaging apparatus and control method of the same

Also Published As

Publication number Publication date
JP6360721B2 (en) 2018-07-18

Similar Documents

Publication Publication Date Title
JP5507014B2 (en) Moving object detection apparatus and method
KR101528860B1 (en) Method and apparatus for correcting a shakiness in digital photographing apparatus
CN109417593B (en) Imaging device, operation method, image processing device, and image processing method
JP2007201534A (en) Imaging apparatus
JP6932531B2 (en) Image blur correction device, image pickup device, control method of image pickup device
JP2006033758A (en) Imaging apparatus and image restoration method
JP5326809B2 (en) Imaging device
JP2015219462A (en) Imaging device, control method of imaging device and program
JP3646124B2 (en) Autofocus device
JP6360721B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2015215553A (en) Imaging apparatus
JP2013141155A (en) Imaging device
JP2007306436A (en) Imaging apparatus
JP7346076B2 (en) Control device, lens device, imaging device, control method, and program
CN109218601B (en) Image shake correction device, main body device, image shake correction method, and recording medium
JP6465553B2 (en) Imaging apparatus and control method thereof
JP5326799B2 (en) Imaging device
JP5603671B2 (en) Electronic device, imaging method, and image conversion program
JP7414484B2 (en) Optical equipment, imaging device and control method
US11653093B2 (en) Focus detection device and focus detection method
JP6949803B2 (en) Imaging device, its control method, program and recording medium
JP2012257099A (en) Electronic camera
JP2011075841A (en) Imaging apparatus
JP6778014B2 (en) Imaging device and its control method, program, storage medium
JP2024004307A (en) Imaging device and control method thereof, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180625

R151 Written notification of patent or utility model registration

Ref document number: 6360721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250