JP2010183353A - Photographing device - Google Patents

Photographing device Download PDF

Info

Publication number
JP2010183353A
JP2010183353A JP2009025024A JP2009025024A JP2010183353A JP 2010183353 A JP2010183353 A JP 2010183353A JP 2009025024 A JP2009025024 A JP 2009025024A JP 2009025024 A JP2009025024 A JP 2009025024A JP 2010183353 A JP2010183353 A JP 2010183353A
Authority
JP
Japan
Prior art keywords
image
area
unit
acquisition unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009025024A
Other languages
Japanese (ja)
Inventor
Hideki Kanbayashi
秀樹 神林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009025024A priority Critical patent/JP2010183353A/en
Publication of JP2010183353A publication Critical patent/JP2010183353A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing device which is suitable for photographing, in relation to the photographing device, including a shake correction function for correcting blurring occurring in photographing. <P>SOLUTION: The photographing device includes a detection part (28) for detecting blurring of the device to output a detection signal; a first image acquisition part (52) acquiring a first image (P<SB>1</SB>) and a second image (P<SB>2</SB>), acquired at a time which is different from the time the first image is acquired; a second image acquisition part (51) acquiring a third image which is different from the first and second images; a motion vector acquiring part (84) identifying a second region (TM1'') which corresponds to a first region (TM1) included in the first image from the second image by using the detection signal, and acquiring a motion vector using information of the first region and that of the second region; and a correction part (25) for correcting the blurring of the device by using the motion vector. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影時に生じるブレを補正するブレ補正機能を備えた撮影装置に関する。   The present invention relates to a photographing apparatus having a blur correction function for correcting a blur that occurs during photographing.

撮影光学系における光軸のブレを補正するブレ補正装置や、そのようなブレ補正装置を備えた撮影装置などが知られている。これらの装置の中には、撮影光学系の一部と撮像素子(またはフィルム)とのいずれかを物理的に移動させることによりブレを補正するものがある。また、この他に、露光時間を分割して繰り返し撮像を行い、該撮像で得られた複数の画像を撮影光学系の光軸のブレとから求められる動きベクトルに基づいて合成する装置も提案されている。   2. Description of the Related Art There are known shake correction devices that correct optical axis shake in a shooting optical system, and shooting devices that include such a shake correction device. Some of these apparatuses correct blur by physically moving either a part of the photographing optical system or an image sensor (or film). In addition to this, there has also been proposed an apparatus that divides the exposure time and repeats imaging, and synthesizes a plurality of images obtained by the imaging based on a motion vector obtained from the optical axis blur of the imaging optical system. ing.

本発明は、好適な撮影が可能な撮影装置を提供することを目的とする。   An object of this invention is to provide the imaging device which can perform suitable imaging | photography.

本発明は、以下のような解決手段により前記課題を解決する。なお、理解を容易にするために、本発明の一実施例を示す図面に対応する符号を付して説明するが、これに限定されるものではない。   The present invention solves the above problems by the following means. For ease of understanding, reference numerals corresponding to the drawings showing an embodiment of the present invention are given and described, but the present invention is not limited to this.

請求項1に記載の発明は、装置の振れを検出し検出信号を出力する検出部(28)と、
第1画像(P)と、前記第1画像(P)が取得された時刻とは異なる時刻に取得された第2画像(P)とを取得する第1画像取得部(52)と、
前記第1画像(P)及び前記第2画像(P)とは異なる第3画像を取得する第2画像取得部(51)と、
前記第1画像(P)に含まれる第1領域(TM1)に対応する第2領域(TM1’’)を、前記検出信号を用いて前記第2画像(P)から特定し、前記第1領域(TM1)の情報と前記第2領域(TM1’’)の情報とを用いて動きベクトルを取得する動きベクトル取得部(84)と、
前記動きベクトルを用いて前記装置の振れを補正する補正部(25)とを含むことを特徴とする撮影装置である。
The invention according to claim 1 is a detection unit (28) for detecting a shake of the apparatus and outputting a detection signal;
A first image acquisition unit (52) for acquiring a first image (P 1 ) and a second image (P 2 ) acquired at a time different from the time at which the first image (P 1 ) was acquired; ,
A second image acquisition unit (51) for acquiring a third image different from the first image (P 1 ) and the second image (P 2 );
A second region (TM1 ″) corresponding to a first region (TM1) included in the first image (P 1 ) is identified from the second image (P 2 ) using the detection signal, and the second region (TM1 ″) is identified. A motion vector acquisition unit (84) for acquiring a motion vector using information on one area (TM1) and information on the second area (TM1 '');
An imaging apparatus comprising: a correction unit (25) that corrects a shake of the apparatus using the motion vector.

請求項2に記載の発明は、請求項1に記載された撮影装置であって、
前記補正部(25)は、前記第2画像取得部(51)により取得される像を形成する光学系(21)の少なくとも一部、及び、前記第2画像取得部(51)の少なくとも一方を駆動することにより、前記装置の振れを補正することを特徴とする撮影装置である。
Invention of Claim 2 is the imaging device described in Claim 1,
The correction unit (25) includes at least one of the optical system (21) that forms an image acquired by the second image acquisition unit (51) and at least one of the second image acquisition unit (51). An imaging apparatus that corrects a shake of the apparatus by driving.

請求項3に記載の発明は、請求項1又は請求項2に記載された撮影装置であって、
前記検出信号に含まれるパンニング成分を低減させるフィルタ部と、
撮影者が操作可能な操作部(74)とを含み、
前記動きベクトル取得部(84)は、前記撮影者により前記操作部(74)が操作されたとき、前記フィルタ部から出力された信号を用いて前記第2画像(P)から前記第2領域(TM1’’)を特定することを特徴とする撮影装置である。
The invention described in claim 3 is the photographing apparatus according to claim 1 or 2, wherein
A filter unit for reducing a panning component included in the detection signal;
An operation unit (74) operable by the photographer,
When the operation unit (74) is operated by the photographer, the motion vector acquisition unit (84) uses the signal output from the filter unit to generate the second region from the second image (P 2 ). (TM1 ″) is specified.

請求項4に記載の発明は、請求項1から請求項3までの何れか1項に記載された撮影装置であって、
前記動きベクトル取得部(84)は、前記検出信号に基づいて前記第2画像(P)に前記第1領域(TM1)に対応する設定領域(TM1’)を設定し、前記設定領域(TM1’)と前記第1領域(TM1)との相関が高いときは、前記設定領域(TM1’)を前記第2領域(TM1’’)とすることを特徴とする撮影装置である。
The invention according to claim 4 is the photographing apparatus according to any one of claims 1 to 3,
The motion vector acquisition unit (84) sets a setting area (TM1 ′) corresponding to the first area (TM1) in the second image (P 2 ) based on the detection signal, and the setting area (TM1 When the correlation between ') and the first area (TM1) is high, the setting area (TM1') is the second area (TM1 '').

請求項5に記載の発明は、請求項4に記載された撮影装置であって、
前記動きベクトル取得部(84)は、前記設定領域(TM1’)と前記第1領域(TM1)との相関が低い場合、前記設定領域(TM1’)の近傍の領域と前記第1領域(TM1)との相関を演算し、前記設定領域(TM1’)の近傍の領域と前記第1領域(TM1)との相関が前記設定領域(TM1’)と前記第1領域(TM1)との相関よりも高いとき、前記設定領域(TM1’)の近傍の領域を前記第2領域(TM1’’)とすることを特徴とする撮影装置である。
The invention described in claim 5 is the photographing apparatus described in claim 4,
When the correlation between the setting area (TM1 ′) and the first area (TM1) is low, the motion vector acquisition unit (84) and the first area (TM1) ) And the correlation between the area near the setting area (TM1 ′) and the first area (TM1) is based on the correlation between the setting area (TM1 ′) and the first area (TM1). Is higher, the area near the set area (TM1 ′) is the second area (TM1 ″).

請求項6に記載の発明は、請求項1から請求項5までの何れか1項に記載された撮影装置であって、
前記第3画像に含まれる主要被写体を検出する主要被写体検出部を有し、
前記第1領域(TM1)には、前記主要被写体の少なくとも一部が含まれることを特徴とする撮影装置である。
A sixth aspect of the present invention is the imaging apparatus according to any one of the first to fifth aspects,
A main subject detection unit for detecting a main subject included in the third image;
The first device (TM1) is an imaging device characterized in that at least a part of the main subject is included.

請求項7に記載の発明は、請求項1から請求項5までの何れか1項に記載された撮影装置であって、
前記第3画像の合焦領域を検出する合焦領域検出部(35)を有し、
前記第1領域(TM1)は、前記合焦領域検出部(35)により検出された前記合焦領域に対応する領域を含むことを特徴とする撮影装置である。
The invention according to claim 7 is the imaging device according to any one of claims 1 to 5,
A focusing area detecting unit (35) for detecting a focusing area of the third image;
The first area (TM1) is an imaging apparatus including an area corresponding to the in-focus area detected by the in-focus area detection unit (35).

請求項8に記載の発明は、請求項1からから請求項7までの何れか1項に記載された撮影装置であって、
前記第1画像取得部(52)により撮像された前記第1画像(P)及び前記第2画像(P)は、前記第2画像取得部(51)により撮像された前記第3画像よりも被写界深度が深いことを特徴とする撮影装置である。
The invention according to claim 8 is the imaging apparatus according to any one of claims 1 to 7,
The first image (P 1 ) and the second image (P 2 ) captured by the first image acquisition unit (52) are more than the third image captured by the second image acquisition unit (51). Is a photographing apparatus characterized by a deep depth of field.

請求項9に記載の発明は、請求項1から請求項8までの何れか1項に記載された撮影装置であって、
前記第1画像取得部(52)により撮像された前記第1画像(P)及び前記第2画像(P)は、前記第2画像取得部(51)により撮像された前記第3画像よりも広角の画像であることを特徴とする撮影装置である。
The invention according to claim 9 is the photographing apparatus according to any one of claims 1 to 8,
The first image (P 1 ) and the second image (P 2 ) captured by the first image acquisition unit (52) are more than the third image captured by the second image acquisition unit (51). Is a wide-angle image capturing device.

請求項10に記載の発明は、請求項1からから請求項9までの何れか1項に記載された撮影装置であって、
前記第1画像取得部(52)は、前記第1画像(P)及び前記第2画像(P)を形成するための第1光学系(41)を有し、
前記第2画像取得部(51)は、前記第1光学系(41)よりも狭角な前記第3画像を形成するための第2光学系(21)を有することを特徴とする撮影装置である。
A tenth aspect of the present invention is the photographing apparatus according to any one of the first to ninth aspects,
The first image acquisition unit (52) includes a first optical system (41) for forming the first image (P 1 ) and the second image (P 2 ),
The second image acquisition unit (51) includes a second optical system (21) for forming the third image having a narrower angle than the first optical system (41). is there.

請求項11に記載の発明は、請求項1から請求項10までの何れか1項に記載された撮影装置であって、
前記第1画像取得部(52)は、前記第2画像(P)を取得した後、前記第1画像(P)、前記第2画像(P)及び前記第3画像とは異なる第4画像を取得し、
前記動きベクトル取得部(84)は、前記第2画像(P)の前記第2領域(TM1’’)に対応する第4領域を、前記検出信号を用いて前記第4画像から特定し、前記第2領域(TM1’’)の情報と前記第4領域の情報とを用いて動きベクトルを取得することを特徴とする撮影装置である。
The invention according to claim 11 is the photographing apparatus according to any one of claims 1 to 10,
The first image acquisition unit (52), after acquiring the second image (P 2), the first image (P 1), different from the first and the second image (P 2) and the third image Acquire 4 images
The motion vector obtaining unit (84), a fourth region corresponding to the second region of the second image (P 2) (TM1 ''), identified from the fourth image using the detection signal, The imaging apparatus is characterized in that a motion vector is acquired using information on the second area (TM1 ″) and information on the fourth area.

なお、符号を付して説明した構成は適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。   Note that the configuration described with reference numerals may be improved as appropriate, or at least a part thereof may be replaced with another component.

本発明によれば、好適な撮影が可能な撮影装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can perform suitable imaging | photography can be provided.

電子カメラの構成を示す図である。It is a figure which shows the structure of an electronic camera. 電子カメラの回路構成を示す図である。It is a figure which shows the circuit structure of an electronic camera. 角速度センサにより求められる移動ベクトルを、手ブレ成分とパンニング成分とに分解したときの図である。It is a figure when the movement vector calculated | required by an angular velocity sensor is decomposed | disassembled into the camera shake component and the panning component. 第1ズレ補正モードが選択されたときに得られる第1画像及び第2画像における撮影範囲及び被写体の位置を示す図である。It is a figure which shows the imaging | photography range and the position of a to-be-photographed object in the 1st image and 2nd image obtained when the 1st deviation correction mode is selected. 撮影範囲を固定したときに、時間T1から時間T2に変化したときの被写体の位置を示す図である。It is a figure which shows the position of a to-be-photographed object when it changes from time T1 to time T2 when the imaging | photography range is fixed. 第2ズレ補正モードが選択されたときに得られる第1画像及び第2画像における撮影範囲及び被写体の位置を示す図である。It is a figure which shows the imaging | photography range and the position of a to-be-photographed object in a 1st image and a 2nd image obtained when 2nd deviation correction mode is selected. 撮影範囲を固定したときに、時間T3から時間T4に変化したときの被写体の位置を示す図である。It is a figure which shows the position of a to-be-photographed object when it changes from time T3 to time T4 when the imaging | photography range is fixed. 撮像時の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process at the time of imaging.

図1は、本実施形態の撮影装置の一例としての電子カメラの概略を示す。電子カメラ10は、カメラ本体11と、撮影光学系を収容したレンズユニット12とを有している。カメラ本体11及びレンズユニット12には、雄雌の関係をなす一対のマウント13,14がそれぞれ設けられている。レンズ側のマウント14をバヨネット機構等でカメラ本体11側のマウント13に結合することで、レンズユニット12はカメラ本体11に対して交換可能に装着される。また、上記のマウント13,14にはそれぞれ電気接点(不図示)が設けられている。カメラ本体11とレンズユニット12との接続時には、電気接点間の接触で両者の電気的な接続が確立するようになっている。   FIG. 1 shows an outline of an electronic camera as an example of a photographing apparatus according to the present embodiment. The electronic camera 10 includes a camera body 11 and a lens unit 12 that houses a photographing optical system. The camera body 11 and the lens unit 12 are each provided with a pair of mounts 13 and 14 that form a male-female relationship. The lens unit 12 is attached to the camera body 11 in a replaceable manner by coupling the lens side mount 14 to the mount 13 on the camera body 11 side by a bayonet mechanism or the like. The mounts 13 and 14 are each provided with an electrical contact (not shown). When the camera body 11 and the lens unit 12 are connected, electrical connection between the two is established by contact between the electrical contacts.

まず、レンズユニット12の構成を説明する。レンズユニット12は、撮像光学系21と、ズームエンコーダ22と、レンズ駆動部23と、距離エンコーダ24と、ブレ補正部25と、絞り26と、絞り駆動部27と、角速度センサ28と、レンズマイコン29とを有している。なお、ズームエンコーダ22、レンズ駆動部23、距離エンコーダ24、ブレ補正部25及び絞り駆動部27は、それぞれレンズマイコン29に接続されている。以下、このレンズユニット12に設けられる撮像光学系21を第1撮像光学系21と称して説明する。   First, the configuration of the lens unit 12 will be described. The lens unit 12 includes an imaging optical system 21, a zoom encoder 22, a lens driving unit 23, a distance encoder 24, a blur correction unit 25, a diaphragm 26, a diaphragm driving unit 27, an angular velocity sensor 28, and a lens microcomputer. 29. Note that the zoom encoder 22, the lens driving unit 23, the distance encoder 24, the blur correction unit 25, and the aperture driving unit 27 are each connected to a lens microcomputer 29. Hereinafter, the imaging optical system 21 provided in the lens unit 12 will be described as the first imaging optical system 21.

第1撮像光学系21は、ズームレンズ21aやフォーカスレンズ21b等、複数のレンズを有している。ズームレンズ21aは焦点距離を調整するためのレンズであって、ズーム環(不図示)の操作に応じて光軸方向に前後移動可能に構成されている。このズームレンズ21aには、レンズの光軸方向位置を検出するズームエンコーダ22が取り付けられている。フォーカスレンズ21bは合焦位置を調節するためのレンズであって、光軸方向に前後移動可能に構成されている。レンズ駆動部23はフォーカスレンズ21bをモータ(不図示)によって駆動させる。このフォーカスレンズ21bには、光軸方向に移動するフォーカスレンズ21bの位置を検出する距離エンコーダ24が取り付けられている。上述したズームエンコーダ22からの検出信号や、距離エンコーダ24からの検出信号は、レンズマイコン29に出力される。これら検出信号より、撮影時の撮影距離や焦点距離が求められる。なお、撮影距離や焦点距離はレンズマイコン29又は後述するCPU58にて求められ、第1撮像光学系21と第2撮像光学系41との視差補正時に用いられる。   The first imaging optical system 21 has a plurality of lenses such as a zoom lens 21a and a focus lens 21b. The zoom lens 21a is a lens for adjusting the focal length, and is configured to be movable back and forth in the optical axis direction in accordance with an operation of a zoom ring (not shown). A zoom encoder 22 for detecting the position of the lens in the optical axis direction is attached to the zoom lens 21a. The focus lens 21b is a lens for adjusting the in-focus position, and is configured to be movable back and forth in the optical axis direction. The lens driving unit 23 drives the focus lens 21b by a motor (not shown). A distance encoder 24 for detecting the position of the focus lens 21b moving in the optical axis direction is attached to the focus lens 21b. The detection signal from the zoom encoder 22 and the detection signal from the distance encoder 24 are output to the lens microcomputer 29. From these detection signals, the shooting distance and focal length at the time of shooting are obtained. Note that the photographing distance and the focal distance are obtained by the lens microcomputer 29 or a CPU 58 described later, and are used at the time of parallax correction between the first imaging optical system 21 and the second imaging optical system 41.

ブレ補正部25は、例えば、VCM(ボイスコイルモータ)等のアクチュエータであり、後述する相関演算部86により求められるブレ量に基づいて第1撮像光学系21の少なくとも一部のレンズを光軸方向と直交する方向に移動させ、撮影時に生じるブレを補正する。   The blur correction unit 25 is an actuator such as a VCM (voice coil motor), for example, and at least a part of the lenses of the first imaging optical system 21 is moved in the optical axis direction based on a blur amount obtained by a correlation calculation unit 86 described later. Is moved in a direction orthogonal to the direction of the image to correct blurring that occurs during shooting.

絞り26は、カメラ本体11への入射光量を絞り羽根の開閉で調整する。絞り駆動部27は、絞り26の開口度をモータ(不図示)によって制御する。   The diaphragm 26 adjusts the amount of light incident on the camera body 11 by opening and closing the diaphragm blades. The diaphragm drive unit 27 controls the opening degree of the diaphragm 26 by a motor (not shown).

角速度センサ28は、レンズユニット12の姿勢が変化したときのレンズユニット12の角速度を検出する。例えば動いている被写体を追って電子カメラ10を移動させる、所謂パンニングを行う場合や、ユーザが電子カメラ10を把持する際にカメラ本体11のブレ(手ブレ)が生じた場合に、レンズユニット12の姿勢が変化するので、このような場合に、角速度センサ28により角速度が検出される。つまり、この角速度センサ28によって、レンズユニット12及びカメラ本体11の角速度、言い換えれば第1撮像光学系21の角速度が検出される。この角速度は、第2撮像光学系41の角速度に等しい。   The angular velocity sensor 28 detects the angular velocity of the lens unit 12 when the posture of the lens unit 12 changes. For example, when so-called panning is performed in which the electronic camera 10 is moved following a moving subject, or when the camera body 11 is shaken when the user grips the electronic camera 10, Since the posture changes, in such a case, the angular velocity sensor 28 detects the angular velocity. That is, the angular velocity sensor 28 detects the angular velocities of the lens unit 12 and the camera body 11, in other words, the angular velocity of the first imaging optical system 21. This angular velocity is equal to the angular velocity of the second imaging optical system 41.

レンズマイコン29は、マウント14の電気接点を介してカメラ本体11との通信を行うとともに、レンズユニット12での各種制御を実行する。また、レンズマイコン29は、ROM(不図示)に記録されたレンズデータなどをカメラ本体11に送信する。   The lens microcomputer 29 communicates with the camera body 11 through the electrical contacts of the mount 14 and executes various controls in the lens unit 12. The lens microcomputer 29 transmits lens data recorded in a ROM (not shown) to the camera body 11.

ところで、図1に示すレンズユニット12は一般的なズームレンズユニットの構成の一例にすぎない。そのため、カメラ本体11には、上記のレンズユニット12のほかにも、例えばレンズマイコン29を有しないレンズユニットや、単焦点レンズのレンズユニットなどを装着することが可能である。   Incidentally, the lens unit 12 shown in FIG. 1 is merely an example of a configuration of a general zoom lens unit. Therefore, in addition to the lens unit 12 described above, for example, a lens unit that does not include the lens microcomputer 29 or a lens unit of a single focus lens can be attached to the camera body 11.

また、レンズユニット12がカメラ本体11に着脱自在な、所謂一眼レフタイプの電子カメラの例を取り上げているが、これに限定する必要はなく、レンズユニット12がカメラ本体11に固定される、所謂コンパクトタイプの電子カメラであってもよい。   Further, an example of a so-called single-lens reflex type electronic camera in which the lens unit 12 is detachably attached to the camera body 11 is taken up. However, the present invention is not limited to this, and the lens unit 12 is fixed to the camera body 11. It may be a compact type electronic camera.

次に、カメラ本体11の撮影機構の構成を説明する。カメラ本体11は、クイックリターンミラー31と、メカニカルシャッタ32と、第1撮像素子33と、サブミラー34と、焦点検出部35と、ファインダ光学系(36〜39)と、第2撮像光学系41及び第2撮像素子42を有している。   Next, the configuration of the photographing mechanism of the camera body 11 will be described. The camera body 11 includes a quick return mirror 31, a mechanical shutter 32, a first image sensor 33, a sub mirror 34, a focus detection unit 35, a finder optical system (36 to 39), a second image pickup optical system 41, and A second image sensor 42 is provided.

クイックリターンミラー31、メカニカルシャッタ32及び第1撮像素子33は、第1撮像光学系21の光軸に沿って配置される。クイックリターンミラー31の後方にはサブミラー34が配置される。また、カメラ本体11の上部にはファインダ光学系、第2撮像光学系41及び第2撮像素子42が配置されている。さらに、カメラ本体11の下部領域には焦点検出部35が配置されている。   The quick return mirror 31, the mechanical shutter 32, and the first image sensor 33 are disposed along the optical axis of the first image pickup optical system 21. A sub mirror 34 is disposed behind the quick return mirror 31. Further, a finder optical system, a second imaging optical system 41, and a second imaging element 42 are disposed on the upper part of the camera body 11. Further, a focus detection unit 35 is disposed in the lower region of the camera body 11.

クイックリターンミラー31は、不図示の回動軸によって回動可能に軸支されており、観察状態と退避状態とを切り替え可能となっている。観察状態のクイックリターンミラー31は、メカニカルシャッタ32及び第1撮像素子33の前方で傾斜配置される。この観察状態のクイックリターンミラー31は、第1撮像光学系21を通過した光束を上方へ反射してファインダ光学系に導く。また、クイックリターンミラー31の中央部はハーフミラーとなっている。そして、クイックリターンミラー31を透過した一部の光束は、サブミラー34によって下方に屈折されて焦点検出部35に導かれる。なお、焦点検出部35は、不図示のセパレータレンズで分割された被写体像の像ズレ量を各々のAFエリア毎に検出し、いわゆる位相差検出式の焦点検出を行う。   The quick return mirror 31 is pivotally supported by a rotation shaft (not shown) and can be switched between an observation state and a retracted state. The quick return mirror 31 in the observation state is inclined and disposed in front of the mechanical shutter 32 and the first image sensor 33. The quick return mirror 31 in this observation state reflects the light beam that has passed through the first imaging optical system 21 upward and guides it to the finder optical system. Further, the central portion of the quick return mirror 31 is a half mirror. A part of the light beam that has passed through the quick return mirror 31 is refracted downward by the sub mirror 34 and guided to the focus detection unit 35. The focus detection unit 35 detects the amount of image shift of the subject image divided by a separator lens (not shown) for each AF area, and performs so-called phase difference detection type focus detection.

一方、退避状態のクイックリターンミラー31は、サブミラー34とともに上方に跳ね上げられて撮影光路から外れた位置に回動する。クイックリターンミラー31が退避状態にあるときは、第1撮像光学系21を通過した光束がメカニカルシャッタ32及び第1撮像素子33に導かれる。   On the other hand, the quick return mirror 31 in the retracted state is flipped upward together with the sub mirror 34 and rotated to a position outside the photographing optical path. When the quick return mirror 31 is in the retracted state, the light beam that has passed through the first imaging optical system 21 is guided to the mechanical shutter 32 and the first imaging element 33.

ファインダ光学系は、拡散スクリーン(焦点板)36と、コンデンサレンズ37と、ペンタプリズム38と、接眼レンズ39とを有している。拡散スクリーン36はクイックリターンミラー31の上方に位置し、観察状態のクイックリターンミラー31で反射された光束が一旦結像する。拡散スクリーン36上で結像した光束はコンデンサレンズ37及びペンタプリズム38を通過し、ペンタプリズム38の入射面に対して90°の角度を有する射出面に導かれる。そして、ペンタプリズム38の射出面からの光束は、接眼レンズ39を介してユーザの目に到達することとなる。   The viewfinder optical system includes a diffusion screen (focus plate) 36, a condenser lens 37, a pentaprism 38, and an eyepiece lens 39. The diffusing screen 36 is positioned above the quick return mirror 31, and the light beam reflected by the quick return mirror 31 in the observation state once forms an image. The light beam formed on the diffusion screen 36 passes through the condenser lens 37 and the pentaprism 38 and is guided to the exit surface having an angle of 90 ° with respect to the incident surface of the pentaprism 38. Then, the light beam from the exit surface of the pentaprism 38 reaches the eyes of the user through the eyepiece lens 39.

第2撮像光学系41及び第2撮像素子42は例えばカメラ本体11上部に設けられる。この第2撮像光学系41は、第1撮像光学系21の光軸に平行な直線を光軸とするように配置される。これら第2撮像光学系41及び第2撮像素子42は、後述するブレ量を算出するための画像(以下、演算用画像)を取得する際に用いられる。このため、第2撮像光学系41は、第1撮像光学系21の画角を含有しつつ、第1撮像光学系21よりもイメージサークルの小さい光学系から構成される。なお、第2撮像素子42は、例えば毎秒200枚など、所定間隔毎に演算用画像を取得するように制御される。この第2撮像素子42においては、例えば1万画素など、第1撮像素子33よりも画素数が少ないものが用いられる。   The second imaging optical system 41 and the second imaging element 42 are provided, for example, on the camera body 11. The second imaging optical system 41 is arranged so that a straight line parallel to the optical axis of the first imaging optical system 21 is an optical axis. The second image pickup optical system 41 and the second image pickup element 42 are used when acquiring an image (hereinafter referred to as a calculation image) for calculating a shake amount described later. For this reason, the second imaging optical system 41 includes an optical system that includes the angle of view of the first imaging optical system 21 and has a smaller image circle than the first imaging optical system 21. The second image sensor 42 is controlled so as to acquire a calculation image at predetermined intervals, for example, 200 images per second. As the second image sensor 42, for example, a pixel having a smaller number of pixels than the first image sensor 33, such as 10,000 pixels, is used.

次に、電子カメラ10の回路構成について、図2を用いて説明する。カメラ本体11は、第1画像取得部51、第2画像取得部52、メモリ53、記録I/F54、表示I/F55、メインモニタ56、操作部57、CPU58及びシステムバス59を有している。ここで、第1画像取得部51、メモリ53、記録I/F54、表示I/F55及びCPU58はシステムバス59を介して接続されている。なお、CPU58は、マウント13の電気接点とも接続されている(図示省略)。   Next, the circuit configuration of the electronic camera 10 will be described with reference to FIG. The camera body 11 includes a first image acquisition unit 51, a second image acquisition unit 52, a memory 53, a recording I / F 54, a display I / F 55, a main monitor 56, an operation unit 57, a CPU 58, and a system bus 59. . Here, the first image acquisition unit 51, the memory 53, the recording I / F 54, the display I / F 55, and the CPU 58 are connected via a system bus 59. The CPU 58 is also connected to the electrical contacts of the mount 13 (not shown).

第1画像取得部51は、第1撮像素子33、第1アナログ処理部61、第1デジタル処理部62を有している。第1撮像素子33は、記録用画像である撮影画像を生成するためのセンサである。この第1撮像素子33は、レリーズ時に第1撮像光学系21を通過した光束を光電変換して撮影画像のアナログ画像信号を出力する。第1撮像素子33の出力信号は第1アナログ処理部61に入力される。なお、第1撮像素子33は、撮影待機時(非レリーズ時)に所定間隔毎に間引き読み出しでスルー画像を出力することもできる。そのため、クイックリターンミラー31が退避位置にある場合には、CPU58が第1撮像素子33のスルー画像によって撮影条件を決定することも可能である。   The first image acquisition unit 51 includes a first image sensor 33, a first analog processing unit 61, and a first digital processing unit 62. The first image sensor 33 is a sensor for generating a captured image that is a recording image. The first image sensor 33 photoelectrically converts the light beam that has passed through the first imaging optical system 21 at the time of release, and outputs an analog image signal of a captured image. The output signal of the first image sensor 33 is input to the first analog processing unit 61. Note that the first image sensor 33 can also output a through image by thinning-out reading at a predetermined interval during shooting standby (non-release). For this reason, when the quick return mirror 31 is in the retracted position, the CPU 58 can determine the photographing condition based on the through image of the first image sensor 33.

第1アナログ処理部61は、CDS回路、ゲイン回路、A/D変換回路などを有するアナログフロントエンド回路である。CDS回路は、相関二重サンプリングによって第1撮像素子33の出力のノイズ成分を低減する。ゲイン回路は入力信号の利得を増幅して出力する。このゲイン回路では、ISO感度に相当する撮像感度の調整を行うことができる。A/D変換回路は第1撮像素子33の出力信号のA/D変換を行う。なお、図2では、第1アナログ処理部61の各々の回路の図示は省略する。   The first analog processing unit 61 is an analog front end circuit having a CDS circuit, a gain circuit, an A / D conversion circuit, and the like. The CDS circuit reduces the noise component of the output of the first image sensor 33 by correlated double sampling. The gain circuit amplifies the gain of the input signal and outputs it. In this gain circuit, the imaging sensitivity corresponding to the ISO sensitivity can be adjusted. The A / D conversion circuit performs A / D conversion of the output signal of the first image sensor 33. In FIG. 2, illustration of each circuit of the first analog processing unit 61 is omitted.

第1デジタル処理部62は、第1アナログ処理部61の出力信号に対して各種の画像処理(欠陥画素補正、色補間、階調変換処理、ホワイトバランス調整、エッジ強調など)を実行して撮影画像のデータを生成する。また、第1デジタル処理部62は、撮影画像のデータの圧縮伸長処理なども実行する。この第1デジタル処理部62はシステムバス59と接続されている。   The first digital processing unit 62 performs various types of image processing (defective pixel correction, color interpolation, gradation conversion processing, white balance adjustment, edge enhancement, etc.) on the output signal of the first analog processing unit 61 and performs shooting. Generate image data. The first digital processing unit 62 also executes compression / decompression processing of captured image data. The first digital processing unit 62 is connected to the system bus 59.

第2画像取得部52は、第2撮像素子42、第2アナログ処理部63、第2デジタル処理部64を有している。なお、第2画像取得部52の構成は第1画像取得部51の構成にほぼ対応するので、両者の重複部分については説明を一部省略する。第2撮像素子42は、第2撮像光学系41を通過して結像した被写体像を所定間隔毎に光電変換することで、後述するブレ量を算出する際に用いる画像(以下、演算用画像)を取得する。第2撮像素子42の出力信号は、第2アナログ処理部63に入力される。上述したように、第2撮像光学系41は、第1撮像光学系21の画角を含有しつつ、第1撮像光学系21よりもイメージサークルの小さい光学系から構成されることから、この第2画像取得部52により取得される画像(演算用画像)は、第1画像取得部51により取得される撮影画像よりも被写体深度が深く、また、その画角が第1画像取得部51により取得される撮影画像よりも広角となる。   The second image acquisition unit 52 includes a second image sensor 42, a second analog processing unit 63, and a second digital processing unit 64. In addition, since the structure of the 2nd image acquisition part 52 respond | corresponds substantially to the structure of the 1st image acquisition part 51, description is partially abbreviate | omitted about both overlapping part. The second image sensor 42 photoelectrically converts the subject image formed through the second imaging optical system 41 at predetermined intervals, thereby using an image (hereinafter referred to as a calculation image) used for calculating a blur amount described later. ) To get. The output signal of the second image sensor 42 is input to the second analog processing unit 63. As described above, the second imaging optical system 41 includes the angle of view of the first imaging optical system 21 and is composed of an optical system having an image circle smaller than that of the first imaging optical system 21. The image (calculation image) acquired by the two-image acquisition unit 52 has a deeper subject depth than the captured image acquired by the first image acquisition unit 51, and the angle of view is acquired by the first image acquisition unit 51. A wider angle than the captured image.

第2アナログ処理部63は、CDS回路、ゲイン回路、A/D変換回路などを有するアナログフロントエンド回路である。第2デジタル処理部64は、演算用画像の色補間処理などを実行する。なお、第2デジタル処理部64から出力された演算用画像のデータはCPU58に入力される。   The second analog processing unit 63 is an analog front end circuit having a CDS circuit, a gain circuit, an A / D conversion circuit, and the like. The second digital processing unit 64 performs color interpolation processing of the calculation image. The calculation image data output from the second digital processing unit 64 is input to the CPU 58.

メモリ53は、第1デジタル処理部62による画像処理の前工程や後工程などで撮影画像のデータを一時的に記録するためのバッファメモリである。記録I/F54には記録媒体66を接続するためのコネクタが形成されている。そして、記録I/F54は、コネクタに接続された記録媒体66に対して撮影画像のデータの書き込み/読み込みを実行する。上記の記録媒体66は、ハードディスクや、半導体メモリを内蔵したメモリカードなどから構成される。   The memory 53 is a buffer memory for temporarily recording captured image data in the pre-process and post-process of image processing by the first digital processing unit 62. A connector for connecting a recording medium 66 is formed in the recording I / F 54. The recording I / F 54 executes writing / reading of captured image data with respect to the recording medium 66 connected to the connector. The recording medium 66 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like.

表示I/F55は、CPU58の指示に基づいてメインモニタ56の表示を制御する。メインモニタ56は、例えばカメラ本体11の背面部などに配置される。メインモニタ56は、CPU58及び表示I/F55の指示に応じて各種の画像を表示する。例えば、メインモニタ56には、撮影画像の再生画像やGUI(Graphical User Interface)形式の入力が可能なメニュー画面などを表示できる(上記の各画像の図示は省略する)。   The display I / F 55 controls display on the main monitor 56 based on an instruction from the CPU 58. The main monitor 56 is disposed on the back surface of the camera body 11, for example. The main monitor 56 displays various images according to instructions from the CPU 58 and the display I / F 55. For example, the main monitor 56 can display a reproduced image of a captured image, a menu screen that allows input in a GUI (Graphical User Interface) format, and the like (illustration of each image is omitted).

操作部57は、レリーズボタン71、モードダイヤル72、ズームスイッチ73及び補正モード切替スイッチ74など、ユーザの操作を受け付ける複数のスイッチを有している。レリーズボタン71は、撮影前のAF動作開始の指示入力と撮影時の露光動作開始の指示入力とをユーザから受け付ける。モードダイヤル72は、そのダイヤル操作により撮影モードの切替入力をユーザから受け付ける。ズームスイッチ73は、第1撮像素子33により取得されるスルー画像の倍率を光学的または電子的に拡大/縮小する操作をユーザから受け付ける。   The operation unit 57 includes a plurality of switches that accept user operations, such as a release button 71, a mode dial 72, a zoom switch 73, and a correction mode changeover switch 74. The release button 71 receives from the user an instruction input for starting an AF operation before photographing and an instruction input for starting an exposure operation during photographing. The mode dial 72 receives a shooting mode switching input from the user by the dial operation. The zoom switch 73 receives an operation for optically or electronically enlarging / reducing the magnification of the through image acquired by the first image sensor 33 from the user.

補正モード切替スイッチ74は、ブレ補正を行うモード(以下、ブレ補正モード)を選択する操作をユーザから受け付ける。撮影時には、カメラ本体11のブレ(以下、手ブレ成分)、カメラ本体11のパンニング(以下、パンニング成分)及び被写体自体のブレ(以下、被写体ブレ成分)等が発生することにより、取得される撮影画像はブレが生じた画像となる。ブレ補正モードは、これらブレ成分のうち、予めユーザの意図するブレ成分を補正できるように複数のブレ補正モードが設けられている。これらブレ補正モードとしては、第1ブレ補正モード、第2ブレ補正モードとして説明する。第1ブレ補正モードは、手ブレ成分、パンニング成分及び被写体ブレ成分の全てを補正するモードである。一方、第2ブレ補正モードは、手ブレ成分及び被写体ブレ成分を補正するモードである。   The correction mode changeover switch 74 receives an operation for selecting a mode for performing blur correction (hereinafter referred to as a blur correction mode) from the user. At the time of shooting, the camera body 11 is shaken (hereinafter referred to as camera shake component), the camera body 11 is panned (hereinafter referred to as panning component), and the subject itself is shaken (hereinafter referred to as subject blur component). The image is a blurred image. In the blur correction mode, a plurality of blur correction modes are provided so that a blur component intended by the user can be corrected in advance among these blur components. These blur correction modes will be described as a first blur correction mode and a second blur correction mode. The first blur correction mode is a mode for correcting all of the camera shake component, the panning component, and the subject blur component. On the other hand, the second shake correction mode is a mode for correcting a camera shake component and a subject shake component.

以下、補正モード切替スイッチ74の機能について、静止画像を撮影画像として取得する場合を例にして説明する。   Hereinafter, the function of the correction mode changeover switch 74 will be described by taking as an example a case where a still image is acquired as a captured image.

図3に示すように、角速度センサ28により検出される角速度の基になる検出信号から、所定時間における第1撮像光学系21の像面上での移動ベクトルAΔTを求めることができる。この検出信号に対してフィルタ処理を行い、高周波成分と、低周波成分とに分離する。このうち、低周波成分はパンニング成分BΔTとなり、高周波成分は手ブレ成分は手ブレ成分CΔTとなる。すなわち、AΔT=BΔT+CΔT(式1)となる。 As shown in FIG. 3, the movement vector A ΔT on the image plane of the first imaging optical system 21 at a predetermined time can be obtained from the detection signal based on the angular velocity detected by the angular velocity sensor 28. Filtering is performed on the detection signal to separate it into a high frequency component and a low frequency component. Among these, the low frequency component is the panning component B ΔT and the high frequency component is the camera shake component C ΔT . That is, A ΔT = B ΔT + C ΔT (Formula 1).

補正モード切替スイッチ74により、第1ブレ補正モードが選択されているときには、パンニング成分BΔT、手ブレ成分CΔT、及び、被写体ブレ成分DΔT(図4参照)についてブレ補正を行う。一方、補正モード切替スイッチ74により、第2ブレ補正モードが選択されているときには、パンニング成分BΔTは補正せずに、手ブレ成分CΔT、及び、被写体ブレ成分DΔTについてブレ補正を行う。 When the first blur correction mode is selected by the correction mode changeover switch 74, the blur correction is performed on the panning component B ΔT , the camera shake component C ΔT , and the subject blur component D ΔT (see FIG. 4). On the other hand, when the second blur correction mode is selected by the correction mode changeover switch 74, the camera shake component C ΔT and the subject blur component D ΔT are corrected without correcting the panning component B ΔT .

CPU58は電子カメラ10の各部の統括的な制御を行う。また、CPU58は、不図示のROMに格納されたプログラムによって、シーケンス制御部81、撮影設定部82、視差補正部83及び動きベクトル取得部84として機能する。シーケンス制御部81は、レンズユニット12、クイックリターンミラー31、メカニカルシャッタ32、第1画像取得部51、第2画像取得部52などの動作の制御などを実行する。   The CPU 58 performs overall control of each part of the electronic camera 10. Further, the CPU 58 functions as a sequence control unit 81, a shooting setting unit 82, a parallax correction unit 83, and a motion vector acquisition unit 84 by a program stored in a ROM (not shown). The sequence control unit 81 executes control of operations of the lens unit 12, the quick return mirror 31, the mechanical shutter 32, the first image acquisition unit 51, the second image acquisition unit 52, and the like.

撮影設定部82は、オートフォーカス(AF)を行うとともに、自動露出(AE)演算、オートホワイトバランス(AWB)演算などを実行し、第1画像取得部51における撮影条件の各種パラメータ(露光時間、絞り値、撮像感度など)を決定する。また、撮影設定部82は、第2画像取得部52のAE、AWBに関する処理も負担する。なお、第2撮像光学系41にフォーカスレンズを有している場合には、この撮影設定部82によって、第2撮像光学系41におけるAFを行う。   The shooting setting unit 82 performs auto focus (AF), automatic exposure (AE) calculation, auto white balance (AWB) calculation, and the like, and various parameters (exposure time, exposure time, Aperture value, imaging sensitivity, etc.) are determined. The shooting setting unit 82 also bears processing related to AE and AWB of the second image acquisition unit 52. When the second imaging optical system 41 has a focus lens, the shooting setting unit 82 performs AF in the second imaging optical system 41.

視差補正部83は、第1画像取得部51で取得される画像(撮影画像、スルー画像)と、第2画像取得部52で取得される画像(演算用画像)との間で生じる視差を補正する。第1画像取得部51と第2画像取得部52とは、それぞれの光学系における焦点距離や撮影倍率等の撮影条件が異なる。このため、第1画像取得部51により取得される撮影画像と、第2画像取得部52により取得される演算用画像とでは視差が発生する。視差補正部83は、それぞれの画像取得部51,52における撮影範囲の関係や、それぞれの画像取得部51,52で取得される画像の大きさに対する比率などを算出する。   The parallax correction unit 83 corrects the parallax generated between the image (captured image, through image) acquired by the first image acquisition unit 51 and the image (calculation image) acquired by the second image acquisition unit 52. To do. The first image acquisition unit 51 and the second image acquisition unit 52 have different shooting conditions such as focal length and shooting magnification in the respective optical systems. For this reason, parallax occurs between the captured image acquired by the first image acquisition unit 51 and the calculation image acquired by the second image acquisition unit 52. The parallax correction unit 83 calculates the relationship between the shooting ranges of the image acquisition units 51 and 52, the ratio of the image acquired by the image acquisition units 51 and 52, and the like.

動きベクトル取得部84は、第2画像取得部52によって所定間隔毎に取得される演算用画像のうち、隣り合う2つの演算用画像(演算用画像P、演算用画像P。図4参照。)を用いて、これら演算用画像において生じる動きベクトルを取得する。この動きベクトル取得部84は、推定部85及び相関演算部86を有している。 The motion vector acquisition unit 84 includes two adjacent calculation images (the calculation image P 1 and the calculation image P 2 , among the calculation images acquired at predetermined intervals by the second image acquisition unit 52. See FIG. 4. )) To obtain the motion vector generated in these calculation images. The motion vector acquisition unit 84 includes an estimation unit 85 and a correlation calculation unit 86.

次に、電子カメラ10により撮影画像を取得する際の処理の流れを図8のフローチャートに基づいて説明する。なお、図8のフローチャートは、撮影待機状態に移行したことを契機にして実行される。   Next, the flow of processing when a captured image is acquired by the electronic camera 10 will be described based on the flowchart of FIG. Note that the flowchart of FIG. 8 is executed in response to the transition to the shooting standby state.

ステップS110において、CPU58はレリーズボタン71が半押しされたか否かを判断する。CPU58はレリーズボタン71が半押しされていると判断した場合、ステップS111に進む。CPU58はレリーズボタン71が半押しされていないと判断した場合、所定時間経過後に再びステップS110を行う。   In step S110, the CPU 58 determines whether or not the release button 71 is half-pressed. If the CPU 58 determines that the release button 71 is half-pressed, the CPU 58 proceeds to step S111. When the CPU 58 determines that the release button 71 is not half-pressed, the CPU 58 performs step S110 again after a predetermined time has elapsed.

ステップS111は、演算用画像P(図示せず)を取得する処理である。CPU58は、第2画像処理部52を制御して演算用画像Pを取得する。ステップS112において、CPU58は演算用画像Pの主要被写体(以下、被写体と称することがある)が存在する被写体領域TM0(図示せず)を決定する。領域TM0は、例えば、人の顔などの主要被写体を含む領域である。被写体領域TM0を決定する方法としては、レリーズボタンを全押しする直前に取得された演算用画像Pにおいてピントが合っている領域、所謂合焦領域とする方法や、特徴量抽出による顔検出などの被写体認識技術を用いて決定する方法や、タッチパネルなどを用いてユーザ自身が直接決定する方法などが挙げられる。 Step S <b> 111 is a process of acquiring a calculation image P 0 (not shown). The CPU 58 controls the second image processing unit 52 to acquire the calculation image P 0 . In step S112, CPU 58 is a main object of the operation image P 0 (hereinafter, sometimes referred to as the subject) to determine the subject region TM0 (not shown) is present. The region TM0 is a region including a main subject such as a human face, for example. As a method for determining a subject region, TM0, area is in focus in the calculation image P 0 obtained immediately before the full depression of the release button, and a method for the Tokoroigoase region, by the feature extraction face detection, etc. For example, a method of determining using the subject recognition technique, and a method of directly determining by the user using a touch panel or the like.

次に、CPU58は、ステップS113において、レリーズボタン71が全押しがされているかを判断し、全押しがされていると判断したらステップS114に進む。全押しがされていないと判断した場合、ステップS111に戻る。ステップS114において、CPU58は第1画像処理部51に電荷の蓄積を開始させ、ステップS121に進む。   Next, in step S113, the CPU 58 determines whether or not the release button 71 is fully pressed. If it is determined that the release button 71 is fully pressed, the process proceeds to step S114. If it is determined that it has not been fully pressed, the process returns to step S111. In step S114, the CPU 58 causes the first image processing unit 51 to start accumulating charges, and the process proceeds to step S121.

ステップS121において、CPU58は、第2画像処理部52を制御して時刻T1に、演算用画像P(図4、図5参照)を取得し、ステップS122に進む。ステップS122において、CPU58は、演算用画像Pのテンプレート領域TM1(図4、図5参照)の画像を取得する。具体的には、CPU58は、時間T1における演算用画像Pから、被写体領域TM0に含まれる主要被写体を含む領域を抽出し、演算用画像Pのテンプレート領域TM1とする(図4、図5参照)。 In step S121, the CPU 58 controls the second image processing unit 52 to acquire the calculation image P 1 (see FIGS. 4 and 5) at time T1, and then proceeds to step S122. In step S122, CPU 58 obtains an image of the operation image P 1 of the template region TM1 (see FIGS. 4 and 5). Specifically, CPU 58, from the operation image P 1 at time T1, extracts a region including a main subject included in the subject region TM0, the template region TM1 of calculating the image P 1 (FIG. 4, FIG. 5 reference).

テンプレート領域TM1は、演算用画像Pの一部であって、演算用画像Pの領域TM0に対応する部分である。例えば、テンプレート領域TM1には、領域TM0に含まれる主要被写体と同一の主要被写体が存在する。 Template region TM1 is part of the calculation for the image P 1, a portion corresponding to the region TM0 of calculating the image P 0. For example, in the template area TM1, the same main subject as the main subject included in the area TM0 exists.

次に、ステップS131(時刻T2)において、CPU58は、演算用画像Pに時間的に連続した演算用画像Pを取得する。なお、CPU58には、第2画像処理部52から演算用画像の基になる画像信号が所定時間毎(例えば、10−5〜10−1秒間隔毎)に入力されており、演算用画像P、演算用画像P、演算用画像P(Mは任意の自然数)を順次に取得可能である。 Next, in step S131 (time T2), CPU 58 obtains a temporally continuous operation image P 2 in the calculation image P 1. Note that the CPU 58 receives an image signal that is the basis of the calculation image from the second image processing unit 52 every predetermined time (for example, every 10 −5 to 10 −1 second), and the calculation image P 1. The calculation image P 2 and the calculation image P M (M is an arbitrary natural number) can be acquired sequentially.

以下、図4〜図7を参照して、ステップS132〜S134(動きベクトルを取得し、ブレ補正量を算出し、ブレ補正をするステップ)について詳細に説明する。   Hereinafter, with reference to FIGS. 4 to 7, steps S132 to S134 (steps of acquiring a motion vector, calculating a shake correction amount, and performing shake correction) will be described in detail.

図4、図5は、補正モード切替スイッチ74(図2参照)により第1ブレ補正モード(手ブレ成分、パンニング成分及び被写体ブレ成分の全てを補正するモード)が選択されている場合を説明する図である。図4は連続した2つの演算用画像(演算用画像P、演算用画像P)のそれぞれの位置関係を示す図、図5は図4に示した状態について、撮影範囲を固定して表現したものである。 4 and 5 illustrate a case where the first blur correction mode (a mode for correcting all of the camera shake component, panning component, and subject blur component) is selected by the correction mode changeover switch 74 (see FIG. 2). FIG. FIG. 4 is a diagram showing the positional relationship between two consecutive calculation images (calculation image P 1 and calculation image P 2 ), and FIG. 5 represents the state shown in FIG. 4 with a shooting range fixed. It is a thing.

図4、図5において、被写体領域(被写体I、I’、I’’)は「△」で示されている。上述したように、時間T1(ステップS121)において演算用画像Pが取得され、ステップS122においてテンプレート領域TM1が取得され、時間T2(ステップS131)において演算用画像Pが取得されている。 In FIG. 4 and FIG. 5, the subject areas (subjects I, I ′, I ″) are indicated by “Δ”. As described above, calculating the image P 1 is acquired at time T1 (step S121), the template region TM1 is obtained in step S122, calculating the image P 2 has been acquired at time T2 (step S131).

ステップS132では、CPU58は、演算用画像Pからテンプレート領域TM1と最も相関の高い領域(テンプレート領域TM1’’)を抽出し、テンプレート領域TM1とテンプレート領域TM1’’との差(ズレ量)から動きベクトルを取得する。 In step S132, CPU 58, from the difference between the high from the operation image P 2 most correlated with the template region TM1 region 'extracts, template regions TM1 and the template region TM1 (template region TM1') '' (shift amount) Get motion vector.

図4、図5において、時間T1から時間T2までの電子カメラ10の姿勢変化(手振れ)により、演算用画像Pの撮影範囲は、演算用画像Pの撮影範囲に対して第2撮像光学系41の像面上の移動ベクトルAΔT分ずれる。このため、CPU58は、時間T2における演算用画像Pの被写体I’の位置を推定するため、角速度センサ28(図1参照)を用いて角速度を検出し、この角速度を第2撮像光学系41の移動ベクトルAΔTに換算する。 4 and 5, the change in the attitude of the electronic camera 10 from the time T1 to time T2 (camera shake), shooting range of operation for the image P 2, the second imaging optical against shooting range of operation for the image P 1 The movement vector A ΔT on the image plane of the system 41 is shifted. Therefore, CPU 58 is to estimate the position of the object I 'of the operational image P 2 at time T2, detects the angular velocity using the angular velocity sensor 28 (see FIG. 1), the angular velocity second imaging optical system 41 The movement vector A is converted into ΔT .

次に、CPU58(相関演算部86)は、移動ベクトルAΔTを用いて、領域TM1から−AΔT移動させた位置にテンプレート領域TM1と同一の大きさのテンプレート領域TM1’を設定し、テンプレート領域TM1とテンプレート領域TM1’との相関演算を実行する。相関演算部86は、相関演算の結果、テンプレート領域TM1とテンプレート領域TM1’との相関が高ければ、テンプレート領域TM1’をテンプレート領域TM1’’とする。相関演算としては、例えば、2つの画像を例えば1画素毎にずらしたときの類似度を算出し、該類似度が最も高くなる位置(或いは、ずらし量)を求めるテンプレートマッチング演算が挙げられる。 Next, the CPU 58 (correlation calculation unit 86) sets a template area TM1 ′ having the same size as the template area TM1 at a position moved by −A ΔT from the area TM1 using the movement vector A ΔT , and the template area Correlation between TM1 and template region TM1 ′ is executed. If the correlation between the template region TM1 and the template region TM1 ′ is high as a result of the correlation calculation, the correlation calculation unit 86 sets the template region TM1 ′ as the template region TM1 ″. As the correlation calculation, for example, there is a template matching calculation that calculates a similarity when two images are shifted for each pixel, for example, and obtains a position (or a shift amount) where the similarity is the highest.

次に、テンプレート領域TM1とテンプレート領域TM1’との相関が低い場合、相関演算部86は、演算用画像Pのテンプレート領域TM1’の近傍について、テンプレート領域TM1を縦方向(図5の紙面の上下方向)及び横方向(図5の紙面の左右方向)にずらしながら相関演算を実行する。これにより、テンプレート領域TM1に対する類似度が最も高くなるテンプレート領域TM1’’が求まる。 Next, 'when the correlation is low, the correlation calculation unit 86, calculating the image P 2 of the template region TM1' template region TM1 and the template region TM1 for the vicinity of the template region TM1 longitudinal direction (in the plane of FIG. 5 The correlation calculation is performed while shifting in the vertical direction) and the horizontal direction (left and right direction of the paper surface of FIG. 5). Thereby, the template region TM1 ″ having the highest similarity to the template region TM1 is obtained.

次に、CPU58(動きベクトル取得部84)は、テンプレート領域TM1’’とテンプレート領域TM1’との差(位置ズレ量)である被写体ブレ成分DΔTを求める。 Next, the CPU 58 (motion vector acquisition unit 84) obtains a subject blur component D ΔT that is a difference (a positional deviation amount) between the template region TM1 ″ and the template region TM1 ′.

なお、T1〜T2の間に被写体が静止しておらず、被写体ブレが発生していれば、図4、図5に示すように、時間T2における被写体の位置(被写体I’’)は、時間T2における被写体I’からDΔT分ずれた位置にある。また、T1〜T2の間に被写体が静止しており、被写体ブレがないものと仮定すれば、演算用画像Pにおける被写体の位置(被写体I’’)は、時間T2における被写体I’と一致する。 If the subject is not stationary between T1 and T2 and subject blurring has occurred, the position of the subject (subject I ″) at time T2 is the time as shown in FIGS. It is at a position shifted by D ΔT from the subject I ′ at T2. Further, a stationary object during T1 to T2, assuming that there is no subject shake, the position of the subject in the calculation for the image P 2 (object I '') is the subject I at time T2 'consistent with To do.

次に、動きベクトル取得部84は、時刻T1〜T2間の全ブレ成分EΔTを動きベクトル(第2撮像光学系41の像面上での動きベクトル)として取得する。第1ブレ補正モードでは、全ブレ成分EΔTは、EΔT=−AΔT+DΔT=−(BΔT+CΔT)+DΔTとなる。上述したように、移動ベクトルAΔTはパンニング成分BΔTと手ブレ成分CΔTである。 Next, the motion vector acquisition unit 84 acquires all blur components E ΔT between times T1 and T2 as motion vectors (motion vectors on the image plane of the second imaging optical system 41). In the first blur correction mode, the total blur component E ΔT is E ΔT = −A ΔT + D ΔT = − (B ΔT + C ΔT ) + D ΔT . As described above, the movement vector A ΔT is the panning component B ΔT and the camera shake component C ΔT .

次に、ステップS133において、CPU58は、ステップS132で算出された動きベクトルを第1撮像光学系21の像面上での動きベクトルに換算し、第1撮像光学系21の像面上でのブレ補正量を求める。   Next, in step S133, the CPU 58 converts the motion vector calculated in step S132 into a motion vector on the image plane of the first imaging optical system 21, and blurs on the image plane of the first imaging optical system 21. Find the correction amount.

次に、ステップS134において、CPU58はブレ補正を実行する。具体的には、CPU58は、動きベクトル(ブレ補正量)に基づいて、レンズマイコン29を介してブレ補正部25(図1参照)を駆動することにより、撮影時に生じるブレを補正する。このように、第1ブレ補正モードでは、被写体が撮影範囲の所定位置に固定されるようにブレ補正が実行される。   Next, in step S134, the CPU 58 executes blur correction. Specifically, the CPU 58 corrects the blurring that occurs during shooting by driving the blur correction unit 25 (see FIG. 1) via the lens microcomputer 29 based on the motion vector (blur correction amount). As described above, in the first shake correction mode, the shake correction is performed so that the subject is fixed at a predetermined position in the shooting range.

次に、図6、図7を参照して、補正モード切替スイッチ74(図2参照)により第2ブレ補正モード(手ブレ成分及び被写体ブレ成分を補正するモード)が選択されている場合のステップS132〜S134(動きベクトルを取得し、ブレ補正量を算出し、ブレ補正をするステップ)を詳細に説明する。   Next, referring to FIG. 6 and FIG. 7, steps when the second blur correction mode (the mode for correcting the camera shake component and the subject blur component) is selected by the correction mode changeover switch 74 (see FIG. 2). S132 to S134 (steps of acquiring a motion vector, calculating a shake correction amount, and performing shake correction) will be described in detail.

図6は連続した2つの演算用画像のそれぞれの位置関係を示す図、図7は撮影範囲を固定したときの被写体のブレを示す図である。図6、図7において、図4、図5の同様の構成には同様の参照符号を付し、詳細な説明を省略する。   FIG. 6 is a diagram showing the positional relationship between two consecutive calculation images, and FIG. 7 is a diagram showing blurring of the subject when the shooting range is fixed. 6 and 7, the same components as those in FIGS. 4 and 5 are denoted by the same reference numerals, and detailed description thereof is omitted.

図6、図7において、被写体領域(被写体J、J’)は「△」で示されている。図4、図5と同様に、時間T3(ステップS121)において演算用画像Pが取得され、ステップS122においてテンプレート領域TM1が取得され、時間T4(ステップS131)において演算用画像Pが取得されている。また、図6、図7においては、説明を簡単にするため、時間T3から時間T4までのパンニング成分BΔTを横方向のみとし、手振れ成分CΔTを縦方向のみとしている。 6 and 7, the subject area (subjects J and J ′) is indicated by “Δ”. Figure 4, similarly to FIG. 5, the acquired operation image P 3 at time T3 (step S121), the template region TM1 is obtained in step S122, calculating the image P 4 is acquired at time T4 (step S131) ing. In FIGS. 6 and 7, for the sake of simplicity, the panning component B ΔT from time T3 to time T4 is only in the horizontal direction, and the camera shake component C ΔT is only in the vertical direction.

ステップS132では、CPU58は、演算用画像Pからテンプレート領域TM1と最も相関の高い領域(テンプレート領域TM1’’)を抽出し、テンプレート領域TM1とテンプレート領域TM1’’との差(ズレ量)から動きベクトルを取得する。 In step S132, CPU 58, from the difference between the high from the operation image P 4 most correlated with the template region TM1 region 'extracts, template regions TM1 and the template region TM1 (template region TM1') '' (shift amount) Get motion vector.

第2ブレ補正モードは、例えば、ユーザが移動している被写体に合わせて電子カメラ10をパンニングさせ被写体の静止画像を撮影画像として取得する際に選択される。この第2ブレ補正モードは、手ブレ成分CΔT及び被写体ブレ成分DΔTを補正し、パンニング成分BΔTに対してはブレ補正を行わないモードである。ここで、被写体ブレ成分とは、移動被写体に合わせてユーザがパンニングしたとき、それでも残る像面上での被写体移動量を指す。 The second blur correction mode is selected, for example, when the user pans the electronic camera 10 according to the moving subject and acquires a still image of the subject as a captured image. This second blur correction mode is a mode in which the camera shake component C ΔT and the subject blur component D ΔT are corrected and the panning component B ΔT is not corrected. Here, the subject blur component refers to the amount of subject movement on the image plane that still remains when the user pans according to the moving subject.

図6、図7において、ユーザによるパンニングにより、演算用画像Pの撮影範囲は、演算用画像Pの撮影範囲に対して第2撮像光学系41の像面上の移動ベクトルAΔT分ずれる。 6 and 7, the shooting range of the calculation image P 4 is shifted by the movement vector A ΔT on the image plane of the second imaging optical system 41 with respect to the shooting range of the calculation image P 3 due to panning by the user. .

CPU58は、パンニング対象の被写体が撮影範囲の所定位置に固定されるように、ユーザによるパンニングを考慮して、電子カメラ10が姿勢変化(手振れ)した時間T4における演算用画像Pの被写体J’の位置を推定するため、角速度センサ28(図1参照)を用いて角速度を検出し、この角速度からパンニング成分BΔT分を除外して第2撮像光学系41の移動ベクトルCΔTに換算する。移動ベクトルAΔTのうち、パンニング成分BΔTに対してはブレ補正を行わないからである。 CPU58, as a subject of panning target is fixed at a predetermined position of the imaging range, in consideration of panning by the user, the electronic camera 10 is posture change (camera shake) the time object J arithmetic image P 4 in T4 ' In order to estimate the position, the angular velocity sensor 28 (see FIG. 1) is used to detect the angular velocity, and the panning component B ΔT is excluded from the angular velocity and converted into the movement vector C ΔT of the second imaging optical system 41. This is because blur correction is not performed on the panning component B ΔT in the movement vector A ΔT .

次に、CPU58(相関演算部86)は、移動ベクトルCΔTを用いて、領域TM1から−CΔT移動させた位置にテンプレート領域TM1と同一の大きさのテンプレート領域TM1’を設定し、テンプレート領域TM1とテンプレート領域TM1’との相関演算を実行する。相関演算部86は、テンプレート領域TM1とテンプレート領域TM1’との相関が高ければ、テンプレート領域TM1’をテンプレート領域TM1’’とする。 Next, the CPU 58 (correlation calculation unit 86) uses the movement vector C ΔT to set a template area TM1 ′ having the same size as the template area TM1 at a position moved by −C ΔT from the area TM1, and the template area Correlation between TM1 and template region TM1 ′ is executed. If the correlation between the template region TM1 and the template region TM1 ′ is high, the correlation calculation unit 86 sets the template region TM1 ′ as the template region TM1 ″.

次に、テンプレート領域TM1とテンプレート領域TM1’との相関が低い場合、相関演算部86は、演算用画像Pのテンプレート領域TM1’の近傍について、テンプレート領域TM1を縦方向(図7の紙面の上下方向)及び横方向(図7の紙面の左右方向)にずらしながら相関演算を実行する。これにより、テンプレート領域TM1に対する類似度が最も高くなるテンプレート領域TM1’’が求まる。次に、動きベクトル取得部84は、テンプレート領域TM1’’とテンプレート領域TM1’との差(位置ズレ量)である被写体ブレ成分DΔTを求める。 Next, 'when the correlation is low, the correlation calculation unit 86, calculating the image P 4 template region TM1' template region TM1 and the template region TM1 for the vicinity of the template region TM1 longitudinal direction (in the plane of FIG. 7 The correlation calculation is executed while shifting in the vertical direction) and the horizontal direction (left and right direction in FIG. 7). Thereby, the template region TM1 ″ having the highest similarity to the template region TM1 is obtained. Next, the motion vector acquisition unit 84 obtains a subject blur component D ΔT that is a difference (a positional deviation amount) between the template region TM1 ″ and the template region TM1 ′.

なお、T3〜T4の間に被写体ブレ成分(パンニングしても残る像面上での被写体移動量)があれば、図6、図7に示すように、時間T4における被写体の位置(被写体J’’)は、時間T4における被写体J’からDΔT分ずれた位置にある。また、T3〜T4の間に被写体ブレ成分がないものと仮定すれば、演算用画像Pにおける被写体の位置(被写体J’’)は、時間T4における被写体J’と一致する。 If there is a subject blur component (subject movement amount on the image plane remaining after panning) between T3 and T4, as shown in FIGS. 6 and 7, the position of the subject (subject J ′) at time T4. ') Is at a position shifted by D ΔT from the subject J' at time T4. Further, assuming that there is no subject shake component during T3 to T4, the position of the subject in the operation image P 4 (subject J '') is subject J at time T4 'coincides with.

次に、動きベクトル取得部84は、時刻T3〜T4間の全ブレ成分EΔTを動きベクトル(第2撮像光学系41の像面上での動きベクトル)として取得する。第2ブレ補正モードでは、全ブレ成分EΔTは、EΔT=−CΔT+DΔTとなる。 Next, the motion vector acquisition unit 84 acquires all blur components E ΔT between times T3 and T4 as motion vectors (motion vectors on the image plane of the second imaging optical system 41). In the second blur correction mode, the total blur component E ΔT is E ΔT = −C ΔT + D ΔT .

次に、ステップS133において、CPU58は、ステップS132で算出された動きベクトルを第1撮像光学系21の像面上での動きベクトルに換算し、第1撮像光学系21の像面上でのブレ補正量を求める。   Next, in step S133, the CPU 58 converts the motion vector calculated in step S132 into a motion vector on the image plane of the first imaging optical system 21, and blurs on the image plane of the first imaging optical system 21. Find the correction amount.

次に、ステップS134において、CPU58はブレ補正を実行する。具体的には、CPU58は、動きベクトル(ブレ補正量)に基づいて、レンズマイコン29を介してブレ補正部25(図1参照)を駆動することにより、撮影時に生じるブレを補正する。このように、第2ブレ補正モードでは、パンニング対象の被写体が撮影範囲の所定位置に固定されるようにブレ補正が実行される。   Next, in step S134, the CPU 58 executes blur correction. Specifically, the CPU 58 corrects the blurring that occurs during shooting by driving the blur correction unit 25 (see FIG. 1) via the lens microcomputer 29 based on the motion vector (blur correction amount). Thus, in the second shake correction mode, the shake correction is executed so that the subject to be panned is fixed at a predetermined position in the shooting range.

再び、図8のフローチャートを参照して、撮影画像を取得する際の処理の流れを説明する。   With reference to the flowchart in FIG. 8 again, the flow of processing when acquiring a captured image will be described.

CPU58は、ステップS134においてブレ補正を実行した後、ステップS135において、第1画像取得部51の露光時間が経過したか否かを判断する。第1画像取得部51の露光時間が経過したときは、ステップS137に進む。   After executing the blur correction in step S134, the CPU 58 determines whether or not the exposure time of the first image acquisition unit 51 has elapsed in step S135. When the exposure time of the first image acquisition unit 51 has elapsed, the process proceeds to step S137.

第1画像取得部51の露光時間が経過していないときは、ステップS136において、テンプレート領域TM1’’を領域TM1に設定する。これにより、上述した説明と同様に、再びステップS132において、テンプレート領域TM1と最も相関の高い領域テンプレート領域TM1’’が抽出され、再び動きベクトルが取得され、再び取得された動きベクトルを用いたブレ補正が行われることになる。   If the exposure time of the first image acquisition unit 51 has not elapsed, the template area TM1 ″ is set to the area TM1 in step S136. Accordingly, in the same manner as described above, in step S132, the region template region TM1 ″ having the highest correlation with the template region TM1 is extracted again, the motion vector is acquired again, and the motion vector using the motion vector acquired again is acquired. Correction will be performed.

ステップS137において、CPU58は、第1画像処理部51に電荷の蓄積を終了させ、ステップS138に進む。ステップS138において、CPU58は、ステップS137にて取得された撮影画像が記憶媒体66に記憶される。   In step S137, the CPU 58 causes the first image processing unit 51 to finish accumulating charges, and the process proceeds to step S138. In step S138, the CPU 58 stores the captured image acquired in step S137 in the storage medium 66.

これにより、角速度センサ28から求まる移動ベクトルを用いて連続する2つの演算用画像間の移動方向と移動量を推定し、推定される移動方向と移動量から相関演算を行うので、相関演算に係る演算負荷を低減でき、また、相関演算に係る処理時間を短縮することができる。また、第2画像処理部52により取得される画像の画素数は、第1画像取得部51により得られる画像の画素数に比べて少ないことから、画像を取得する時間が短くできて相関演算に要する演算負荷を少なくできるので、相関演算に係る処理時間を短時間で実行することが可能となる。   As a result, the movement direction and the movement amount between two consecutive calculation images are estimated using the movement vector obtained from the angular velocity sensor 28, and the correlation calculation is performed from the estimated movement direction and movement amount. The calculation load can be reduced, and the processing time related to the correlation calculation can be shortened. In addition, since the number of pixels of the image acquired by the second image processing unit 52 is smaller than the number of pixels of the image acquired by the first image acquisition unit 51, the time for acquiring the image can be shortened and correlation calculation can be performed. Since the required calculation load can be reduced, the processing time related to the correlation calculation can be executed in a short time.

本実施形態では、ブレ補正部25を用いて第1撮像光学系21を構成するレンズの一部を、光軸と直交する方向に移動させることでブレ補正を実行しているが、ブレ補正部25と同様のアクチュエータを用いて第1撮像素子33を光軸と直交する方向に移動させることも好ましい。また、アクチュエータを用いて、第1撮像光学系21又は第1撮像素子33をチルトさせることによりブレ補正を実行することも好ましい。また、第1撮像素子33を用いて撮影された撮影画像に生じるブレを電子的に補正することも好ましい。   In the present embodiment, the blur correction is performed by moving a part of the lens constituting the first imaging optical system 21 in the direction orthogonal to the optical axis using the blur correction unit 25. It is also preferable to move the first image sensor 33 in the direction orthogonal to the optical axis using the same actuator as that of No. 25. It is also preferable to perform blur correction by tilting the first imaging optical system 21 or the first imaging element 33 using an actuator. It is also preferable to electronically correct blurring that occurs in a photographed image photographed using the first image sensor 33.

また、本実施例では、静止画像を撮影画像として取得する場合について説明しているがこれに限定されるものではなく、動画像を撮影する撮影装置に適用することも好ましい。   In this embodiment, the case where a still image is acquired as a captured image is described. However, the present invention is not limited to this, and the present invention is preferably applied to an image capturing apparatus that captures a moving image.

10…電子カメラ、11…カメラ本体、12…レンズユニット、21…第1撮像光学系、25…ズレ補正部、28…角速度センサ、33…第1撮像素子、41…第2撮像光学系、42…第2撮像素子、51…第1画像取得部、52…第2画像取得部、58…CPU、74…補正モード選択スイッチ、84…動きベクトル取得部、85…推定部、86…相関演算部   DESCRIPTION OF SYMBOLS 10 ... Electronic camera, 11 ... Camera body, 12 ... Lens unit, 21 ... 1st imaging optical system, 25 ... Deviation correction part, 28 ... Angular velocity sensor, 33 ... 1st imaging device, 41 ... 2nd imaging optical system, 42 ... 2nd image sensor, 51 ... 1st image acquisition part, 52 ... 2nd image acquisition part, 58 ... CPU, 74 ... Correction mode selection switch, 84 ... Motion vector acquisition part, 85 ... Estimation part, 86 ... Correlation calculation part

特開2006−54518号公報JP 2006-54518 A

Claims (11)

装置の振れを検出し検出信号を出力する検出部と、
第1画像と、前記第1画像が取得された時刻とは異なる時刻に取得された第2画像とを取得する第1画像取得部と、
前記第1画像及び前記第2画像とは異なる第3画像を取得する第2画像取得部と、
前記第1画像に含まれる第1領域に対応する第2領域を、前記検出信号を用いて前記第2画像から特定し、前記第1領域の情報と前記第2領域の情報とを用いて動きベクトルを取得する動きベクトル取得部と、
前記動きベクトルを用いて前記装置の振れを補正する補正部と、を含むことを特徴とする撮影装置。
A detection unit that detects a shake of the device and outputs a detection signal;
A first image acquisition unit that acquires a first image and a second image acquired at a time different from the time at which the first image was acquired;
A second image acquisition unit for acquiring a third image different from the first image and the second image;
A second area corresponding to the first area included in the first image is identified from the second image using the detection signal, and movement is performed using the information of the first area and the information of the second area. A motion vector acquisition unit for acquiring a vector;
And a correction unit that corrects shake of the apparatus using the motion vector.
請求項1に記載された撮影装置であって、
前記補正部は、前記第2画像取得部により取得される像を形成する光学系の少なくとも一部、及び、前記第2画像取得部の少なくとも一方を駆動することにより、前記装置の振れを補正することを特徴とする撮影装置。
An imaging apparatus according to claim 1,
The correction unit corrects a shake of the apparatus by driving at least one part of an optical system that forms an image acquired by the second image acquisition unit and at least one of the second image acquisition unit. An imaging apparatus characterized by that.
請求項1又は請求項2に記載された撮影装置であって、
前記検出信号に含まれるパンニング成分を低減させるフィルタ部と、
撮影者が操作可能な操作部とを含み、
前記動きベクトル取得部は、前記撮影者により前記操作部が操作されたとき、前記フィルタ部から出力された信号を用いて前記第2画像から前記第2領域を特定することを特徴とする撮影装置。
The imaging device according to claim 1 or 2, wherein
A filter unit for reducing a panning component included in the detection signal;
Including a control unit that can be operated by the photographer,
The motion vector acquisition unit specifies the second region from the second image using a signal output from the filter unit when the operation unit is operated by the photographer. .
請求項1から請求項3までの何れか1項に記載された撮影装置であって、
前記動きベクトル取得部は、前記検出信号に基づいて前記第2画像に前記第1領域に対応する設定領域を設定し、前記設定領域と前記第1領域との相関が高いときは、前記設定領域を前記第2領域とすることを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-3,
The motion vector acquisition unit sets a setting area corresponding to the first area in the second image based on the detection signal, and when the correlation between the setting area and the first area is high, the setting area Is the second region.
請求項4に記載された撮影装置であって、
前記動きベクトル取得部は、前記設定領域と前記前記第1領域との相関が低い場合、前記設定領域の近傍の領域と前記第1領域との相関を演算し、前記設定領域の近傍の領域と前記第1領域との相関が前記設定領域と前記第1領域との相関よりも高いとき、前記設定領域の近傍の領域を前記第2領域とすることを特徴とする撮影装置。
An imaging apparatus according to claim 4, wherein
When the correlation between the setting area and the first area is low, the motion vector acquisition unit calculates a correlation between the area near the setting area and the first area, and the area near the setting area An imaging apparatus, wherein when the correlation with the first area is higher than the correlation between the setting area and the first area, an area in the vicinity of the setting area is set as the second area.
請求項1から請求項5までの何れか1項に記載された撮影装置であって、
前記第3画像に含まれる主要被写体を検出する主要被写体検出部を有し、
前記第1領域には、前記主要被写体の少なくとも一部が含まれることを特徴とする撮影装置。
An imaging apparatus according to any one of claims 1 to 5, wherein
A main subject detection unit for detecting a main subject included in the third image;
The photographing apparatus according to claim 1, wherein the first region includes at least a part of the main subject.
請求項1から請求項5までの何れか1項に記載された撮影装置であって、
前記第3画像の合焦領域を検出する合焦領域検出部を有し、
前記第1領域は、前記合焦領域検出部により検出された前記合焦領域を含むことを特徴とする撮影装置。
An imaging apparatus according to any one of claims 1 to 5, wherein
An in-focus area detecting unit for detecting an in-focus area of the third image;
The imaging apparatus according to claim 1, wherein the first area includes the in-focus area detected by the in-focus area detection unit.
請求項1からから請求項7までの何れか1項に記載された撮影装置であって、
前記第1画像取得部により撮像された前記第1画像及び前記第2画像は、前記第2画像取得部により撮像された前記第3画像よりも被写界深度が深いことを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph from Claim 1 to Claim 7,
The first apparatus and the second image captured by the first image acquisition unit have a depth of field deeper than the third image captured by the second image acquisition unit. .
請求項1から請求項8までの何れか1項に記載された撮影装置であって、
前記第1画像取得部により撮像された前記第1画像及び前記第2画像は、前記第2画像取得部により撮像された前記第3画像よりも広角の画像であることを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-8,
The imaging apparatus according to claim 1, wherein the first image and the second image captured by the first image acquisition unit are wider-angle images than the third image captured by the second image acquisition unit.
請求項1からから請求項9までの何れか1項に記載された撮影装置であって、
前記第1画像取得部は、前記第1画像及び前記第2画像を形成するための第1光学系を有し、
前記第2画像取得部は、前記第1光学系よりも狭角な前記第3画像を形成するための第2光学系を有することを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph from Claim 1 to Claim 9,
The first image acquisition unit includes a first optical system for forming the first image and the second image,
The second image acquisition unit includes a second optical system for forming the third image having a narrower angle than the first optical system.
請求項1から請求項10までの何れか1項に記載された撮影装置であって、
前記第1画像取得部は、前記第2画像を取得した後、前記第1画像、前記第2画像及び前記第3画像とは異なる第4画像を取得し、
前記動きベクトル取得部は、前記第2画像の前記第2領域に対応する第4領域を、前記検出信号を用いて前記第4画像から特定し、前記第2領域の情報と前記第4領域の情報とを用いて動きベクトルを取得することを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-10,
The first image obtaining unit obtains a fourth image different from the first image, the second image, and the third image after obtaining the second image,
The motion vector acquisition unit identifies a fourth region corresponding to the second region of the second image from the fourth image using the detection signal, and information on the second region and the fourth region An imaging apparatus, wherein a motion vector is acquired using information.
JP2009025024A 2009-02-05 2009-02-05 Photographing device Withdrawn JP2010183353A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009025024A JP2010183353A (en) 2009-02-05 2009-02-05 Photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009025024A JP2010183353A (en) 2009-02-05 2009-02-05 Photographing device

Publications (1)

Publication Number Publication Date
JP2010183353A true JP2010183353A (en) 2010-08-19

Family

ID=42764534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009025024A Withdrawn JP2010183353A (en) 2009-02-05 2009-02-05 Photographing device

Country Status (1)

Country Link
JP (1) JP2010183353A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017034616A (en) * 2015-08-06 2017-02-09 キヤノン株式会社 Image processing apparatus and control method therefor
WO2021117606A1 (en) * 2019-12-11 2021-06-17 株式会社ソニー・インタラクティブエンタテインメント Image processing device, system, image processing method and image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017034616A (en) * 2015-08-06 2017-02-09 キヤノン株式会社 Image processing apparatus and control method therefor
WO2021117606A1 (en) * 2019-12-11 2021-06-17 株式会社ソニー・インタラクティブエンタテインメント Image processing device, system, image processing method and image processing program
JPWO2021117606A1 (en) * 2019-12-11 2021-06-17
JP7247371B2 (en) 2019-12-11 2023-03-28 株式会社ソニー・インタラクティブエンタテインメント Image processing device, system, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
JP6405243B2 (en) Focus detection apparatus and control method thereof
US20120268613A1 (en) Image capturing apparatus and control method thereof
US9955069B2 (en) Control apparatus, storage medium for storing control program, control method, and optical apparatus
JP5263310B2 (en) Image generation apparatus, imaging apparatus, and image generation method
JP2009048125A (en) Photographing equipment and method of controlling same
JP2009192774A (en) Focus adjustment device and imaging device
JP2017211487A (en) Imaging apparatus and automatic focus adjustment method
CN106470317B (en) Image pickup apparatus and control method thereof
JP6932531B2 (en) Image blur correction device, image pickup device, control method of image pickup device
JP6405163B2 (en) Focus detection apparatus and control method thereof
JP6659100B2 (en) Imaging device
JP2011217311A (en) Imaging apparatus and method of controlling the same
JP2010177860A (en) Image composition apparatus, imaging apparatus, and image composition method
US10917556B2 (en) Imaging apparatus
JP2011217334A (en) Imaging apparatus and method of controlling the same
US10873701B2 (en) Image pickup apparatus and control method thereof
US8582016B2 (en) Photographing apparatus and focus detecting method using the same
JP2009229927A (en) Autofocus adjustment device and imaging apparatus
JP2010183353A (en) Photographing device
JP5359150B2 (en) Imaging device
JP2012042589A (en) Image shake correction mechanism, lens barrel, and image sensor
JP2021132272A (en) Electronic apparatus
JP2009229732A (en) Camera
JP2018197845A (en) Focus control device and imaging device
JP5773659B2 (en) Imaging apparatus and control method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120501