JP2015233211A - Imaging apparatus, control method thereof, and program - Google Patents

Imaging apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2015233211A
JP2015233211A JP2014119109A JP2014119109A JP2015233211A JP 2015233211 A JP2015233211 A JP 2015233211A JP 2014119109 A JP2014119109 A JP 2014119109A JP 2014119109 A JP2014119109 A JP 2014119109A JP 2015233211 A JP2015233211 A JP 2015233211A
Authority
JP
Japan
Prior art keywords
image
subject
imaging
imaging apparatus
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014119109A
Other languages
Japanese (ja)
Inventor
隆男 佐々木
Takao Sasaki
隆男 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014119109A priority Critical patent/JP2015233211A/en
Publication of JP2015233211A publication Critical patent/JP2015233211A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of effectively supporting panning even in the case where a difference of a moving speed between the imaging apparatus and a subject exceeds a range within which the difference is correctable by correcting an optical system.SOLUTION: The imaging apparatus includes an imaging mode for imaging a moving subject while moving the imaging apparatus. The imaging apparatus includes: detection means for detecting a speed difference between the imaging apparatus and the subject under the imaging mode; setting means by which, in the case where it is determined that the detected speed difference exceeds a range within which the speed difference is correctable by correcting the optical system of the imaging apparatus, an imaging condition is set for performing imaging multiple times within the correctable range; and synthesizing means which generates a synthetic image using a plurality of images obtained by performing imaging multiple times in accordance with the imaging condition.

Description

本発明は、撮像装置およびその制御方法ならびにプログラムに関し、特に流し撮り撮影のための画像生成技術に関する。   The present invention relates to an imaging apparatus, a control method therefor, and a program, and more particularly to an image generation technique for panning shooting.

移動している被写体のスピード感を表現する撮影技術として流し撮りがある。この撮影技術は、撮影者が被写体の動きに合わせてカメラを動かす(パンニング)することにより、移動している被写体を静止させて背景は流した表現となる。一般的な流し撮りは、撮影したい被写体の移動速度に合わせて露光時間を通常より長めに調節することで撮影を行う。特許文献1には、流し撮り撮影の際に背景の流し量を十分に確保できる露光時間で撮影を行う構成が開示されている。   There is panning as a shooting technique that expresses the speed of moving subjects. In this photographing technique, when the photographer moves (panning) the camera in accordance with the movement of the subject, the moving subject is stopped and the background flows. In general panning, photographing is performed by adjusting the exposure time longer than usual in accordance with the moving speed of the subject to be photographed. Patent Document 1 discloses a configuration in which shooting is performed with an exposure time that can ensure a sufficient amount of background flow during panning shooting.

流し撮り撮影では撮影者が被写体の動きに合わせてパンニングをする必要があるが、パンニング速度が速すぎるまたは遅すぎることによって被写体の移動速度とパンニング速度の間に差が生じると、被写体までぶれた画像となる。このような問題に対して、光学的に手ぶれ補正を行うためのシフトレンズを移動させ、被写体の移動速度とパンニング速度の差を吸収する技術が知られている。特許文献2には、検出した被写体を画像中央に位置させるため、シフトレンズの移動により被写体の位置を補正して流し撮り撮影を行う構成が開示されている。   In panning shots, the photographer needs to pan in time with the movement of the subject, but if the panning speed is too fast or too slow, the subject will move to the subject if there is a difference between the moving speed and the panning speed. It becomes an image. To solve such a problem, a technique is known in which a shift lens for optically correcting camera shake is moved to absorb the difference between the moving speed of the subject and the panning speed. Patent Document 2 discloses a configuration in which a panning shot is performed by correcting the position of a subject by moving a shift lens in order to position the detected subject at the center of the image.

特開2010−245774号公報JP 2010-245774 A 特開2006−317848号公報JP 2006-317848 A

特許文献2で開示されているシフトレンズによる補正では、シフトレンズの稼働範囲が限られるため、被写体の移動速度とパンニング速度の差が大きい場合はシフトレンズによって補正できる量(最大補正可能角度)を超える場合がある。   In the correction by the shift lens disclosed in Patent Document 2, since the operating range of the shift lens is limited, the amount (maximum correctable angle) that can be corrected by the shift lens when the difference between the moving speed of the subject and the panning speed is large. May exceed.

このような状況を例示すると、例えば図7に示すようになる。図7は、カメラがパンニングする角速度と、カメラのパンニング中心を回転の基準とした被写体の角速度を示している。例えば、被写体の角速度が30deg/sec、カメラのパンニング角速度が24deg/secの場合は、その差の6deg/secをカメラ内部で補正する必要がある。最終的にカメラ内部で必要となる補正角度は、カメラ内部で補正する必要のある角速度に露光時間を乗算したものとなる。仮にシフトレンズの最大補正可能角度を0.4度、露光時間を1/16秒として撮影した場合、最終的に必要となる補正角度は式1のようになる。   An example of such a situation is as shown in FIG. FIG. 7 shows the angular velocity at which the camera pans and the angular velocity of the subject with the rotation center at the panning center of the camera. For example, when the angular velocity of the subject is 30 deg / sec and the panning angular velocity of the camera is 24 deg / sec, the difference of 6 deg / sec needs to be corrected inside the camera. The correction angle finally required inside the camera is the angular velocity that needs to be corrected inside the camera multiplied by the exposure time. If the maximum correctionable angle of the shift lens is 0.4 degrees and the exposure time is 1/16 second, the correction angle that is finally required is given by Equation 1.

この場合、補正角度が最大補正可能角度内に収まっているため、シフトレンズによる補正が可能である。一方、露光時間を1/8秒と長くして撮影した場合、最終的に必要な補正角度は式2のようになる。   In this case, since the correction angle is within the maximum correctable angle, correction by the shift lens is possible. On the other hand, when the image is taken with an exposure time as long as 1/8 second, the finally required correction angle is expressed by Equation 2.

この場合、最終的に必要な補正角度がシフトレンズによる最大補正可能角度を超えているため、シフトレンズによって補正ができなくなる。このように、露光時間によっては最大補正可能角度を超えるため、補正ができずに撮影した被写体までぶれた画像となってしまう場合がある。上述したように、流し撮り撮影においては露光時間を長くとる必要があるため、十分に補正ができない不都合がより顕著となることが想定される。   In this case, since the finally required correction angle exceeds the maximum correctable angle by the shift lens, it cannot be corrected by the shift lens. As described above, since the maximum correctable angle is exceeded depending on the exposure time, there is a case where the image of the photographed subject is blurred without being corrected. As described above, since it is necessary to take a long exposure time in panning shot shooting, it is assumed that inconveniences that cannot be sufficiently corrected become more conspicuous.

本発明は、上述の従来技術の問題点に鑑みてなされ、撮像装置と被写体の移動速度の差が光学系の補正によって補正可能な範囲を超える場合であっても、流し撮りを有効に支援可能な撮像装置、制御方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and can effectively support panning even when the difference in moving speed between the imaging device and the subject exceeds the range that can be corrected by correction of the optical system. An object of the present invention is to provide an imaging device, a control method, and a program.

この課題を解決するため、例えば本発明の撮像装置は以下の構成を備える。すなわち、撮像装置を移動させながら、移動する被写体を撮影するための撮影モードを有する撮像装置であって、撮影モードにおいて、撮像装置と被写体との速度差を検出する検出手段と、検出した速度差が、撮像装置の光学系の補正によって補正可能な範囲を超えていると判定される場合、補正可能な範囲内での複数回の撮影を行うための撮影条件を設定する設定手段と、撮影条件に従った複数回の撮影で得られた複数の画像を用いた合成画像を生成する合成手段と、を有することを特徴とする。   In order to solve this problem, for example, an imaging apparatus of the present invention has the following configuration. That is, an imaging apparatus having a shooting mode for shooting a moving subject while moving the imaging apparatus, the detection means for detecting a speed difference between the imaging apparatus and the subject in the shooting mode, and the detected speed difference Is determined to exceed the range that can be corrected by the correction of the optical system of the imaging apparatus, setting means for setting shooting conditions for performing multiple shootings within the correctable range, and shooting conditions And a compositing means for generating a composite image using a plurality of images obtained by a plurality of photographing operations according to the above.

本発明によれば、撮像装置と被写体の移動速度の差が光学系の補正によって補正可能な範囲を超える場合であっても、流し撮りを有効に支援可能になる。   According to the present invention, even when the difference between the moving speeds of the imaging device and the subject exceeds the range that can be corrected by the correction of the optical system, it is possible to effectively support panning.

本発明の実施形態に係る撮像装置の一例としてのデジタルカメラの機能構成例を示すブロック図1 is a block diagram illustrating an example of a functional configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. 実施形態1に係る流し撮りアシスト処理(a)、露光時間制限処理(b)、および画像合成処理(c)の一連の動作を示すフローチャート6 is a flowchart showing a series of operations of a panning assist process (a), an exposure time limit process (b), and an image composition process (c) according to the first embodiment. 実施形態1に係る像面上の被写体の角速度の算出方法を示す図FIG. 4 is a diagram illustrating a method for calculating the angular velocity of a subject on the image plane according to the first embodiment. 実施形態1に係る撮影条件の設定例を示す図FIG. 5 is a diagram illustrating an example of setting shooting conditions according to the first embodiment. 実施形態1に係るシフトレンズを移動させて撮影した被写体の領域を模式的に示す図FIG. 4 is a diagram schematically illustrating a region of a subject that is photographed by moving the shift lens according to the first embodiment. 実施形態1に係る合成処理を模式的に示す図The figure which shows the synthetic | combination process which concerns on Embodiment 1 typically. 流し撮り撮影において必要な補正量を示す図Diagram showing the amount of correction required for panning shots 実施形態2に係る流し撮りアシスト処理(a)、露光時間制限処理(b)の一連の動作を示すフローチャート7 is a flowchart showing a series of operations of a panning assist process (a) and an exposure time limit process (b) according to the second embodiment. 実施形態2に係る流し撮り合成処理の一連の動作を示すフローチャート8 is a flowchart showing a series of operations of the panning composition processing according to the second embodiment. 実施形態2に係る撮り流し撮影画像を合成により生成する場合の課題を示す図The figure which shows the subject in the case of producing | generating the panning shot image which concerns on Embodiment 2 by a synthesis | combination. 実施形態2に係るLPFのタップ数の算出について説明する図The figure explaining calculation of the tap number of LPF which concerns on Embodiment 2. 実施形態2に係る移動ベクトルの算出例を示す図The figure which shows the calculation example of the movement vector which concerns on Embodiment 2. 実施形態2に係るデジタルカメラの角速度を用いた画素の移動量の算出について説明する図FIG. 6 is a diagram for explaining calculation of a pixel movement amount using an angular velocity of a digital camera according to a second embodiment. 実施形態2に係る合成処理を説明する図The figure explaining the synthetic | combination process which concerns on Embodiment 2. FIG.

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では撮像装置の一例として、流し撮り撮影の可能な任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、デジタルカメラに限らず、流し撮り撮影が可能な任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example in which the present invention is applied to an arbitrary digital camera capable of panning shooting will be described as an example of an imaging apparatus. However, the present invention is not limited to a digital camera and can be applied to any device capable of panning shooting. These devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a clock-type or glasses-type information terminal.

(1 デジタルカメラ100の構成)
図1は、本実施形態の撮像装置の一例としてデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(1 Configuration of digital camera 100)
FIG. 1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an imaging apparatus according to the present embodiment. One or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or MPU executing software. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

光学系101は、レンズ、シャッター、絞り、シフトレンズから構成されており、制御部103の制御によって被写体からの光学像を撮像素子102に結像させる。シフトレンズは、手振れ補正機構を実現するものであり、レンズの光軸と撮像素子102との相対位置を変化させ、撮像面に対する被写体の結像位置を補正する。   The optical system 101 includes a lens, a shutter, a diaphragm, and a shift lens, and forms an optical image from a subject on the image sensor 102 under the control of the control unit 103. The shift lens realizes a camera shake correction mechanism, and changes the relative position between the optical axis of the lens and the image sensor 102, and corrects the imaging position of the subject with respect to the imaging surface.

撮像素子102は、結像された被写体からの光学像を各画素で光電変換し、さらにA/D変換回路によってアナログ・デジタル変換して、画素単位のデジタル画像信号(画像データ)を出力する。撮像素子102は、CCD(Charge-Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーなどの撮像素子であってよい。   The image sensor 102 photoelectrically converts an optical image from the imaged subject at each pixel, and further performs analog / digital conversion by an A / D conversion circuit to output a digital image signal (image data) in units of pixels. The image sensor 102 may be an image sensor such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

制御部103は、例えばCPUあるいはMPUであり、二次記憶装置108に格納されたプログラムを一次記憶装置104の作業エリアに展開し、実行することにより、デジタルカメラ100全体を制御する制御部である。後述する流し撮り撮影における流し撮りアシスト処理の全体や露光時間制限処理、画像合成処理等の各処理を制御する。   The control unit 103 is, for example, a CPU or MPU, and is a control unit that controls the entire digital camera 100 by developing and executing a program stored in the secondary storage device 108 in the work area of the primary storage device 104. . It controls the entire panning assist process, exposure time limit processing, image composition processing, and the like in panning shooting to be described later.

一次記憶装置104は、例えばRAMのような揮発性の記憶媒体であり、一時的なデータを記憶し、制御部103の作業用に使われる。また、一次記憶装置104に記憶されている情報は、必要に応じて画像処理部106で利用されるほか、記録媒体制御部107を介して記録媒体に記録される。   The primary storage device 104 is a volatile storage medium such as a RAM, for example, stores temporary data, and is used for the operation of the control unit 103. In addition, the information stored in the primary storage device 104 is used by the image processing unit 106 as necessary, and is recorded on the recording medium via the recording medium control unit 107.

二次記憶装置108は、例えばEEPROMのような不揮発性の記憶媒体であり、デジタルカメラ100を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶し、制御部103によって利用される。   The secondary storage device 108 is a nonvolatile storage medium such as an EEPROM, for example, stores a program (firmware) for controlling the digital camera 100 and various setting information, and is used by the control unit 103.

角速度センサ105は、ジャイロセンサ等で構成され、デジタルカメラ100の移動量を表す角速度を検出して電気信号に変換して制御部103へ通知する。   The angular velocity sensor 105 is composed of a gyro sensor or the like, detects an angular velocity representing the amount of movement of the digital camera 100, converts it into an electrical signal, and notifies the control unit 103 of it.

画像処理部106は、いわゆる現像処理と呼ばれる画像処理をはじめ、撮影モードに応じた色調の調整なども行う。なお、画像処理部106の機能の少なくとも一部は、制御部103がソフトウェア的に実現しても良い。   The image processing unit 106 performs image processing called so-called development processing, and also adjusts color tone according to the shooting mode. Note that at least part of the functions of the image processing unit 106 may be realized by the control unit 103 in software.

記録媒体制御部107は、一次記憶装置104に記憶されている、撮影により得られた画像データなどを記録媒体に記録する。記録媒体は、例えば半導体メモリカードのようにデジタルカメラ100から取り外し可能であり、記録されたデータはパーソナルコンピュータなどに装着してデータを読み出すことが可能である。記録媒体制御部107は記録媒体の着脱機構および読み書き機能を有する。   The recording medium control unit 107 records image data or the like obtained by photographing stored in the primary storage device 104 on a recording medium. The recording medium can be removed from the digital camera 100 such as a semiconductor memory card, for example, and the recorded data can be read by being attached to a personal computer or the like. The recording medium control unit 107 has a recording medium attaching / detaching mechanism and a read / write function.

表示部109は、撮影時のビューファインダー画像の表示、撮影した画像の表示、対話的な操作のためのGUI画像などの表示を行う。   The display unit 109 displays a viewfinder image at the time of photographing, a photographed image, a GUI image for interactive operation, and the like.

操作部110は、ユーザの操作を受け付けて制御部103へ入力情報を通知する入力デバイス群であり、例えばボタン、レバー、タッチパネル等はもちろん、音声や視線などを用いた入力機器であっても良い。ユーザは撮影を行うための撮影モードを設定可能であり、1枚ずつ撮影する設定や本実施形態の流し撮り撮影モードを選択して選択できる。また、撮影した画像に適用する画像処理のパターンを複数有し、これらのパターンも撮影モードとして操作部110から設定可能である。   The operation unit 110 is an input device group that receives user operations and notifies the control unit 103 of input information. For example, the operation unit 110 may be a button, a lever, a touch panel, or the like, or may be an input device that uses voice or line of sight. . The user can set a shooting mode for shooting, and can select and select the setting for shooting one by one or the panning shooting mode of the present embodiment. Also, there are a plurality of image processing patterns to be applied to the photographed image, and these patterns can also be set from the operation unit 110 as a photographing mode.

(2 流し撮りアシスト処理に係る一連の動作)
次に、図2を参照して、流し撮りアシスト処理に係る一連の動作を説明する。本実施形態における流し撮りアシスト処理は、流し撮り撮影において複数枚の画像を撮影し、撮影した画像データを合成した流し撮り画像の生成を行う。なお、本処理は、例えばユーザが動く被写体に対してデジタルカメラ100をパンニングしている状態で、操作部110に含まれるシャッターボタンを半押しした場合に開始される。また本処理は、制御部103が二次記憶装置108に記憶されたプログラムを一次記憶装置104の作業用領域に展開し、実行することにより実現される。
(2 series of actions related to panning assist processing)
Next, a series of operations related to the panning assist process will be described with reference to FIG. The panning assist process in the present embodiment captures a plurality of images in panning shooting and generates a panning image by combining the captured image data. This process is started when the shutter button included in the operation unit 110 is half-pressed while the digital camera 100 is panned with respect to a moving subject, for example. This process is realized by the control unit 103 developing and executing a program stored in the secondary storage device 108 in the work area of the primary storage device 104.

S201において制御部103は、撮像素子102から入力した画像データに対して被写体領域の抽出を行う。なお、被写体領域の抽出は、特許文献2に記載される公知の方法、例えば入力した2枚の画像データから動きベクトルを求め、周囲よりも動きベクトルが小さい領域を被写体領域として抽出できる。制御部103は所定の大きさの矩形領域または画素ごとに被写体領域を特定し、被写体領域を表す情報として一次記憶装置104に記憶する。   In step S <b> 201, the control unit 103 extracts a subject area from the image data input from the image sensor 102. The subject area is extracted by a known method described in Patent Document 2, for example, a motion vector is obtained from two input image data, and an area having a motion vector smaller than the surrounding area can be extracted as the subject area. The control unit 103 identifies a subject area for each rectangular area or pixel having a predetermined size, and stores it in the primary storage device 104 as information representing the subject area.

S202において制御部103は、角速度センサ105で検出されたデジタルカメラ100の角速度情報をパンニング角速度として取得し、S203に処理を進める。   In S202, the control unit 103 acquires the angular velocity information of the digital camera 100 detected by the angular velocity sensor 105 as the panning angular velocity, and the process proceeds to S203.

S203において制御部103は被写体の角速度の算出を行う。本実施形態においてはパンニング角速度を用いて被写体の角速度の計算を行うため、図3に示すように、主点を中心とした角速度を算出する。図3では、被写体がt[sec]の間に点Aから点Bへ移動し、それに応じてセンサ上に結像した被写体像が点Cから点Dへと移動したことを示している。ここで、点Cから点Dへの像面移動量をv[pixel]、焦点距離をf[mm]、センサの画素ピッチをp[μm/pixel]とした時、像面上の被写体の角速度ω[rad/sec]は式3で表わされる。   In S203, the control unit 103 calculates the angular velocity of the subject. In this embodiment, since the angular velocity of the subject is calculated using the panning angular velocity, the angular velocity centered on the principal point is calculated as shown in FIG. FIG. 3 shows that the subject moved from point A to point B during t [sec], and the subject image formed on the sensor accordingly moved from point C to point D. Here, when the moving amount of the image plane from the point C to the point D is v [pixel], the focal length is f [mm], and the pixel pitch of the sensor is p [μm / pixel], the angular velocity of the subject on the image plane ω [rad / sec] is expressed by Equation 3.

ここで、デジタルカメラ100をパンニングしていた場合、像面上の被写体の角速度ωは、被写体自身の角速度(被写体角速度)ωsとS202で取得したパンニング角速度ωpの速度差となる。(式4) Here, when the digital camera 100 is panned, the angular velocity ω of the subject on the image plane is a difference between the angular velocity (subject angular velocity) ω s of the subject itself and the panning angular velocity ω p acquired in S202. (Formula 4)

そこで、被写体角速度ωsを求めるにあたり、角速度センサ105で検出されたデジタルカメラ100のパンニング角速度ωpから、式5により被写体角速度ωsが算出される。 Therefore, in obtaining the subject angular velocity ω s , the subject angular velocity ω s is calculated from the panning angular velocity ω p of the digital camera 100 detected by the angular velocity sensor 105 using Equation 5.

なお、本実施形態では、被写体角速度ωsは像面上の被写体の角速度ωとパンニング角速度ωpから算出したが、予め操作部110を介してユーザにより指定あるいは選択された値を使用するようにしてもよい。被写体角速度ωsが算出されると、制御部103はS204に処理を進める。 In the present embodiment, the subject angular velocity ω s is calculated from the angular velocity ω of the subject on the image plane and the panning angular velocity ω p , but a value previously designated or selected by the user via the operation unit 110 is used. May be. When the subject angular velocity ω s is calculated, the control unit 103 advances the process to S204.

S204において制御部103は、自動露出設定を行う。自動露出設定では、例えば通常撮影で設定される露光時間よりも長い、流し撮り撮影のための予め定めた露光時間を設定する。図4において後述するが、例えば通常撮影で設定される露光時間が1/80とすると、本ステップでは設定値等により定められた所定の1/10などの長い露光時間を設定する。なお、S204において算出した被写体角速度ωsに応じて露光時間を算出して設定するようにしてもよい。 In step S204, the control unit 103 performs automatic exposure setting. In the automatic exposure setting, for example, a predetermined exposure time for panning shots that is longer than the exposure time set for normal shooting is set. As will be described later with reference to FIG. 4, if the exposure time set for normal shooting is 1/80, for example, in this step, a long exposure time such as a predetermined 1/10 determined by a setting value is set. The exposure time may be calculated and set according to the subject angular velocity ω s calculated in S204.

S205において制御部103は、さらに最長露光時間の算出を行う。S204において設定した露出時間を用いると、シフトレンズによる最大補正可能角度を超えてしまう場合がある。このため、複数の撮影を行ってS204で設定した露光時間を満たした流し撮り撮影を行い、各撮影には、以下で算出する最長露光時間を下回る露光時間において撮影を行う。最長露光時間の算出処理の詳細について、図2(b)を参照して一連の動作を説明する。   In S205, the control unit 103 further calculates the longest exposure time. If the exposure time set in S204 is used, the maximum correctable angle by the shift lens may be exceeded. For this reason, a plurality of shootings are performed, and a panning shooting that satisfies the exposure time set in S204 is performed, and each shooting is performed at an exposure time that is less than the maximum exposure time calculated below. The details of the longest exposure time calculation process will be described with reference to FIG. 2B.

まず、S231において制御部103は、補正角速度ωrの算出を行う。ここでは被写体角速度ωsおよびパンニング角速度ωpを用いて、式6により補正角速度ωrを算出する。 First, the control unit 103 in S231 performs the calculation of the corrected angular velocity omega r. Here, the corrected angular velocity ω r is calculated by Equation 6 using the subject angular velocity ω s and the panning angular velocity ω p .

S232において制御部103は、最大補正可能角度の取得を行う。上述のように、この最大補正可能角度はシフトレンズを有する光学系101が補正できる最大の角度を表す。光学系101がデジタルカメラ100の本体に予め固定されている場合、制御部103は、二次記憶装置108に予め記録された光学系101の最大補正可能角度を読みだす。一方、光学系101が取り外し可能な場合、制御部103は、取り付けられた光学系101の最大補正可能角度を光学系101との通信により取得する、または二次記憶装置108等に予め記録された各光学系に対応した最大補正可能角度を読みだす。   In step S232, the control unit 103 acquires a maximum correctable angle. As described above, this maximum correctable angle represents the maximum angle that can be corrected by the optical system 101 having the shift lens. When the optical system 101 is fixed to the main body of the digital camera 100 in advance, the control unit 103 reads the maximum correctable angle of the optical system 101 recorded in advance in the secondary storage device 108. On the other hand, when the optical system 101 is removable, the control unit 103 acquires the maximum correctable angle of the attached optical system 101 by communication with the optical system 101 or is recorded in advance in the secondary storage device 108 or the like. Reads the maximum correctable angle corresponding to each optical system.

S233において制御部103は、最大補正可能角度を取得すると最長露光時間の算出を行う。例えば最大補正可能角度をθmax[deg]、S231において算出した補正角速度をωrとした場合、最長露光時間tmaxは式7のように求められる。 In S233, the control unit 103 calculates the longest exposure time when the maximum correctable angle is acquired. For example, when the maximum correctable angle is θ max [deg] and the correction angular velocity calculated in S231 is ω r , the longest exposure time t max is obtained as shown in Equation 7.

S234において制御部103は、このようにして算出した最長露光時間tmaxに基づいて撮影条件の更新を行う。撮影条件の更新処理の例を、図4を参照して説明する。図4はS204およびS205において定められる撮影条件の例を示しており、撮像素子102に被写体像を露光させる時間をTv、撮像素子102の電気的利得をISOとして表記している。例えば通常撮影の撮影条件では(Tv=1/80,ISO=800)となるような撮影条件を設定して流し撮り撮影を行うものとする。これに対して、S204において設定される撮影条件は、通常よりも長い露光時間で同程度の明るさで撮影できるよう(Tv=1/10、ISO=100)となる撮影条件を設定する。このように撮影条件を設定すると、例えば補正角速度ωrが6deg/secであった場合、最終的に補正する角度は設定された露光時間との関係から式8のようになる。 In S234, the control unit 103 updates the shooting conditions based on the longest exposure time tmax calculated in this way. An example of the imaging condition update process will be described with reference to FIG. FIG. 4 shows an example of imaging conditions determined in S204 and S205, where the time for exposing the subject image to the image sensor 102 is expressed as Tv, and the electrical gain of the image sensor 102 is expressed as ISO. For example, assume that shooting conditions for normal shooting (Tv = 1/80, ISO = 800) are set to perform panning shooting. On the other hand, the shooting conditions set in S204 are set so that shooting can be performed with the same brightness with an exposure time longer than normal (Tv = 1/10, ISO = 100). When the shooting conditions are set in this way, for example, when the correction angular velocity ω r is 6 deg / sec, the angle to be finally corrected is expressed by Equation 8 from the relationship with the set exposure time.

これに対して、制御部103は得られた最終的に補正する角度(第1の補正量)と最大補正可能角度(第2の補正量)を比較して、最大補正可能角度がこの最終的に補正する角度以上であれば補正可能であると判定する。一方、例えば最大補正可能角度が0.4degである場合は補正をすることが出来ないものと判定する。   On the other hand, the control unit 103 compares the finally corrected angle (first correction amount) with the maximum correctable angle (second correction amount), and the maximum correctable angle is the final correction angle. If the angle is equal to or greater than the angle to be corrected, it is determined that correction is possible. On the other hand, for example, when the maximum correctable angle is 0.4 deg, it is determined that correction cannot be performed.

そして、最大補正可能角度が最終的に補正する角度を下回る場合、例えば最大補正可能角度0.4deg、補正角速度6deg/secを式7に代入すると式9のように最長露光時間tmaxが求められる。 When the maximum correctable angle is less than the angle to be finally corrected, for example, when the maximum correctable angle 0.4 deg and the corrected angular velocity 6 deg / sec are substituted into Equation 7, the longest exposure time t max is obtained as shown in Equation 9. .

つまり、最大補正可能角度が0.4degである場合には、1/15[sec]が補正可能な最長露光時間となる。 That is, when the maximum correctable angle is 0.4 deg, 1/15 [sec] is the longest exposure time that can be corrected.

制御部103は、複数枚の撮影を行って撮り流し撮影を行うために、式10に示すように各撮影に対する撮影条件を設定する。ここで、TvmaxはS204で定めた露光時間であり、複数枚の撮影にわたる露光時間の設定として累計露光時間設定という。式10を用いることで累計露光時間設定に対する各撮影における露光時間が得られ、図4に示すように各撮影における撮影条件を設定することができる。例えば、1枚目の撮影における撮影条件をS233で求めた設定値(Tv=1/15、ISO=100)とすると、2枚目の撮影には別途S216で設定する設定値(Tv=1/30、ISO=100)を設定することができる。なお、n回目の撮影時の露光時間tnを分割露光時間、1回目からn回目の撮影時の露光時間の合計を累計露光時間という。制御部103は、1枚目の撮影に対する撮影条件の更新を行うと露光時間制限処理を終了してS206に処理を進める。 The control unit 103 sets shooting conditions for each shooting as shown in Expression 10, in order to perform shooting by shooting a plurality of images. Here, Tv max is the exposure time determined in S204, and is referred to as a cumulative exposure time setting as a setting of the exposure time over a plurality of shots. By using Expression 10, the exposure time in each shooting with respect to the cumulative exposure time setting can be obtained, and the shooting conditions in each shooting can be set as shown in FIG. For example, assuming that the shooting conditions for the first shooting are set values obtained in S233 (Tv = 1/15, ISO = 100), the setting values (Tv = 1/1 /) separately set for S216 for the second shooting. 30 and ISO = 100) can be set. Note that the exposure time t n at the n-th shooting is divided exposure time, and the total of the exposure times at the first to n-th shooting is referred to as a cumulative exposure time. When updating the shooting condition for the first shot, the control unit 103 ends the exposure time limiting process and advances the process to S206.

S206において制御部103は、露光動作を行うかの判定を行う。制御部103は、操作部110に含まれる図示しないシャッターボタンの全押しがなされたかを判定する。操作部110からの通知によりシャッターボタンの全押しがなされていないと判定した場合、制御部103はS201に処理を再び戻してS201からS205までの動作を繰り返す。一方、シャッターボタンの全押しがなされていると判定した場合、撮影を開始するためにS207に処理を進める。   In step S206, the control unit 103 determines whether to perform an exposure operation. The control unit 103 determines whether a shutter button (not shown) included in the operation unit 110 is fully pressed. If it is determined by the notification from the operation unit 110 that the shutter button has not been fully pressed, the control unit 103 returns the processing to S201 again and repeats the operations from S201 to S205. On the other hand, if it is determined that the shutter button is fully pressed, the process proceeds to S207 to start shooting.

S207において制御部103は、光学系101に含まれるシャッターを制御して露光を開始し、S234またはS216において設定した分割露光時間の経過がS209で判定されるまで、露光が行われる。S208において制御部103は光学系101のシフトレンズを動作させる。   In step S207, the control unit 103 controls the shutter included in the optical system 101 to start exposure, and exposure is performed until the elapse of the divided exposure time set in step S234 or S216 is determined in step S209. In S208, the control unit 103 operates the shift lens of the optical system 101.

S209において制御部103は、分割露光時間を経過したと判定すると、S210において制御部103は、光学系101に含まれるシャッターを制御して露光を終了する。制御部103は、経過した分割露光時間を累計露光時間に加算して累計露光時間を更新するとともに、撮像素子102から出力された画像データを一次記憶装置104に記憶させる。一方、S209において制御部103は、分割露光時間を経過していないと判定した場合、S208に処理を再び戻す。   If the control unit 103 determines in S209 that the divided exposure time has elapsed, in S210, the control unit 103 controls the shutter included in the optical system 101 and ends the exposure. The control unit 103 adds the elapsed divided exposure time to the total exposure time to update the total exposure time, and stores the image data output from the image sensor 102 in the primary storage device 104. On the other hand, if the control unit 103 determines in S209 that the divided exposure time has not elapsed, the process returns to S208.

S211において制御部103は、累計露光時間が累計露光時間設定に達しているか、即ち連続撮影を全て終えているかを判定し、連続撮影が終わっていると判定した場合、S212に処理を進め、終わっていない場合はS215に処理を進める。   In step S211, the control unit 103 determines whether the cumulative exposure time has reached the cumulative exposure time setting, that is, whether all the continuous shooting has been completed. If it is determined that the continuous shooting has ended, the control unit 103 proceeds to step S212 and ends. If not, the process proceeds to S215.

S215において制御部103は、光学系101に対する指示によりシフトレンズの位置を戻し、再度撮影を行う。シフトレンズの戻す位置については、連続撮影時にシフトレンズにて補正可能な範囲内であればどこでも構わない。   In step S215, the control unit 103 returns the position of the shift lens in response to an instruction to the optical system 101, and performs imaging again. The position where the shift lens is returned may be anywhere as long as it is within a range that can be corrected by the shift lens during continuous shooting.

シフトレンズを動作させた場合に撮影される被写体の領域について図5を参照して説明する。なお、説明を簡単にするためシフトレンズの駆動による被写体の領域の変化を示しており、パンニングによる領域の変化はない場合を示している。   An area of a subject photographed when the shift lens is operated will be described with reference to FIG. In order to simplify the explanation, the change of the object region due to the driving of the shift lens is shown, and the case where there is no change of the region due to panning is shown.

図5(a)に示す領域501は、シフトレンズを動作させる前、即ちS207の時点で撮像素子102により画像データとして得られる被写体の領域を示している。これに対して図5(b)に示す領域502は、S208において主被写体の移動方向にシフトレンズを動作させてレンズシフトさせた時点で撮像素子102により画像データとして得られる被写体の領域を示している。図5(c)に示す領域503は、主被写体の移動方向に移動させたシフトレンズの位置を逆方向に移動させて、S215において位置を戻した際の被写体の領域を示している。さらに、図5(d)に示す領域504は、2枚目の撮影を行う際にS208において再び主被写体の移動方向にシフトレンズを動作させた被写体の領域を示している。図5(e)に示す領域505は、1枚目に撮影した画像と2枚目に撮影した画像、即ち図5(b)に示した被写体の領域502と図5(d)に示した被写体の領域504を主被写体が重なるように位置合わせを行って重ねた様子を示している。領域502と領域503とにおいて重なる領域、即ち領域504の左端の領域から領域502の右端の領域までの部分が共通部分506となる。領域505において共通部分の左側の領域507は、重ね合わせにより生じるずれの領域であり、1枚目の画像には存在するが2枚目の画像には存在しない領域を示している。同様に領域508は、1枚目の画像に存在しないが2枚目の画像に存在する領域である。共通部分506は、後に説明する画像合成処理において合成可能な領域である。   A region 501 illustrated in FIG. 5A indicates a region of a subject obtained as image data by the image sensor 102 before operating the shift lens, that is, at the time of S207. On the other hand, a region 502 shown in FIG. 5B shows a subject region obtained as image data by the image sensor 102 when the lens is shifted by operating the shift lens in the moving direction of the main subject in S208. Yes. An area 503 shown in FIG. 5C shows the area of the subject when the position of the shift lens moved in the moving direction of the main subject is moved in the reverse direction and the position is returned in S215. Further, an area 504 shown in FIG. 5D shows an area of the subject in which the shift lens is operated again in the moving direction of the main subject in S208 when the second image is taken. An area 505 shown in FIG. 5E is an image taken on the first image and an image taken on the second image, that is, the object area 502 shown in FIG. 5B and the object shown in FIG. The region 504 is aligned and overlapped so that the main subject overlaps. A region that overlaps the region 502 and the region 503, that is, a portion from the left end region of the region 504 to the right end region of the region 502 is a common portion 506. A region 507 on the left side of the common portion in the region 505 is a shift region caused by superposition, and indicates a region that exists in the first image but does not exist in the second image. Similarly, the area 508 is an area that does not exist in the first image but exists in the second image. The common portion 506 is an area that can be combined in an image combining process described later.

S216において制御部103は、次の撮影において露光するための分割露光時間を上述の式10に基づいて設定するとS207に処理を戻す。   In S216, the control unit 103 returns the process to S207 when the divided exposure time for exposure in the next shooting is set based on the above-described Expression 10.

S212において画像処理部106は、画像合成処理を行う。画像合成処理の詳細を、図2(c)を参照して説明する。   In S212, the image processing unit 106 performs an image composition process. Details of the image composition processing will be described with reference to FIG.

S251において画像処理部106は、撮像素子102から出力された画像データに対して色補間処理を行ってRGBプレーン化する処理を行う。また、上述の累計露光時間に応じて複数の撮影が行われているため、一次記憶装置104に記憶されている画像データがある場合は当該画像データを参照する。   In step S <b> 251, the image processing unit 106 performs a color interpolation process on the image data output from the image sensor 102 to form an RGB plane. In addition, since a plurality of shootings are performed according to the above-described cumulative exposure time, when there is image data stored in the primary storage device 104, the image data is referred to.

S252において画像処理部106は、複数の撮影によって得られた複数の画像データについて、移動する主被写体の領域が重なるように画像間の位置合わせを行う。位置合わせ処理についても公知の位置合わせ技術を用いることができる。位置合わせの処理は、例えばS201において特定した1枚目の画像データに対する被写体領域を表す情報を一次記憶装置104から読み出して、2枚目以降の画像データにおいて当該主被写体領域と整合する領域を特定する。   In S <b> 252, the image processing unit 106 performs alignment between images so that the areas of the moving main subject overlap with each other for a plurality of image data obtained by a plurality of shootings. A known alignment technique can also be used for the alignment process. In the alignment process, for example, information representing the subject area corresponding to the first image data identified in S201 is read from the primary storage device 104, and an area that matches the main subject area is identified in the second and subsequent image data. To do.

S253において画像処理部106は、主被写体以外の領域、即ち背景領域に対して平滑化を行うためのフィルタ処理を行い、さらにS254において画像処理部106は、S253で得られた画像を加算合成する。ここで、S253のフィルタ処理およびS254における合成処理の詳細を、図6を参照して説明する。   In S253, the image processing unit 106 performs filter processing for smoothing the region other than the main subject, that is, the background region, and in S254, the image processing unit 106 adds and combines the images obtained in S253. . Here, the details of the filtering process in S253 and the synthesizing process in S254 will be described with reference to FIG.

図6において、画像601は連続して撮影した複数回の撮影のうち1枚目の撮影において露光を開始したときの画像を、画像602は2枚目の撮影において露光を開始したときの画像を示している。これらの画像について分割露光時間にわたって露光した画像がそれぞれ画像603および画像604となる。露光した状態のまま主被写体である車に対してパンニングを行っているため、背景の被写体は連続的に流れるようになっている。1枚目の撮影により得た画像603と2枚目の撮影により得られた画像604とを、S252において位置合わせ処理を行うと画像605に示すように背景が途切れた画像となる。これは、複数回の撮影を行うため非露光期間が存在し、当該非露光期間中にも主被写体が動いていることによるものである。このため、1度の露光による1枚のみの撮影によって得られる画像606とは異なるものとなる。背景の途切れる間隔は、主被写体の画像に対する移動量に相当する。   In FIG. 6, an image 601 is an image when exposure is started in the first shooting among a plurality of continuous shootings, and an image 602 is an image when exposure is started in the second shooting. Show. The images exposed over the divided exposure time for these images are an image 603 and an image 604, respectively. Since the car, which is the main subject, is panned in an exposed state, the background subject flows continuously. When the image 603 obtained by the first photographing and the image 604 obtained by the second photographing are subjected to the alignment process in S252, an image with a broken background is obtained as shown in the image 605. This is because a non-exposure period exists because a plurality of shootings are performed, and the main subject moves during the non-exposure period. For this reason, it is different from the image 606 obtained by photographing only one sheet by one exposure. The interval at which the background is interrupted corresponds to the amount of movement of the main subject relative to the image.

画像処理部106は、非露光期間中の背景の移動部分、即ち背景の途切れた部分の画素を補う処理を行う。具体的には、S252において得られた画像603に、非露光期間の主被写体の像面移動量をタップ数としたローパスフィルタ(LPF)処理を適用して、非露光期間中の背景を表現した画像607(背景補間画像)を生成する。そして、背景補間画像と連続して撮影した画像(例えば画像604等)を合成して、背景が途切れない流し撮り画像を生成する。   The image processing unit 106 performs processing to compensate for a pixel in a moving part of the background during the non-exposure period, that is, a part where the background is interrupted. Specifically, a low-pass filter (LPF) process using the amount of movement of the main subject image plane during the non-exposure period as the number of taps is applied to the image 603 obtained in S252 to express the background during the non-exposure period. An image 607 (background interpolation image) is generated. Then, the background interpolation image and the continuously captured image (for example, the image 604) are combined to generate a panning image in which the background is not interrupted.

S254において画像処理部106は、背景補間画像と連続して撮影した画像とを加算合成処理して出力画像である合成画像を生成する。なお、LPFを適用する画像は連続して撮影したどの画像でもよく、また、合成する際も、複数の背景補間画像を混合することで生成してもよい。画像処理部106は、画像合成処理を終了して処理を呼び出し元に戻す。   In step S254, the image processing unit 106 adds and combines the background interpolation image and the continuously captured image to generate a composite image that is an output image. Note that the image to which the LPF is applied may be any image taken continuously, and may be generated by mixing a plurality of background interpolated images when combining. The image processing unit 106 ends the image composition process and returns the process to the caller.

次にS213において画像処理部106は、制御部103の指示のもと、合成画像に対して色調の調整等の現像処理を行って画像データを出力する。S214において画像処理部106は、連続して撮影した画像を重ね合わせた場合に共通する領域のみをクロップ処理して生成した撮り流し画像を二次記憶装置108または記録媒体制御部107を介して記録媒体に記録する。制御部103は、画像処理部106による二次記憶装置または記録媒体への書き込みを終えると、流し撮りアシスト処理の一連の動作を終了する。   In step S <b> 213, the image processing unit 106 performs development processing such as color tone adjustment on the composite image under the instruction of the control unit 103 and outputs image data. In step S <b> 214, the image processing unit 106 records the captured image generated by cropping only the common area when the continuously captured images are overlapped, via the secondary storage device 108 or the recording medium control unit 107. Record on media. When the image processing unit 106 finishes writing to the secondary storage device or the recording medium, the control unit 103 ends the series of panning assist processing.

なお、本実施形態においてはS204における自動露出設定において設定した撮影条件をS234において撮影条件の更新を行うようにした。しかし、例えばS204における自動露出設定を行わずにS234における撮影条件の設定のみを行うようにしても同じ流し撮り撮影による画像を得られる。そして、撮影条件として露光時間を設定したが、シャッタースピードや露光量を適用しても同様の流し撮り撮影による画像を得られる。また、S253において連続して撮影した画像の1枚についてLPFを適用する処理を行ったが、まず連続して撮影された画像を合成したうえで背景領域にLPFを適用しても上述した合成画像と同様の合成画像が得られる。   In the present embodiment, the shooting condition set in the automatic exposure setting in S204 is updated in S234. However, for example, even if only the shooting conditions are set in S234 without performing the automatic exposure setting in S204, an image by the same panning shot can be obtained. Although the exposure time is set as the shooting condition, an image by the same panning shot can be obtained even when the shutter speed and the exposure amount are applied. In addition, the process of applying the LPF to one of the continuously shot images in S253 is performed. However, even if the continuously shot images are synthesized and the LPF is applied to the background area, the above-described synthesized image is also obtained. A composite image similar to is obtained.

また、本実施形態においてはシフトレンズによる、撮像面に対する被写体の結像位置を補正する例を示したが、例えば撮像素子102自体をシフトさせるなどといった形態でも上述した流し撮り画像が得られる。   In the present embodiment, an example in which the imaging position of the subject with respect to the imaging surface is corrected using the shift lens has been described. However, for example, the above-described panning image can be obtained by shifting the imaging element 102 itself.

以上説明したように本実施形態では、被写体の移動に対する補正角度がシフトレンズによる補正可能範囲を超える場合、露光時間を分割して複数回の撮影を行ったうえで撮影された画像に平滑化処理を施し、これらの画像を合成した画像を生成するようにした。このようにすることで、撮像装置と被写体の移動速度の差が光学系の補正によって補正可能な範囲を超える場合であっても、流し撮りを有効に支援できる。   As described above, in the present embodiment, when the correction angle with respect to the movement of the subject exceeds the range that can be corrected by the shift lens, the exposure time is divided and a plurality of shootings are performed, and then a smoothing process is performed on the shot image To generate an image composed of these images. In this way, even when the difference in moving speed between the imaging apparatus and the subject exceeds the range that can be corrected by the correction of the optical system, it is possible to effectively support the panning.

(実施形態2)
次に実施形態2について説明する。実施形態1では、最大補正可能角度を超える補正が必要と判断した場合にシフトレンズによって補正可能な範囲で露光時間を分割して複数回の撮影を行った。これに対して実施形態2では、最大補正可能角度を超える補正が必要な場合に、シフトレンズのような光学補正を使用せずに複数枚の撮影を行って合成することで流し撮り画像を生成する。このため、本実施形態の流し撮りアシスト処理は、補正が必要な角度と最大補正可能角度の比較に応じて複数の撮影を行う構成は同一である。また、複数の撮影を行った後の処理、即ち流し撮り画像を生成するためのフィルタ適用や合成処理も実施形態1と同一の構成をとることができる。但し、本実施形態の説明では、画像合成処理について実施形態1にも適用可能な変形例を適用した例を説明する。なお、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the first embodiment, when it is determined that correction exceeding the maximum correctable angle is necessary, the exposure time is divided within a range that can be corrected by the shift lens, and photographing is performed a plurality of times. On the other hand, in the second embodiment, when correction exceeding the maximum correctable angle is required, a panning image is generated by shooting and combining a plurality of images without using optical correction such as a shift lens. To do. For this reason, the panning assist process of the present embodiment has the same configuration for performing a plurality of shootings in accordance with a comparison between an angle that needs to be corrected and a maximum correctable angle. Further, the processing after performing a plurality of shootings, that is, the application of a filter for generating a panning image and the synthesizing processing can have the same configuration as that of the first embodiment. However, in the description of the present embodiment, an example in which a modification that can be applied to the first embodiment is applied to the image composition processing will be described. In addition, about the same structure, the same code | symbol is attached | subjected and the overlapping description is abbreviate | omitted and it demonstrates focusing on a different point.

実施形態2における流し撮りアシスト処理の一連の動作について、図8を参照して説明する。   A series of operations of the panning assist process in the second embodiment will be described with reference to FIG.

S801において制御部103は、算出された最長露光時間がS204において算出された露光時間よりも短い場合、S204で算出した露光時間(例えば1/10秒)を、1/10秒の相当シャッター速度として設定する。なお、相当シャッター速度は、合成画像に対する仮想的なシャッター速度を意味し、1枚の撮影で流し撮り撮影を行う場合に動き度合いを表現する所定のシャッター速度を設定することに相当する。また、本実施形態では、1枚ごとの撮影は予め設定された所定のフレームレート(例えば60fps)に応じて行われる。   In S801, when the calculated longest exposure time is shorter than the exposure time calculated in S204, the control unit 103 sets the exposure time calculated in S204 (for example, 1/10 second) as an equivalent shutter speed of 1/10 second. Set. Note that the equivalent shutter speed means a virtual shutter speed for the composite image, and corresponds to setting a predetermined shutter speed that represents the degree of movement when performing panning shot shooting with one shot. In the present embodiment, the shooting for each frame is performed according to a predetermined frame rate (for example, 60 fps) set in advance.

S802において制御部103は、操作部110のシャッターボタンが全押しされたかを判定し、全押しがされたと判定した場合はS803に処理を進め、全押しされていないと判定した場合はS201に処理を戻す。   In step S802, the control unit 103 determines whether the shutter button of the operation unit 110 is fully pressed. If it is determined that the shutter button is fully pressed, the process proceeds to step S803. If it is determined that the shutter button is not fully pressed, the process proceeds to step S201. To return.

S803において制御部103は、不図示の測光センサを用いて被写体の露出を計測し、シャッター速度と絞り値、ISO感度を用いて適切な露出を決定して光学系101に含まれる絞りを調節する。   In step S803, the control unit 103 measures the exposure of the subject using a photometric sensor (not shown), determines an appropriate exposure using the shutter speed, the aperture value, and the ISO sensitivity, and adjusts the aperture included in the optical system 101. .

S804において制御部103は、例えば撮像素子102から出力される位相差に基づいて光学系101のレンズ駆動量を算出し、合焦位置を特定する。   In step S <b> 804, the control unit 103 calculates the lens driving amount of the optical system 101 based on, for example, the phase difference output from the image sensor 102, and specifies the in-focus position.

S805において制御部103は、角速度センサ105で検出されたデジタルカメラ100の角速度情報をパンニング角速度として取得する。なお、S803〜S805の処理の順序に依存関係はないため、処理に応じて順序を変更してもよい。   In step S <b> 805, the control unit 103 acquires the angular velocity information of the digital camera 100 detected by the angular velocity sensor 105 as the panning angular velocity. In addition, since there is no dependency in the process order of S803-S805, you may change an order according to a process.

S806において制御部103は、S234において更新された露光時間にわたって露光すると、制御部103は、撮像素子102から出力された画像データを一次記憶装置104に記憶させる。   In step S <b> 806, when the control unit 103 performs exposure for the exposure time updated in step S <b> 234, the control unit 103 stores the image data output from the image sensor 102 in the primary storage device 104.

S807において制御部103は、被写体領域のうち重要となる領域の認識処理を行う。被写体領域の認識処理は公知の認識技術、例えば顔検出や人体検出を行う技術や合焦位置などを用いて実現することができるため、詳細な説明は省略する。制御部103は、被写体にうち例えば人物検出により検出された領域を重要となる領域として一次記憶装置104に記憶させる。   In step S <b> 807, the control unit 103 performs recognition processing for an important area of the subject area. The subject area recognition process can be realized by using a known recognition technique such as a face detection or human body detection technique or a focus position, and thus detailed description thereof is omitted. The control unit 103 causes the primary storage device 104 to store, for example, an area detected by human detection in the subject as an important area.

S808において画像処理部106は、制御部103の指示により現像処理を行う。画像処理部106は、S806において露光して一次記憶装置104に記憶された画像データに現像処理を施して現像後の画像データを生成する。また、S807において認識した重要となる領域が合成処理において最適となるように、色や明るさ、シャープネスなどを予め設定された値になるよう調節しても良い。   In step S <b> 808, the image processing unit 106 performs development processing according to an instruction from the control unit 103. The image processing unit 106 performs development processing on the image data exposed in S806 and stored in the primary storage device 104 to generate post-development image data. In addition, the color, brightness, sharpness, etc. may be adjusted to preset values so that the important area recognized in S807 is optimized in the composition processing.

S809において操作部110のシャッターボタンが全押しされているかを判定し、当該ボタンが全押しされ続けていると判定する限り、制御部103はS803〜S808の動作を繰り返し行う。なお、一次記憶装置104に新しいデータを記憶する空き容量がある場合は、S807やS808の処理と並行してS803の処理に進めても良い。一方、シャッターボタンの全押しが終了したと判定した場合、S810に処理を進める。   In step S809, it is determined whether the shutter button of the operation unit 110 is fully pressed, and the control unit 103 repeats the operations in steps S803 to S808 as long as it is determined that the button is continuously pressed. If there is a free capacity for storing new data in the primary storage device 104, the process may proceed to S803 in parallel with the processes of S807 and S808. On the other hand, if it is determined that the shutter button has been fully pressed, the process proceeds to S810.

S810において制御部103は、一次記憶装置104に記憶された全ての画像データが現像処理されて現像後の画像データが生成されたかを判定する。全ての画像データが生成されていない場合、S811における被写体認識処理およびS812における現像処理を繰り返す。ここで、S812およびS813の各処理は、S807における被写体認識処理およびS808における現像処理と同一の処理である。   In step S810, the control unit 103 determines whether all image data stored in the primary storage device 104 has been developed and image data after development has been generated. If all the image data has not been generated, the subject recognition process in S811 and the development process in S812 are repeated. Here, the processes in S812 and S813 are the same processes as the subject recognition process in S807 and the development process in S808.

S813において制御部103は、現像された画像に対して主被写体領域の認識処理を行なう。制御部103は、例えば、S807またはS811で取得した重要となる領域を一次記憶装置104から読み出して、画像の中心から予め定められた範囲において最も大きな領域を主被写体領域として認識する。   In step S813, the control unit 103 performs main subject area recognition processing on the developed image. For example, the control unit 103 reads out the important area acquired in S807 or S811 from the primary storage device 104, and recognizes the largest area from the center of the image as the main subject area.

S814において制御部103は、現像後の連続する各画像間において、各画像に探索用ブロックを設定し、探索用ブロック内の移動ベクトルを検出する。移動ベクトルは、演算量を低減するために主被写体領域についてのみ検出するものとするが画像全体に対して検出しても良い。   In step S814, the control unit 103 sets a search block for each image between successive images after development, and detects a movement vector in the search block. The movement vector is detected only for the main subject region in order to reduce the amount of calculation, but may be detected for the entire image.

なお、S813およびS814の処理の順番は入れ替えてもよい。順番を入れ替えた場合のS813における被写体認識処理では、まずS814において検出した、重要となる被写体領域に対する移動ベクトルに基づいて、予め定められた移動量以下となる領域を主被写体領域として認識しても良い。このときS805で取得したデジタルカメラ100の角速度と移動ベクトルを用いて、動体と静止体を区別しても良い。重要となる被写体領域と同等な移動ベクトルを持つ周辺の領域を抽出するようにしても良い。   Note that the processing order of S813 and S814 may be switched. In the subject recognition processing in S813 when the order is changed, an area that is equal to or smaller than a predetermined movement amount is recognized as the main subject area based on the movement vector for the important subject area detected in S814. good. At this time, the moving body and the stationary body may be distinguished using the angular velocity and the movement vector of the digital camera 100 acquired in S805. A peripheral region having a movement vector equivalent to an important subject region may be extracted.

S815において制御部103は、S813において抽出した主被写体領域と、S814において検出した移動ベクトルの情報を用いて、現像された全ての画像について主被写体領域が重なるように位置を合わせる。このとき、重要となる領域の移動ベクトルやデジタルカメラ100の角速度を考慮してもよい。   In step S815, the control unit 103 uses the main subject area extracted in step S813 and the information on the movement vector detected in step S814 so as to align the main subject area for all developed images. At this time, the movement vector of an important area and the angular velocity of the digital camera 100 may be taken into consideration.

S816において画像処理部106は、S815において求めた位置合わせの情報を用いて流し撮り合成処理を行って各画像を重ね合わせ、流し撮り画像を生成する。流し撮り合成処理については、図9を参照して詳細を後述する。   In step S816, the image processing unit 106 performs a panning composition process using the registration information obtained in step S815, and superimposes the images to generate a panning image. The details of the panning composition processing will be described later with reference to FIG.

S817において制御部103は、生成した流し撮り画像を表示部109に表示し、S818において画像処理部106は、制御部103の制御に応じて、記録媒体制御部107を介して記録媒体に流し撮り画像を記録する。このとき画像処理部106は、生成した流し撮り画像を予め定められた圧縮形式に圧縮して記録媒体に出力する。制御部103は、記録媒体への流し撮り画像の記録が完了すると、流し撮りアシスト処理の一連の動作を終了する。   In step S817, the control unit 103 displays the generated panning image on the display unit 109. In step S818, the image processing unit 106 performs panning on the recording medium via the recording medium control unit 107 in accordance with the control of the control unit 103. Record an image. At this time, the image processing unit 106 compresses the generated panning shot image into a predetermined compression format and outputs it to a recording medium. When the recording of the panning shot image on the recording medium is completed, the control unit 103 ends the series of panning shot assist processing operations.

つぎに、S816において実行される流し撮り合成処理の一連の動作を、図9を参照して説明する。   Next, a series of operations of the panning composition processing executed in S816 will be described with reference to FIG.

S901において画像処理部106は、S815において位置合わせした複数の画像について加算合成を行って、1枚の合成画像を作成する。そして、S902において画像処理部106は、S901で合成した画像に対してLPF処理に用いるタップ数を算出し、S903において、合成画像に対して算出したLPF処理を適用することで、背景の流れを表現した画像を作成する。なお、LPF処理に用いるタップ数の算出処理およびLPF処理の詳細は後述する。   In step S901, the image processing unit 106 performs addition synthesis on the plurality of images aligned in step S815 to create one synthesized image. In step S902, the image processing unit 106 calculates the number of taps used in the LPF process for the image combined in step S901. In step S903, the image processing unit 106 applies the calculated LPF process to the combined image, thereby changing the background flow. Create a representation of the image. Details of the tap count calculation process and the LPF process used for the LPF process will be described later.

S904において画像処理部106は、S901で合成した画像の主被写体領域と、S903でLPFをかけた画像の主被写体領域以外の領域とを合成し、全体として流し撮りと同様の効果を持つ画像を生成する。画像処理部106が画像の生成を完了すると、制御部103は、処理をS817に進める。   In step S904, the image processing unit 106 combines the main subject region of the image combined in step S901 and the region other than the main subject region of the image subjected to LPF in step S903, and generates an image having the same effect as the panning as a whole. Generate. When the image processing unit 106 completes image generation, the control unit 103 advances the process to step S817.

ここで、S902におけるLPF処理に用いるタップ数の算出処理について、図10乃至図13を参照して詳細に説明する。   Here, the calculation processing of the number of taps used for the LPF processing in S902 will be described in detail with reference to FIGS.

一般的な流し撮りは、1回の露光で撮影するため、背景は連続的に流れるように変化する。このため、図10に示す画像1001と画像1002における背景1003の変化は、画像1004の背景のように連続的に流れるように変化することが望ましい。しかし、画像1001と画像1002を合成すると背景1005のようになり、連続的に流れるように変化したものにならない。このため、背景のギャップ部分1006における背景1003の不足画素を補って画像1004の背景のような表現にする必要がある。   Since general panning is performed with one exposure, the background changes so as to flow continuously. For this reason, it is desirable that the change of the background 1003 in the image 1001 and the image 1002 illustrated in FIG. 10 changes so as to continuously flow like the background of the image 1004. However, when the image 1001 and the image 1002 are combined, a background 1005 is obtained, and the image does not change so as to continuously flow. For this reason, it is necessary to compensate for the insufficient pixels of the background 1003 in the gap portion 1006 of the background so that the background of the image 1004 is expressed.

本実施形態では、S801において設定された相当シャッター速度の画像を生成するために、フレームレートと合成枚数の関係を用いる。例えば、60fpsで画像を撮影した場合、相当シャッター速度が0秒〜1/60秒に設定された場合は1枚の画像から、1/30秒に設定された場合は2枚の画像から合成することにより流し量を表現する。本実施形態において、相当シャッター速度として1/10秒、フレームレートを60fpsとした場合、6枚の連続する画像が合成に用いられることとなる。   In the present embodiment, the relationship between the frame rate and the number of combined images is used to generate an image with the equivalent shutter speed set in S801. For example, when an image is taken at 60 fps, the image is synthesized from one image when the corresponding shutter speed is set to 0 to 1/60 seconds, and from two images when the corresponding shutter speed is set to 1/30 seconds. This expresses the amount of sink. In the present embodiment, when the equivalent shutter speed is 1/10 seconds and the frame rate is 60 fps, six consecutive images are used for composition.

図11(a)には、各ブロックを画像上の1画素として、背景1003の画像上の位置が、撮影ごとに順に画素1101、1102、1103と変化する様子を示している。撮影画像ごとに背景1003の位置が離散的に表れるため、画素1101と1102の間の画素群1104、画素1102と1103の間の画素群1105を補間する必要がある。また、設定された相当シャッター速度で実際に撮影した場合は、1103と1106の間も背景は流れるため、1103と1106の間の画素群1107も補間する必要がある。図11(b)〜(d)はそれぞれ1101〜1103に背景1003が現れたタイミングで撮影された画像と補間すべき区間が示されている。   FIG. 11A shows a state where the position of the background 1003 on the image changes from the pixels 1101, 1102, and 1103 in order for each shooting, with each block as one pixel on the image. Since the position of the background 1003 appears discretely for each captured image, it is necessary to interpolate the pixel group 1104 between the pixels 1101 and 1102 and the pixel group 1105 between the pixels 1102 and 1103. In addition, since the background flows between 1103 and 1106 when the image is actually shot at the set equivalent shutter speed, the pixel group 1107 between 1103 and 1106 must also be interpolated. FIGS. 11B to 11D show images captured at the timing when the background 1003 appears in 1101 to 1103 and sections to be interpolated.

本実施形態では、複数撮影した画像を合成した後に、合成した画像に対して画素群1104(あるいは、1105、1107)の幅をタップ数とするLPF処理を適用し、全体的な流し量を画素幅1108とする合成画像を生成する。生成される合成画像の流し量は図11(e)に示すようになる。   In this embodiment, after combining a plurality of captured images, an LPF process using the width of the pixel group 1104 (or 1105, 1107) as the number of taps is applied to the combined image, and the overall flow amount is determined as a pixel. A composite image having a width 1108 is generated. The flow amount of the generated composite image is as shown in FIG.

画素群1104の幅に相当するタップ数を算出するため、撮影した画像間における画素の移動量を求める。以下では、画像間における画素の移動量をデジタルカメラ100の角速度を用いて算出する方法について図13を参照して説明する。   In order to calculate the number of taps corresponding to the width of the pixel group 1104, the amount of pixel movement between the captured images is obtained. Hereinafter, a method for calculating the amount of movement of pixels between images using the angular velocity of the digital camera 100 will be described with reference to FIG.

図13は、中心点1306を中心にデジタルカメラ100が1301に示す方向にパンニングして背景の被写体1302を撮影する様子と中心点1306を主点とした場合の像面における被写体像の移動を重ね合わせて表示している。   FIG. 13 shows a state in which the digital camera 100 pans in the direction indicated by reference numeral 1301 around the center point 1306 to photograph the background subject 1302 and movement of the subject image on the image plane when the center point 1306 is the main point. Displayed together.

式11は、デジタルカメラ100が1303の角度でパンニングした場合に変化する被写体1302の画像間における移動量に基づいてLPFのタップ数を算出する式である。   Expression 11 is an expression for calculating the number of taps of the LPF based on the amount of movement between images of the subject 1302 that changes when the digital camera 100 pans at an angle of 1303.

まず、画像処理部106は、デジタルカメラ100の画像間における回転角度1303[rad]と焦点距離1304[mm]から、撮像素子102における像面上の移動量1305[pixel]を算出する。このとき、デジタルカメラ100の画像間における回転角度1303は、デジタルカメラ100の平均角速度[rad/sec]とフレームレート[frame/sec]から算出する。そして、画素ピッチ[mm/pixel]を用いて、撮像素子102面上の移動量1305を画像上の移動量に変換したものを、LPF処理に用いるタップ数として扱う。上述の式から得られたタップ数でLPF処理を施した画像をさらに、ユーザが任意に設定した相当シャッター速度に応じて複数枚合成することにより、相当シャッター速度に対応した流し量を再現することができる。   First, the image processing unit 106 calculates a movement amount 1305 [pixel] on the image plane of the image sensor 102 from the rotation angle 1303 [rad] and the focal length 1304 [mm] between the images of the digital camera 100. At this time, the rotation angle 1303 between the images of the digital camera 100 is calculated from the average angular velocity [rad / sec] and the frame rate [frame / sec] of the digital camera 100. Then, using the pixel pitch [mm / pixel], the amount of movement 1305 on the surface of the image sensor 102 converted into the amount of movement on the image is handled as the number of taps used for LPF processing. Reproducing the flow amount corresponding to the equivalent shutter speed by further combining a plurality of images subjected to LPF processing with the number of taps obtained from the above formula according to the equivalent shutter speed arbitrarily set by the user Can do.

次に、S903において適用するLPF処理の詳細を、図14を参照して説明する。   Next, the details of the LPF processing applied in S903 will be described with reference to FIG.

図14において画像1401および1402は連続して撮影された画像であり、移動する主被写体1403をパンニングしながら撮影した画像である。上述したS813における主被写体認識を行うことにより被写体領域が分離される。例えば、被写体領域を表す情報1404は、主被写体領域を白、その他の領域を黒で表している。主被写体認識により主被写体と背景の境界で正確に分離できる場合、S904の画像合成において、LPFを適用した後の画像(即ち、背景領域の画素)に主被写体領域の画素が影響を及ぼすことはほとんどない。このため、主被写体領域を除いた領域のみに対してタップ内の係数が均一なLPFを適用した画像を背景画像1405とする。   In FIG. 14, images 1401 and 1402 are images taken continuously, and are images taken while panning the moving main subject 1403. The subject area is separated by performing the main subject recognition in S813 described above. For example, the information 1404 representing the subject area represents the main subject area in white and the other areas in black. If the main subject recognition enables accurate separation at the boundary between the main subject and the background, in the image composition in S904, the pixels in the main subject region affect the image after applying the LPF (that is, the pixels in the background region). rare. For this reason, an image obtained by applying an LPF with a uniform coefficient in the tap to only the area excluding the main subject area is referred to as a background image 1405.

最後に、S904においては、主被写体画像1406の主被写体領域と背景画像1405の主被写体領域を除いた領域を合成する。   Finally, in S904, the main subject area of the main subject image 1406 and the area excluding the main subject area of the background image 1405 are combined.

ところで、上述の合成処理では、主被写体が正確に抽出できている場合は主被写体の周囲に残像がほとんど発生しない利点がある一方、主被写体が正確に抽出できていない場合は、主被写体と背景の境界に違和感のある画像が生成される場合がある。   By the way, in the above synthesis process, there is an advantage that almost no afterimage is generated around the main subject when the main subject can be accurately extracted, while when the main subject cannot be extracted accurately, the main subject and the background can be obtained. In some cases, an image with a sense of incongruity is generated at the boundary.

一般的に、主被写体と背景の境界を正確に分離することが困難となる様々な場合が存在する。例えば、主被写体と背景の境界にコントラスト差がほとんどない場合は、背景まで主被写体領域として抽出されてしまう可能性や、主被写体の一部が背景領域に分類されてしまう可能性がある。   In general, there are various cases where it is difficult to accurately separate the boundary between the main subject and the background. For example, when there is almost no difference in contrast between the boundary between the main subject and the background, the background may be extracted as the main subject region, or a part of the main subject may be classified as the background region.

このため、主被写体が正確に抽出できていない場合に対して、主被写体画像1406と背景画像1407の境界を滑らかに変化させた合成画像を生成する処理を行う。まず、背景画像1407を生成する。具体的には、S202またはS805において取得したデジタルカメラ100のパンニング角速度を用いて、画像全体としてパンニング方向と移動量の大きさを検出する。そして、主被写体領域を除いた画像を生成したうえで、当該主被写体領域を背景の画素を用いて補間する処理を行う。具体的には、主被写体領域の周辺の画素に対して、上述のパンニング方向と大きさを適用することにより、主被写体領域を補間する。このようにすることで、主被写体領域であった領域を、背景を構成した画素で埋めた背景画像1407を生成することができる。さらに、主被写体領域の主被写体と背景の境界に対して平滑化処理を行い、被写体領域を示す情報1408に示すように主被写体領域の主被写体と背景の境界をぼかしたうえで、主被写体領域の画素値の重み付け加算を行い、主被写体画像と背景画像を合成する。   For this reason, when the main subject cannot be accurately extracted, a process of generating a composite image in which the boundary between the main subject image 1406 and the background image 1407 is smoothly changed is performed. First, a background image 1407 is generated. Specifically, using the panning angular velocity of the digital camera 100 acquired in S202 or S805, the panning direction and the amount of movement are detected for the entire image. Then, after generating an image excluding the main subject area, the main subject area is interpolated using background pixels. Specifically, the main subject region is interpolated by applying the above-described panning direction and size to pixels around the main subject region. In this way, it is possible to generate a background image 1407 in which the region that was the main subject region is filled with the pixels constituting the background. Further, smoothing processing is performed on the boundary between the main subject and the background in the main subject area, and the boundary between the main subject and the background in the main subject area is blurred as shown in the information 1408 indicating the subject area. Is added to the main subject image and the background image.

このようにすれば主被写体と背景の境界が徐々に変化するため、主被写体が正確に抽出できていない場合であっても、違和感の少なく滑らかに合成した画像を生成することができる。なお、主被写体画像1406および背景画像1407の境界の境界に対する平滑化処理に代えて画像の縮小拡大による解像度低下と同様の処理によって境界をぼかすようにしてもよい。   In this way, the boundary between the main subject and the background gradually changes, so that even if the main subject has not been accurately extracted, it is possible to generate an image that is smoothly synthesized with little discomfort. Note that the boundary may be blurred by a process similar to a resolution reduction due to image reduction / enlargement instead of the smoothing process for the boundary between the main subject image 1406 and the background image 1407.

さらに上述した合成方法では対応が難しい場合があり得る。例えば、主被写体自体が低コントラストな場合、被写体領域の認識精度が下がり、主被写体領域に中抜け1409のような状態が発生する可能性がある。   Furthermore, it may be difficult to cope with the above-described synthesis method. For example, when the main subject itself has a low contrast, the recognition accuracy of the subject region is lowered, and a state such as a hollow 1409 may occur in the main subject region.

このため、まず1410のように、主被写体領域の主被写体と背景の境界に平滑化処理を行って、中抜けの影響を軽減させる。そして、式12のような主被写体領域の画素値を係数としたLPFを画像全体に適用することで、画像全体をぼかしつつ、主被写体領域の画素が周囲へ広まりにくいようにした背景画像1411を作成する。   For this reason, first, as in 1410, smoothing processing is performed on the boundary between the main subject and the background in the main subject region to reduce the influence of the void. Then, by applying an LPF with the pixel value of the main subject area as a coefficient as shown in Expression 12 to the entire image, a background image 1411 in which the pixels of the main subject area are difficult to spread around while blurring the entire image. create.

このときS904において制御部103は、主被写体領域1410の画素値に重み付け加算により主被写体画像1406と背景画像1411を合成し、流し撮り画像1412を生成する。   At this time, in step S <b> 904, the control unit 103 combines the main subject image 1406 and the background image 1411 by weighted addition to the pixel value of the main subject area 1410 to generate a panning image 1412.

このようにすることで、主被写体領域の画素が周囲へ広がることを抑制するだけではなく、主被写体において中抜けが発生するような場合にも中抜けの影響を軽減することができる。主被写体領域として認識された周囲の画素があまり用いられなくなるため、低コントラストな領域の画素をぼかしたような画像となり、目立ちにくい。さらに、主被写体画像と合成することで、より目立たなくなる。   In this way, not only can the pixels in the main subject area be prevented from spreading to the surroundings, but also the effects of the voids can be reduced when voids occur in the main subject. Since the surrounding pixels recognized as the main subject area are not used much, the image in which the pixels in the low contrast area are blurred is hardly noticeable. Furthermore, it becomes less noticeable by combining with the main subject image.

なお、本実施形態では、LPFのタップ数を算出する際の画素の移動量を求めるためにデジタルカメラ100の角速度を用いた。しかし、図12に示すように画像間で求めた移動ベクトルの長さを用いてもよい。より具体的には、連続する2枚の画像1201および画像1202が撮影されている場合に、画像内に設けた探索用ブロックの画像間における対応を求めることにより2画像の間における背景1203の移動ベクトル1204を算出する。この算出した移動ベクトルの長さをLPFのタップ数としてもよい。   In the present embodiment, the angular velocity of the digital camera 100 is used to determine the amount of pixel movement when calculating the number of taps of the LPF. However, the length of the movement vector obtained between images may be used as shown in FIG. More specifically, when two consecutive images 1201 and 1202 are captured, the background 1203 is moved between the two images by determining the correspondence between the search blocks provided in the images. A vector 1204 is calculated. The calculated length of the movement vector may be the number of LPF taps.

以上説明したように本実施形態では、被写体の移動に対する補正角度がシフトレンズによる補正可能角度を超える場合、設定フレームレートで撮影した短秒の複数の画像を合成し、背景に対して平滑化を行って背景の流れを表現した画像を生成した。このようにすることで、実施形態1と同様に撮像装置と被写体の移動速度の差が光学系の補正によって補正可能な範囲を超える場合であっても、流し撮りを有効に支援できる。また、露出時間が短くぶれのない画像を用いて合成するため、一般的な流し撮りでは撮影が難しいような低速のシャッター速度に相当する表現においてぶれの少ない主被写体を表現した流し撮り画像が得られる。さらに、主被写体に対する位置合わせにより画像と合成することで、光学補正を必要とすることなく流し撮り画像を生成することができる。   As described above, in this embodiment, when the correction angle with respect to the movement of the subject exceeds the angle that can be corrected by the shift lens, a plurality of short-second images captured at the set frame rate are combined and smoothed against the background. I went and generated an image that represented the flow of the background. By doing so, even when the difference in moving speed between the imaging apparatus and the subject exceeds the range that can be corrected by the correction of the optical system as in the first embodiment, the panning can be effectively supported. Also, since the exposure time is short and it is combined using a blur-free image, a panoramic image representing the main subject with little blur is obtained in an expression equivalent to a low-speed shutter speed that is difficult to shoot with general panning. It is done. Furthermore, by synthesizing with the image by positioning with respect to the main subject, a panning image can be generated without requiring optical correction.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101…光学系、102…撮像素子、103…制御部、105…角速度センサ、106…画像処理部 DESCRIPTION OF SYMBOLS 101 ... Optical system, 102 ... Image sensor, 103 ... Control part, 105 ... Angular velocity sensor, 106 ... Image processing part

Claims (18)

撮像装置を移動させながら、移動する被写体を撮影するための撮影モードを有する撮像装置であって、
前記撮影モードにおいて、前記撮像装置と前記被写体との速度差を検出する検出手段と、
前記検出した速度差が、前記撮像装置の光学系の補正によって補正可能な範囲を超えていると判定される場合、前記補正可能な範囲内での複数回の撮影を行うための撮影条件を設定する設定手段と、
前記撮影条件に従った複数回の撮影で得られた複数の画像を用いた合成画像を生成する合成手段と、
を有することを特徴とする撮像装置。
An imaging apparatus having a shooting mode for shooting a moving subject while moving the imaging apparatus,
Detecting means for detecting a speed difference between the imaging device and the subject in the photographing mode;
When it is determined that the detected speed difference exceeds a range that can be corrected by correction of the optical system of the imaging device, shooting conditions for performing multiple shootings within the correctable range are set. Setting means to
Combining means for generating a combined image using a plurality of images obtained by shooting a plurality of times according to the shooting conditions;
An imaging device comprising:
前記設定手段は、予め設定されている前記撮影モードのための露光時間と前記検出した速度差とから得られる速度が、前記撮像装置の光学系の補正によって補正可能な速度を超える場合、前記検出した速度差が、前記撮像装置の光学系の補正によって補正可能な範囲を超えていると判定することを特徴とする請求項1記載の撮像装置。   When the speed obtained from the preset exposure time for the shooting mode and the detected speed difference exceeds a speed that can be corrected by correcting the optical system of the imaging apparatus, the setting means The imaging apparatus according to claim 1, wherein the determined speed difference exceeds a range that can be corrected by correcting an optical system of the imaging apparatus. 前記設定手段は、前記検出した速度差が、前記撮像装置の光学系の補正によって補正可能な範囲を超えていると判定される場合、前記複数回の撮影の露光時間の合計が、前記撮影モードのための露光時間と同等になるように、前記撮影条件を設定することを特徴とする請求項1または請求項2に記載の撮像装置。   In the case where it is determined that the detected speed difference exceeds a range that can be corrected by correction of the optical system of the imaging apparatus, the setting means determines that the total exposure time of the plurality of shootings is the shooting mode. The imaging apparatus according to claim 1, wherein the imaging condition is set so as to be equal to an exposure time for the imaging. 前記設定手段は、前記検出した速度差と、前記撮像装置の光学系の補正によって補正可能な範囲とから得られる、前記撮像装置の光学系の補正によって補正可能な範囲で撮影するための露光時間に基づいて、前記撮影条件を設定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The setting means is an exposure time for photographing within a range that can be corrected by correction of the optical system of the imaging device, obtained from the detected speed difference and a range that can be corrected by correction of the optical system of the imaging device. The imaging apparatus according to any one of claims 1 to 3, wherein the imaging condition is set based on the information. 前記光学系の補正が、前記光学系の光軸と、前記撮像装置が有する撮像素子との相対位置の補正であることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein the correction of the optical system is correction of a relative position between an optical axis of the optical system and an imaging element included in the imaging apparatus. . 前記光学系の補正が、手振れ補正機構を用いて行われることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the optical system is corrected using a camera shake correction mechanism. 撮像装置を移動させながら、移動する被写体を撮影するための撮影モードを有する撮像装置であって、
前記撮像装置と前記被写体との移動速度の差による、撮影画像における前記被写体のブレを補正するための第1の補正量を算出する算出手段と、
前記第1の補正量が、撮像面に対する前記被写体の結像位置を制御することにより補正できる第2の補正量より大きい場合、前記第2の補正量の範囲で複数回の撮影を行って前記第1の補正量を実現するための撮影条件を設定する設定手段と、
前記撮影条件により撮影された複数の画像を用いた合成画像を生成する合成手段と、
を有することを特徴とする撮像装置。
An imaging apparatus having a shooting mode for shooting a moving subject while moving the imaging apparatus,
Calculating means for calculating a first correction amount for correcting blurring of the subject in a captured image due to a difference in moving speed between the imaging device and the subject;
When the first correction amount is larger than a second correction amount that can be corrected by controlling the imaging position of the subject with respect to the imaging surface, a plurality of shootings are performed within the range of the second correction amount, and Setting means for setting shooting conditions for realizing the first correction amount;
Combining means for generating a combined image using a plurality of images shot under the shooting conditions;
An imaging device comprising:
前記設定手段は、前記第1の補正量が前記第2の補正量より大きい場合、前記複数回の撮影のそれぞれの露光時間を、前記第1の補正量を得るために必要な露光時間に基づいて設定することを特徴とする請求項7に記載の撮像装置。   When the first correction amount is larger than the second correction amount, the setting means determines an exposure time for each of the plurality of shootings based on an exposure time necessary to obtain the first correction amount. The imaging device according to claim 7, wherein the imaging device is set. 前記設定手段は、前記第1の補正量が前記第2の補正量より大きい場合、前記複数回の撮影のそれぞれの露光時間が、前記第2の補正量を得るための時間を下回るように設定することを特徴とする請求項7または請求項8に記載の撮像装置。   When the first correction amount is larger than the second correction amount, the setting means sets the exposure time of each of the plurality of shootings to be less than the time for obtaining the second correction amount. The imaging apparatus according to claim 7 or 8, wherein 前記設定手段は、前記第1の補正量が前記第2の補正量より大きい場合、前記複数回の撮影のそれぞれの露光時間の合計が、前記第1の補正量を得るための時間となるように、前記複数回の撮影のそれぞれの露光時間を設定することを特徴とする請求項9に記載の撮像装置。   When the first correction amount is larger than the second correction amount, the setting means is configured such that the sum of the exposure times of the plurality of photographings becomes a time for obtaining the first correction amount. The imaging apparatus according to claim 9, wherein an exposure time for each of the plurality of times of shooting is set. 前記第2の補正量は、光学系を駆動して撮像面に対する被写体の結像位置を制御することにより補正できる最大の補正量であることを特徴とする請求項7乃至10のいずれか1項に記載の撮像装置。   11. The second correction amount is a maximum correction amount that can be corrected by driving an optical system to control an imaging position of a subject with respect to an imaging surface. The imaging device described in 1. 前記合成手段は、前記被写体の背景が、前記被写体の移動方向に流れた合成画像を生成することを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the synthesizing unit generates a synthesized image in which a background of the subject flows in a moving direction of the subject. 前記合成手段は、前記複数の画像のうち少なくともいずれかの画像データに対して前記被写体の背景を前記被写体の移動方向に平滑化した画像を生成し、該画像を用いて合成した前記合成画像を生成することを特徴とする請求項1乃至12のいずれか1項に記載の撮像装置。   The synthesizing unit generates an image obtained by smoothing the background of the subject in the moving direction of the subject with respect to at least one of the plurality of images, and the synthesized image synthesized using the image is generated. The imaging device according to claim 1, wherein the imaging device is generated. 前記合成手段は、前記複数回の撮影に必要な露光時間と撮影するフレームレートから算出した合成枚数の前記複数の画像を合成した前記合成画像を生成することを特徴とする請求項1または請求項7に記載の撮像装置。   2. The composite image according to claim 1, wherein the composite unit generates the composite image by combining the plurality of images calculated from the exposure time necessary for the plurality of shootings and a frame rate for shooting. 8. The imaging device according to 7. 前記合成手段は、前記撮像装置の移動速度と焦点距離の関係から求めた前記被写体の背景の画像上の移動量で、前記被写体の背景を平滑化した画像を生成し、該画像を用いて合成した前記合成画像を生成することを特徴とする請求項14に記載の撮像装置。   The synthesizing unit generates an image obtained by smoothing the background of the subject with the amount of movement on the background image of the subject obtained from the relationship between the moving speed of the imaging device and the focal length, and synthesizes the image using the image. The imaging apparatus according to claim 14, wherein the composite image is generated. 撮像装置を移動させながら、移動する被写体を撮影するための撮影モードを有する撮像装置の制御方法であって、
検出手段と、前記撮影モードにおいて、前記撮像装置と前記被写体との速度差を検出する検出工程と、
設定手段が、前記検出した速度差が、前記撮像装置の光学系の補正によって補正可能な範囲を超えていると判定される場合、前記補正可能な範囲内での複数回の撮影を行うための撮影条件を設定する設定工程と、
合成手段が、前記撮影条件に従った複数回の撮影で得られた複数の画像を用いた合成画像を生成する合成工程と、
を有することを特徴とする撮像装置の制御方法。
A method of controlling an imaging apparatus having a shooting mode for shooting a moving subject while moving the imaging apparatus,
A detecting step for detecting a speed difference between the imaging device and the subject in the photographing mode;
When the setting means determines that the detected speed difference exceeds a range that can be corrected by correction of the optical system of the imaging apparatus, the setting unit is configured to perform shooting a plurality of times within the correctable range. A setting process for setting shooting conditions;
A combining step for generating a combined image using a plurality of images obtained by a plurality of shootings according to the shooting conditions;
A method for controlling an imaging apparatus, comprising:
撮像装置を移動させながら、移動する被写体を撮影するための撮影モードを有する撮像装置の制御方法であって、
算出手段が、前記撮像装置と前記被写体との移動速度の差による、撮影画像における前記被写体のブレを補正するための第1の補正量を算出する算出工程と、
設定手段が、前記第1の補正量が、撮像面に対する前記被写体の結像位置を制御することにより補正できる第2の補正量より大きい場合、前記第2の補正量の範囲で複数回の撮影を行って前記第1の補正量を実現するための撮影条件を設定する設定工程と、
合成手段が、前記撮影条件により撮影された複数の画像を用いた合成画像を生成する合成工程と、
を有することを特徴とする撮像装置の制御方法。
A method of controlling an imaging apparatus having a shooting mode for shooting a moving subject while moving the imaging apparatus,
A calculating step for calculating a first correction amount for correcting blurring of the subject in the captured image due to a difference in moving speed between the imaging device and the subject;
When the setting unit is larger than the second correction amount that can be corrected by controlling the imaging position of the subject with respect to the imaging surface, the first correction amount is shot a plurality of times within the range of the second correction amount. Performing a setting step for setting a photographing condition for realizing the first correction amount;
A combining step of generating a combined image using a plurality of images shot by the shooting condition;
A method for controlling an imaging apparatus, comprising:
コンピュータを、請求項1乃至15のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device of any one of Claims 1 thru | or 15.
JP2014119109A 2014-06-09 2014-06-09 Imaging apparatus, control method thereof, and program Pending JP2015233211A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014119109A JP2015233211A (en) 2014-06-09 2014-06-09 Imaging apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014119109A JP2015233211A (en) 2014-06-09 2014-06-09 Imaging apparatus, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2015233211A true JP2015233211A (en) 2015-12-24

Family

ID=54934437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014119109A Pending JP2015233211A (en) 2014-06-09 2014-06-09 Imaging apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2015233211A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212698A (en) * 2016-05-27 2017-11-30 キヤノン株式会社 Imaging apparatus, control method for imaging apparatus, and program
CN107800956A (en) * 2016-08-30 2018-03-13 佳能株式会社 Picture pick-up device, control method and storage medium
JP2018060126A (en) * 2016-10-07 2018-04-12 キヤノン株式会社 Image blur correction device, control method of the same and imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212698A (en) * 2016-05-27 2017-11-30 キヤノン株式会社 Imaging apparatus, control method for imaging apparatus, and program
CN107800956A (en) * 2016-08-30 2018-03-13 佳能株式会社 Picture pick-up device, control method and storage medium
CN107800956B (en) * 2016-08-30 2020-11-13 佳能株式会社 Image pickup apparatus, control method, and storage medium
JP2018060126A (en) * 2016-10-07 2018-04-12 キヤノン株式会社 Image blur correction device, control method of the same and imaging apparatus

Similar Documents

Publication Publication Date Title
JP5409189B2 (en) Imaging apparatus and control method thereof
JP6512810B2 (en) Image pickup apparatus, control method and program
JP2007074031A (en) Imaging device, and image processing apparatus and method therefor
JP6045254B2 (en) Image processing apparatus, control method thereof, and control program
US10194085B2 (en) Image pickup apparatus and its control method
JP2006086933A (en) Imaging device and control method
JP2016143022A (en) Imaging device and imaging method
JP2019029998A (en) Imaging apparatus, control method of imaging apparatus and control program
JP6261205B2 (en) Image processing device
JP6932531B2 (en) Image blur correction device, image pickup device, control method of image pickup device
US10979620B2 (en) Image processing apparatus for providing information for focus adjustment, control method of the same, and storage medium
JP6188474B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium
JP6056551B2 (en) Image processing program and digital camera
JP2015204470A (en) Imaging apparatus, control method thereof, and program
JP2006080844A (en) Electronic camera
JP2012080204A (en) Image processing device and method, and program
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP2013110754A (en) Camera device, and photographing method and program of the same
JP7169773B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP2010193324A (en) Camera apparatus, photographing method thereof and program
JP2017161649A (en) Image shake correction device and method of controlling image shake correction device, program, and storage medium
JP6746473B2 (en) Imaging device and control method
JP6858065B2 (en) Imaging device and its control method
JP2016032180A (en) Imaging apparatus, control method and program
JP6234103B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium