JP2017183983A - Imaging apparatus, control method and control program of the same - Google Patents

Imaging apparatus, control method and control program of the same Download PDF

Info

Publication number
JP2017183983A
JP2017183983A JP2016067694A JP2016067694A JP2017183983A JP 2017183983 A JP2017183983 A JP 2017183983A JP 2016067694 A JP2016067694 A JP 2016067694A JP 2016067694 A JP2016067694 A JP 2016067694A JP 2017183983 A JP2017183983 A JP 2017183983A
Authority
JP
Japan
Prior art keywords
image
view
angle
change
overall control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016067694A
Other languages
Japanese (ja)
Inventor
典央 根岸
Norihisa Negishi
典央 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016067694A priority Critical patent/JP2017183983A/en
Publication of JP2017183983A publication Critical patent/JP2017183983A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily adjust an angle-of-view of even a subject which needs imaging with long second exposure and high magnification like a celestial body.SOLUTION: A camera 300 consecutively displays, on a display part 311, images obtained by imaging a subject such as a celestial body. At this time, a motion detection part 316 detects a motion of the camera and when the motion detection part detects the motion of the camera, an entire control arithmetic part 309 displays on the display part the image obtained on the basis of a frame before a frame where the motion is detected.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、撮像装置に備えられた撮像素子の駆動に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly, to driving of an imaging element provided in the imaging apparatus.

近年、デジタルカメラなどの撮像装置では、撮像素子の高感度化および低ノイズ化によって、高ISO感度および長時間露出(長秒露光)の設定が可能となっている。このため、ユーザの写真撮影の技術が高くなくても、夜景又は夜空などの高感度でかつ長秒露光が必要なシーンにおける撮影を比較的容易に行うことができる。   In recent years, in an imaging apparatus such as a digital camera, high ISO sensitivity and long exposure (long-second exposure) can be set by increasing sensitivity and reducing noise of an image sensor. For this reason, even if the user's photography technique is not high, it is possible to relatively easily perform shooting in a scene that requires high-sensitivity and long-second exposure such as a night view or night sky.

例えば、画角を変更するためにパンニング動作が行われると、感度を上げるとともに、フレームレートを高くしてかつ露光時間を短くするようにした撮像装置がある(特許文献1参照)。これによって、この撮像装置では、画像のぶれを少なくしてぶれによる影響が抑制された連続画像を得るようにしている。   For example, when a panning operation is performed to change the angle of view, there is an imaging device that increases sensitivity, increases the frame rate, and shortens the exposure time (see Patent Document 1). As a result, in this imaging apparatus, image blur is reduced to obtain a continuous image in which the influence of the blur is suppressed.

特開2008−92047号公報JP 2008-92047 A

ところが、たとえ、フレームレートを下げたとしても、暗いシーンにおいて天体のように非常に小さく暗い被写体を撮影するとなると、被写体自体を所望の画角に捕えることは極めて困難である。   However, even if the frame rate is lowered, it is extremely difficult to capture the subject itself at a desired angle of view when photographing a very small and dark subject such as an astronomical object in a dark scene.

通常、撮影を行う際には、カメラに備えられた光学ファインダー又は表示モニタ部を目視しつつ画角を合わせる。天体などように被写体輝度が低く、その大きさが小さい場合には、肉眼で見える明るさでなければ、光学ファインダーによって天体などを捕えることはできない。   Usually, when taking a picture, the angle of view is adjusted while viewing an optical viewfinder or a display monitor provided in the camera. When the subject brightness is low, such as a celestial body, and its size is small, the celestial body cannot be captured by the optical viewfinder unless the brightness is visible to the naked eye.

また、表示モニタ部を用いた場合には、露光時間を長くすれば、天体をライブビューとして表示させることは可能である。ところが、画角合わせのためのカメラパンニング動作を行うと、露光時間が長いため被写体である天体の位置が動いて露光量が不足する。この結果、天体を画像として表示することができず、画角合わせが困難となる。   When the display monitor unit is used, it is possible to display the celestial body as a live view if the exposure time is increased. However, when a camera panning operation for adjusting the angle of view is performed, the exposure time is long, and the position of the celestial body that is the subject moves, so that the exposure amount is insufficient. As a result, the celestial body cannot be displayed as an image, making it difficult to adjust the angle of view.

言い替えると、感度を上げて露光時間を短くすれば、画像のぶれを抑えることはできる。一方、夜景又は夜空のようなシーンでは既に感度を上げた状態であり、露光時間も長い。このため、さらに感度を上げて撮影を行うと画像にはノイズが多くなってライブビュー画像として用いることは困難である。特に、天体のような点状の被写体ではより画質が極めて悪くなってしまう。   In other words, image blurring can be suppressed by increasing the sensitivity and shortening the exposure time. On the other hand, in a scene such as a night view or night sky, the sensitivity is already increased and the exposure time is long. For this reason, when shooting with higher sensitivity, the image is noisy and difficult to use as a live view image. In particular, the image quality becomes extremely worse for a point-like subject such as a celestial body.

従って、本発明の目的は、天体のように長秒露光でかつ高倍率で撮影する必要がある被写体においても容易に画角合わせを行うことができる撮像装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide an imaging apparatus capable of easily adjusting the angle of view even for a subject that needs to be photographed at a high magnification with a long exposure such as an astronomical object, a control method thereof, and a control program. There is to do.

上記の目的を達成するため、本発明による撮像装置は、被写体を撮像して得られた画像を連続的に表示部に表示する撮像装置であって、前記撮像装置の画角の変化を検知する検知手段と、前記被写体を撮像する際に、前記検知手段によって前記画角の変化が検知されると、前記画角の変化が検知されたフレームよりも前のフレームの画像を前記表示部に表示する制御手段と、を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus that continuously displays images obtained by imaging a subject on a display unit, and detects a change in the angle of view of the imaging apparatus. When a change in the angle of view is detected by the detection means and the detection means when imaging the subject, an image of a frame before the frame in which the change in the angle of view is detected is displayed on the display unit. And a control means.

本発明によれば、天体のように長秒露光でかつ高倍率で撮影する必要がある被写体においても容易に画角合わせを行うことができる。   According to the present invention, it is possible to easily perform angle-of-view adjustment even on a subject such as a celestial body that needs to be photographed at a high magnification with long exposure.

本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus according to a first embodiment of the present invention. 図1に示すカメラで行われるライブビュー表示の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of live view display performed by the camera shown in FIG. 1. 図2に示す表示モード1における処理を説明するためのフローチャートである。FIG. 3 is a flowchart for explaining processing in display mode 1 shown in FIG. 2. FIG. 図2に示す表示モード2における処理を説明するためのフローチャートである。3 is a flowchart for explaining processing in display mode 2 shown in FIG. 2. 図3に示す動き検出に係る処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which concerns on the motion detection shown in FIG. 図1に示すカメラにおいてパンニング動作が行われた際の表示画像の一例を示す図である。It is a figure which shows an example of the display image when panning operation | movement is performed in the camera shown in FIG. パンニング動作が行われた場合に分割露光で得られた表示画像の一例を示す図である。It is a figure which shows an example of the display image obtained by the division | segmentation exposure when panning operation | movement is performed. 図7に示す表示画像を得た際のパンニング動作と露光タイミングとの関係を示す図である。It is a figure which shows the relationship between the panning operation | movement at the time of obtaining the display image shown in FIG. 7, and exposure timing. 本発明の第2の実施形態で行われる表示モード1に係る処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process which concerns on the display mode 1 performed in the 2nd Embodiment of this invention. 図9に示す加算合成処理を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining an addition synthesis process shown in FIG. 9. FIG. 本発明の第2の実施形態によるカメラで行われる画像領域の加算数を説明するための図であり、(a)は画像領域の設定を示す図、(b)は領域数加算マップを示す図である。It is a figure for demonstrating the addition number of the image area | region performed with the camera by the 2nd Embodiment of this invention, (a) is a figure which shows the setting of an image area, (b) is a figure which shows a region number addition map It is. 本発明の第2の実施形態によるカメラで得られた画像のライブビュー表示の一例を示す図である。It is a figure which shows an example of the live view display of the image obtained with the camera by the 2nd Embodiment of this invention. カメラのパンニング動作を行った際の被写体と画角との関係を示す図である。It is a figure which shows the relationship between a to-be-photographed object and an angle of view at the time of performing the panning operation | movement of a camera. カメラのパンニング動作と露光タイミングとの関係を示す図である。It is a figure which shows the relationship between the panning operation | movement of a camera, and exposure timing.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

まず、本発明の実施の形態による撮像装置について説明する前に、パンニング動作を行った際の被写体と画角との関係および露光タイミングについて説明する。   First, before describing the imaging apparatus according to the embodiment of the present invention, the relationship between the subject and the angle of view and the exposure timing when the panning operation is performed will be described.

図13は、カメラのパンニング動作を行った際の被写体と画角との関係を示す図である。   FIG. 13 is a diagram illustrating the relationship between the subject and the angle of view when the panning operation of the camera is performed.

画像800において、被写体として星空を捕らえた際の画角が示されている。いま、撮影者が画角801から画角802に画角を変更するとする。なお、図示の例では、画角801および画角802の双方に共通する画角を画角803とする。画角801の状態において、カメラが静止している際にはライブビューとして画像811で示す天体が表示モニタに表示される。   In the image 800, an angle of view when a starry sky is captured as a subject is shown. Assume that the photographer changes the angle of view from the angle of view 801 to the angle of view 802. In the illustrated example, an angle of view common to both the angle of view 801 and the angle of view 802 is an angle of view 803. When the camera is at rest with the angle of view 801, a celestial body indicated by an image 811 is displayed on the display monitor as a live view.

この状態から画角802に撮影者がカメラのパンニング動作を行ったとする。前述のように、天体をライブビュー表示させる際には、1枚の画像を得るため十分な露光時間を必要とする。このため、最終的な画角802においてカメラ静止の際の表示画像が画像814であった場合に、パンニング動作途中の画像である画像812および画像813では十分な露光量を得ることができない。その結果、天体を画像として表示することが困難となる。つまり、本来画角合わせのためのパンニング動作であるにも拘わらず、撮影者には肝心の被写体が見えないので、結果的に画角合わせをすることが困難となってしまう。   Assume that the photographer performs a panning operation of the camera at this angle of view 802 from this state. As described above, when a celestial body is displayed in live view, a sufficient exposure time is required to obtain one image. For this reason, when the display image when the camera is stationary at the final angle of view 802 is the image 814, the image 812 and the image 813 that are images during the panning operation cannot obtain a sufficient exposure amount. As a result, it becomes difficult to display the celestial body as an image. In other words, although the panning operation is originally intended to adjust the angle of view, the photographer cannot see the essential subject, and as a result, it becomes difficult to adjust the angle of view.

図14は、カメラのパンニング動作と露光タイミングとの関係を示す図である。   FIG. 14 is a diagram illustrating the relationship between the panning operation of the camera and the exposure timing.

図14において、横軸は時間の経過を示し、時刻T901〜905はライブビューのための露光開始タイミングを示す。そして、フレームの露光期間を露光911〜914で示す。さらに、露光911〜914において露光を行った結果得られた画像に応じて生成された画像をライブビューとして表示開始するタイミングをT901’〜904’で示す。   In FIG. 14, the horizontal axis indicates the passage of time, and times T901 to 905 indicate the exposure start timing for live view. The exposure periods of the frames are indicated by exposures 911 to 914. Furthermore, timings T901 'to 904' indicate the timing at which an image generated according to the image obtained as a result of exposure in exposures 911 to 914 is displayed as a live view.

露光911〜914において撮影した画像はそれぞれ図13に示す画像811〜814である。図14において、曲線910はカメラの動き量を示しており、カメラの動き量が大きい区間は画角合わせのためのパンニング動作が行われている。つまり、時刻T902の少し前から時刻T904の直後の期間においてカメラのパンニング動作が行われている。カメラ動き量を示す曲線910から容易に分かるように、露光911および露光914においては、カメラの動き量はゼロであって、カメラは静止状態である。   Images taken in the exposures 911 to 914 are images 811 to 814 shown in FIG. In FIG. 14, a curve 910 indicates the amount of camera movement, and a panning operation for adjusting the angle of view is performed in a section where the amount of camera movement is large. In other words, the panning operation of the camera is performed in a period immediately before time T <b> 902 and immediately after time T <b> 904. As can be easily seen from the curve 910 indicating the camera movement amount, in the exposure 911 and the exposure 914, the movement amount of the camera is zero and the camera is stationary.

よって、図13に示す画像811および画像814は、静止状態でぶれのない天体画像となる。一方、露光912および露光913においては、カメラの動き量が大きくパンニング動作が行われている期間に露光が行われている。この結果、同一の露光時間であっても画像812および画像813で示すように、静止状態でぶれのない天体画像を得ることができない。   Therefore, the image 811 and the image 814 shown in FIG. 13 are celestial images without blurring in a stationary state. On the other hand, in exposure 912 and exposure 913, exposure is performed during a period in which the amount of camera movement is large and the panning operation is performed. As a result, as shown in the image 812 and the image 813 even when the exposure time is the same, it is not possible to obtain a celestial image without blurring in a stationary state.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。なお、以下の説明では、低照度の星空シーンの撮影する際、撮影者が画角を変更するべくパンニング動作を行った場合のライブビュー表示(連続的表示)を例に挙げて説明する。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to the first embodiment of the present invention. In the following description, a live view display (continuous display) when the photographer performs a panning operation to change the angle of view when shooting a low-light starry sky scene will be described as an example.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、レンズユニット(以下単にレンズと呼ぶ)を備えている。レンズ301を通過した被写体像(光学像)はメカニカルシャッタ(メカシャッタ)303を介して絞り304によってその光量が調整される。そして、光学像は撮像素子306の撮像面に結像する。   The illustrated imaging device is, for example, a digital camera (hereinafter simply referred to as a camera), and includes a lens unit (hereinafter simply referred to as a lens). The amount of light of the subject image (optical image) that has passed through the lens 301 is adjusted by a diaphragm 304 via a mechanical shutter (mechanical shutter) 303. The optical image is formed on the imaging surface of the image sensor 306.

撮像素子306は2次元マトリックス状に配列された複数のフォトダイオード(PD)を備えている。撮像素子306は光電変換によって光学像に応じた電気信号(アナログ信号)を生成する。さらに、撮像素子306はアナログ信号のゲイン調整を行って、A/D変換によってアナログ信号をデジタル信号に変換し、R、Gr、Gb、およびB信号として撮像信号処理回路307に送る。   The image sensor 306 includes a plurality of photodiodes (PD) arranged in a two-dimensional matrix. The image sensor 306 generates an electrical signal (analog signal) corresponding to the optical image by photoelectric conversion. Further, the image sensor 306 adjusts the gain of the analog signal, converts the analog signal into a digital signal by A / D conversion, and sends it to the image signal processing circuit 307 as R, Gr, Gb, and B signals.

撮像信号処理回路307は、デジタル信号(画像データ)に対してノイズを軽減するローパスフィルタ処理、シェーディング処理、およびWB処理などの画像信号処理を行うとともに、画像補正、画像合成、および圧縮などを行う。   The imaging signal processing circuit 307 performs image signal processing such as low-pass filter processing, shading processing, and WB processing for reducing noise on a digital signal (image data), and also performs image correction, image composition, compression, and the like. .

全体制御演算部309はカメラ全体の制御を司る。例えば、全体制御演算部309はレンズ駆動部302によってレンズ301を駆動してズームおよびフォーカス制御を行う。さらに、全体制御演算部309はシャッタ・絞り駆動部305によってメカシャッタ303および絞り304を駆動制御する。   The overall control calculation unit 309 controls the entire camera. For example, the overall control calculation unit 309 performs zoom and focus control by driving the lens 301 by the lens driving unit 302. Further, the overall control calculation unit 309 controls driving of the mechanical shutter 303 and the diaphragm 304 by the shutter / diaphragm driving unit 305.

第1のメモリ部(メモリ部I)308には、撮像信号処理回路307の出力である撮像信号が画像データとして一時的に記憶される。全体制御演算部309は記録媒体制御インターフェース部(記録媒体制御I/F部)310によって記録媒体312に画像データを記録するとともに、記録媒体312に記録された画像データを読み出す。記録媒体312として、例えば、着脱可能な半導体メモリが用いられる。また、表示部311には画像データに応じた画像が表示される。   In the first memory unit (memory unit I) 308, an imaging signal that is an output of the imaging signal processing circuit 307 is temporarily stored as image data. The overall control calculation unit 309 records image data on the recording medium 312 by the recording medium control interface unit (recording medium control I / F unit) 310 and reads out the image data recorded on the recording medium 312. As the recording medium 312, for example, a detachable semiconductor memory is used. The display unit 311 displays an image corresponding to the image data.

外部インターフェース部(外部I/F部)313は外部コンピュータなどの外部機器と通信を行うためのインターフェースである。第2のメモリ部(メモリ部II)314には全体制御演算部309による演算結果および各種パラメータが記憶される。撮影者が操作部315によって撮影に関する条件(撮影条件)を設定すると、全体制御演算部309は当該撮影条件に基づいてカメラ300を制御する。   An external interface unit (external I / F unit) 313 is an interface for communicating with an external device such as an external computer. The second memory unit (memory unit II) 314 stores the calculation results by the overall control calculation unit 309 and various parameters. When the photographer sets conditions (shooting conditions) regarding shooting using the operation unit 315, the overall control calculation unit 309 controls the camera 300 based on the shooting conditions.

動き検出部316はカメラ300の動きを検出又は検知し、カメラ300が動くとその移動方向および移動量を検出して、移動方向および移動量を示す動きデータを全体制御演算部309に送る。全体制御演算部309は、動きデータに基づいて、後述するようにして、被写体画角の変化量を算出する。   The motion detection unit 316 detects or detects the motion of the camera 300, detects the movement direction and the movement amount when the camera 300 moves, and sends motion data indicating the movement direction and the movement amount to the overall control calculation unit 309. The overall control calculation unit 309 calculates the change amount of the subject angle of view based on the motion data as described later.

図2は、図1に示すカメラで行われるライブビュー表示の一例を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining an example of live view display performed by the camera shown in FIG.

ライブビューモードを開始すると、全体制御演算部309は、撮影者によって操作部315から入力された設定情報(つまり、撮影条件)に基づいて各種パラメータを初期化する(ステップS201)。そして、全体制御演算部309は初期化したパラメータをメモリ部II314に記録する。   When the live view mode is started, the overall control calculation unit 309 initializes various parameters based on setting information (that is, shooting conditions) input from the operation unit 315 by the photographer (step S201). Then, the overall control calculation unit 309 records the initialized parameters in the memory unit II 314.

続いて、操作部315において設定情報の変更が行われると、全体制御演算部309は設定情報の変更を取得して、当該変更を各種パラメータに反映させる(ステップS202)。例えば、レンズ301および絞り304の設定変更があると、全体制御演算部309はレンズ駆動部302およびシャッタ・絞り駆動部305によって設定変更に応じたレンズ位置および絞り値に変更する。そして、全体制御演算部309はレンズ位置および絞り値の変更を反映させたパラメータをメモリ部II314に記録する。   Subsequently, when the setting information is changed in the operation unit 315, the overall control calculation unit 309 acquires the change in the setting information and reflects the change in various parameters (step S202). For example, when the setting of the lens 301 and the aperture 304 is changed, the overall control calculation unit 309 changes the lens position and the aperture value according to the setting change by the lens driving unit 302 and the shutter / aperture driving unit 305. Then, the overall control calculation unit 309 records the parameter reflecting the change of the lens position and the aperture value in the memory unit II 314.

次に、全体制御演算部309はメモリ部II314に記録したパラメータに基づいて、長秒撮影であるか否かを判定する(ステップS203)。ここでは、全体制御演算部309は撮影者によって設定された露光時間TvがTv≧Tvth(Tvth:定数(閾値))であるか否かを判定する。つまり、全体制御演算部309は露光時間が所定の閾値以上であるか否かを判定する。   Next, based on the parameters recorded in the memory unit II 314, the overall control calculation unit 309 determines whether or not it is long-second shooting (step S203). Here, the overall control calculation unit 309 determines whether or not the exposure time Tv set by the photographer is Tv ≧ Tvth (Tvth: constant (threshold)). That is, the overall control calculation unit 309 determines whether or not the exposure time is greater than or equal to a predetermined threshold value.

Tv≧Tvthであると、つまり、長秒撮影であると(ステップS203において、YES)、全体制御演算部309は後述する第1の表示モード(表示モード1)を実行する(ステップS204)。一方、Tv<Tvthであると、つまり、閾値未満であって長秒撮影でないと(ステップS203において、NO)、全体制御演算部309は後述する第2の表示モード(表示モード2)を実行する(ステップS205)。   If Tv ≧ Tvth, that is, if long-time shooting has been performed (YES in step S203), the overall control calculation unit 309 executes a first display mode (display mode 1) described later (step S204). On the other hand, if Tv <Tvth, that is, it is less than the threshold value and the long-second shooting is not performed (NO in step S203), the overall control calculation unit 309 executes a second display mode (display mode 2) described later. (Step S205).

ステップS204又はS205の処理の後、全体制御演算部309は、ライブビュー表示の終了指示があったか否かを判定する(ステップS206)。終了指示があると(ステップS206において、YES)、全体制御演算部309はライブビューモードを終了する。一方、終了指示がないと(ステップS206において、NO)、全体制御演算部309はステップS202の処理に戻る。なお、ステップS206においては、例えば、操作部315によって電源がОFFとされると、全体制御演算部309は終了指示があったものとする。   After the process of step S204 or S205, the overall control calculation unit 309 determines whether there is an instruction to end the live view display (step S206). When there is an end instruction (YES in step S206), overall control calculation unit 309 ends the live view mode. On the other hand, if there is no termination instruction (NO in step S206), overall control operation unit 309 returns to the process in step S202. In step S206, for example, when the power is turned off by the operation unit 315, the overall control calculation unit 309 is instructed to end.

図3は、図2に示す表示モード1における処理を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining processing in the display mode 1 shown in FIG.

表示モード1を開始すると、全体制御演算部309はメモリ部II314に記録された露光時間Tv、絞り値Av、およびゲインGなどの撮影条件、そして、撮像素子駆動モードなどに係るパラメータを取得する。全体制御演算部309は当該パラメータに基づいてライブビューモード駆動によって撮像素子306を駆動して撮影を開始する(ステップS101)。   When the display mode 1 is started, the overall control calculation unit 309 acquires imaging conditions such as the exposure time Tv, the aperture value Av, and the gain G recorded in the memory unit II 314, and parameters relating to the image sensor driving mode and the like. The overall control calculation unit 309 starts shooting by driving the image sensor 306 by live view mode driving based on the parameter (step S101).

続いて、全体制御演算部309はメモリ部II314に記録されたパラメータ、および動き検出部316で得られた動きデータに基づいてカメラ300に動きがあったか否かを判定する動き検出を行う(ステップS102)。当該動き検出については後述するが、この動き検出においては、全体制御演算部309は動き判定フラグMを求める。そして、ここでは、動き判定フラグM=1であると、カメラ300に動きがあったものとする。また、動き判定フラグM=0であると、カメラ300に動きがなかったものとする。   Subsequently, the overall control calculation unit 309 performs motion detection for determining whether or not the camera 300 has moved based on the parameters recorded in the memory unit II 314 and the motion data obtained by the motion detection unit 316 (step S102). ). Although the motion detection will be described later, in this motion detection, the overall control calculation unit 309 obtains a motion determination flag M. Here, it is assumed that the camera 300 has moved when the motion determination flag M = 1. If the motion determination flag M = 0, it is assumed that the camera 300 has not moved.

次に、全体制御演算部309は、動き検出によって得られた動き判定フラグMがM=1であるか否かを判定する(ステップS103)。動き判定フラグM=1であると(ステップS103において、YES)、全体制御演算部309は撮像動作をリセットする(ステップS104)。ここでは、撮影途中であれば、全体制御演算部309は撮像素子306の駆動を停止して撮像素子306を初期化する。撮影が終了していると、全体制御演算部309は動きが検出された際に撮影された画像を破棄する。   Next, the overall control calculation unit 309 determines whether or not the motion determination flag M obtained by motion detection is M = 1 (step S103). If motion determination flag M = 1 (YES in step S103), overall control calculation unit 309 resets the imaging operation (step S104). Here, if shooting is in progress, the overall control calculation unit 309 stops driving the image sensor 306 and initializes the image sensor 306. When shooting is completed, the overall control calculation unit 309 discards the image shot when motion is detected.

その後、全体制御演算部309は画像の切り出しおよび表示領域の変更を行う(ステップS105)。ここでは、全体制御演算部309は、まず動きが検出される前のフレームにおいて表示用画像に用いられたRaw画像データRbを得る。そして、全体制御演算部309は当該前のフレームからの画角移動量ΔxおよびΔyとRaw画像データRbとに基づいて表示画像Idとして用いるRaw画像データRdを生成する。なお、ΔxおよびΔyは水平方向および垂直方向の移動量を画素数(単位:pixel)で表し、さらに移動の方向を+又は−で示す。   Thereafter, the overall control calculation unit 309 cuts out the image and changes the display area (step S105). Here, the overall control calculation unit 309 first obtains the raw image data Rb used for the display image in the frame before the motion is detected. Then, the overall control calculation unit 309 generates Raw image data Rd to be used as the display image Id based on the view angle movement amounts Δx and Δy from the previous frame and the Raw image data Rb. In addition, Δx and Δy represent the amount of movement in the horizontal direction and the vertical direction by the number of pixels (unit: pixel), and further indicate the direction of movement by + or −.

例えば、全体制御演算部309は、Rawデータ画像Rbに対して画角を水平方向にΔx、そして、垂直にΔy移動させる。そして、画像上においてデータが存在しない領域については、全体制御演算部309は画素値を0又はそれ以外の任意の値で補ってRaw画像データRdを生成する。その後、全体制御演算部309は撮像信号処理回路307によってRaw画像データRdを信号処理して表示画像Idを得る。   For example, the overall control calculation unit 309 moves the angle of view with respect to the raw data image Rb by Δx in the horizontal direction and Δy in the vertical direction. Then, for an area where no data exists on the image, the overall control calculation unit 309 generates the raw image data Rd by supplementing the pixel value with 0 or any other value. Thereafter, the overall control calculation unit 309 performs signal processing on the raw image data Rd by the imaging signal processing circuit 307 to obtain a display image Id.

動き判定フラグM=1でないと(ステップS103において、NO)、つまり、動き判定フラグ=0であると、全体制御演算部309は撮影動作が終了したか否かを判定する(ステップS106)。撮影動作が終了しないと(ステップS106において、NO)、全体制御演算部309は待機する。一方、撮影動作が終了すると(ステップS106において、YES)、全体制御演算部309は撮像素子306から読み出した画像信号に基づいてRaw画像データRdを生成する。そして、全体制御演算部309は撮像信号処理回路307によってRaw画像データRdを信号処理して表示画像Idを得る(ステップS107)。   If the motion determination flag M is not 1 (NO in step S103), that is, if the motion determination flag is 0, the overall control calculation unit 309 determines whether or not the photographing operation has ended (step S106). If the shooting operation is not completed (NO in step S106), overall control calculation unit 309 waits. On the other hand, when the photographing operation ends (YES in step S106), the overall control calculation unit 309 generates Raw image data Rd based on the image signal read from the image sensor 306. Then, the overall control calculation unit 309 performs signal processing on the raw image data Rd by the imaging signal processing circuit 307 to obtain a display image Id (step S107).

ステップS105又はS107の処理の後、全体制御演算部309は表示画像Idを画像Xiとして表示部311に表示する(ステップS108)。そして、全体制御演算部309は表示モード1を終了する。   After the process of step S105 or S107, the overall control calculation unit 309 displays the display image Id as the image Xi on the display unit 311 (step S108). Then, the overall control calculation unit 309 ends the display mode 1.

図4は、図2に示す表示モード2における処理を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining processing in the display mode 2 shown in FIG.

表示モード2を開始すると、全体制御演算部309はメモリ部II314に記録された露光時間Tv、絞り値Av、およびゲインGなどの撮影条件、そして、撮像素子駆動モードなどに係るパラメータを取得する。全体制御演算部309は当該パラメータに基づいてライブビューモード駆動によって撮像素子306を駆動して撮影を開始する(ステップS401)。   When the display mode 2 is started, the overall control calculation unit 309 acquires imaging conditions such as the exposure time Tv, the aperture value Av, and the gain G recorded in the memory unit II 314, and parameters relating to the image sensor driving mode. The overall control calculation unit 309 starts shooting by driving the image sensor 306 by live view mode driving based on the parameter (step S401).

続いて、全体制御演算部309は撮像素子306から読み出した画像信号に基づいてRaw画像データRdを生成する。そして、全体制御演算部309は撮像信号処理回路307によってRaw画像データRdを信号処理して表示画像Idを得る。全体制御演算部3092は表示画像Idを画像Xiとして表示部311に表示する(ステップS202)。その後、全体制御演算部309は表示モード2を終了する。   Subsequently, the overall control calculation unit 309 generates Raw image data Rd based on the image signal read from the image sensor 306. Then, the overall control calculation unit 309 performs signal processing on the raw image data Rd by the imaging signal processing circuit 307 to obtain a display image Id. The overall control calculation unit 3092 displays the display image Id as the image Xi on the display unit 311 (step S202). Thereafter, the overall control calculation unit 309 ends the display mode 2.

図5は、図3に示す動き検出に係る処理を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining processing related to motion detection shown in FIG.

動き検出を開始すると、全体制御演算部309は動き検出部316から動きデータを取得する(ステップS501)。そして、全体制御演算部309はメモリ部II314に保存されたカメラ300の動きに関するパラメータである移動方向φおよび移動量θを読み出す。   When motion detection is started, the overall control calculation unit 309 acquires motion data from the motion detection unit 316 (step S501). Then, the overall control calculation unit 309 reads the movement direction φ and the movement amount θ, which are parameters related to the movement of the camera 300 stored in the memory unit II 314.

続いて、全体制御演算部309は次のようにして画角移動量ΔxおよびΔyを求める(ステップS502)。ここでは、全体制御演算部309は、まずメモリ部II314からセンサ画素ピッチPを読み出す(センサ画素ピッチPとは撮像素子306に備えられた画素のピッチをいう)。そして、全体制御演算部309は、センサ画素ピッチP、前述の撮影条件である露光時間Tvおよび焦点距離f、移動方向φ、および移動量θに基づいて画角移動量ΔxおよびΔyを算出する。   Subsequently, the overall control calculation unit 309 obtains the view angle movement amounts Δx and Δy as follows (step S502). Here, the overall control calculation unit 309 first reads the sensor pixel pitch P from the memory unit II 314 (the sensor pixel pitch P refers to the pitch of the pixels provided in the image sensor 306). Then, the overall control calculation unit 309 calculates the field angle movement amounts Δx and Δy based on the sensor pixel pitch P, the exposure time Tv and the focal length f, the movement direction φ, and the movement amount θ, which are the above-described photographing conditions.

次に、全体制御演算部309は、画角移動量ΔxおよびΔyが動き判定閾値Мthに対して、次の式(1)を満たすと「動きなし」、満たさないと「動き有り」と判定する動き判定を行う(ステップS503)。   Next, the overall control calculation unit 309 determines “no motion” if the field angle movement amounts Δx and Δy satisfy the following expression (1) with respect to the motion determination threshold Мth, and “no motion” otherwise. Motion determination is performed (step S503).

Мth≧(Δx、Δy1/2 (1)
なお、画像上において1画素でも画角が動くと被写体がぶれて見えることを考慮すると、動き判定閾値МthはМth=1(pixel)となる。実際には、ライブビューモードにおいては撮像素子306の全ての画素から画像信号を読み出すのではなく、数画素おきに間引いて画像信号を読み出す。よって、動き判定閾値Мthは数pixelとすればよい。
Мth ≧ (Δx 2 , Δy 2 ) 1/2 (1)
Note that the motion determination threshold Мth is Мth = 1 (pixel) considering that the subject appears to be blurred when the angle of view moves even on one pixel on the image. Actually, in the live view mode, image signals are not read out from all the pixels of the image sensor 306 but are read out every several pixels. Therefore, the motion determination threshold Мth may be set to several pixels.

次に、全体制御演算部309は、ステップS503の判定結果が「動き有り」であるか否かを判定する(ステップS504)。「動き有り」であると(ステップS504において、YES)、全体制御演算部309は動き判定フラグM=1に設定する(ステップS505)。そして、全体制御演算部309は動き検出を終了する。一方、「動きなし」であると(ステップS504において、NO)、全体制御演算部309は動き判定フラグM=0に設定する(ステップS506)。その後、全体制御演算部309は動き検出を終了する。   Next, the overall control calculation unit 309 determines whether or not the determination result in step S503 is “with motion” (step S504). If it is “with motion” (YES in step S504), overall control calculation unit 309 sets motion determination flag M = 1 (step S505). Then, the overall control calculation unit 309 ends the motion detection. On the other hand, if “no motion” (NO in step S504), the overall control calculation unit 309 sets the motion determination flag M = 0 (step S506). Thereafter, the overall control calculation unit 309 ends the motion detection.

図6は、図1に示すカメラにおいてパンニング動作が行われた際の表示画像の一例を示す図である。   6 is a diagram showing an example of a display image when a panning operation is performed in the camera shown in FIG.

いま、図13で説明したようにして、撮影者がパンニング動作を行った結果、画角が画角801から画角802に変更されたとする。この場合、図1に示すカメラ300では、上述した処理が行われる結果、図6に示す画像が表示部311にライブビューとして表示される。   Now, as described with reference to FIG. 13, it is assumed that the angle of view is changed from the angle of view 801 to the angle of view 802 as a result of the panning operation performed by the photographer. In this case, in the camera 300 shown in FIG. 1, the image shown in FIG. 6 is displayed as a live view on the display unit 311 as a result of the above-described processing.

画像1011〜画像1014はそれぞれ時刻T901’〜T904’(図14参照)から表示部311に表示される表示画像を示す。図6においては、当然のことながら、画角の変化がない露光期間の直後のライブビュー表示画像である画像1011および1014について画角のぶれがない。さらに、パンニング動作中又はパンニング動作直後のタイミングである時刻T902’およびT903’においてライブビュー表示される画像1012および画像1013においてもぶれがない。   Images 1011 to 1014 indicate display images displayed on the display unit 311 from time T901 'to T904' (see FIG. 14), respectively. In FIG. 6, as a matter of course, there is no fluctuation in the angle of view for the images 1011 and 1014 which are live view display images immediately after the exposure period in which there is no change in the angle of view. Further, there is no blurring in the image 1012 and the image 1013 that are displayed in live view at times T902 'and T903' that are during or immediately after the panning operation.

このように、本発明の第1の実施形態では、天体のように長秒露光で撮影する必要のある場合にパンニング動作中又はパンニング動作の直後であってもライブビューとしてぶれのない画像を表示することができる。この結果、撮影者は容易に画角合わせを行うことが可能となる。   As described above, in the first embodiment of the present invention, when it is necessary to shoot with a long second exposure like an astronomical object, a blur-free image is displayed as a live view even during or immediately after the panning operation. can do. As a result, the photographer can easily adjust the angle of view.

[第2の実施形態]
続いて、本発明の第2の実施形態によるカメラの一例については説明する。なお、第2の実施形態によるカメラの構成は図1に示すカメラと同様である。
[Second Embodiment]
Subsequently, an example of a camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIG.

低照度の被写体を撮影する場合、必要とする画像信号の出力を確保する手法として、例えば、撮影する際の露光時間を十分長くする手法(第1の手法)がある。さらには、同一の撮影シーンを所定の露光時間で撮影して得られた複数の枚の画像を加算処理する手法(第2の手法)、つまり、分割露光する手法がある。   As a technique for ensuring the output of a necessary image signal when photographing a low-illuminance subject, for example, there is a technique (first technique) for sufficiently increasing the exposure time when photographing. Furthermore, there is a technique (second technique) of adding a plurality of images obtained by photographing the same photographing scene with a predetermined exposure time, that is, a technique of performing divided exposure.

前述の第1の実施形態においては、第1の手法を用いて、長秒露光で得られた1枚の画像からライブビューとして表示する1フレーム分の画像を生成した。一方、第2の実施形態では、第2の手法を用いてライブビューとして表示する画像を生成する。   In the first embodiment described above, an image for one frame to be displayed as a live view is generated from one image obtained by long-second exposure using the first technique. On the other hand, in the second embodiment, an image to be displayed as a live view is generated using the second method.

まず、分割露光を行う際の問題点について説明する。   First, problems in performing divided exposure will be described.

図7は、パンニング動作が行われた場合に分割露光で得られた表示画像の一例を示す図である。また、図8は、図7に示す表示画像を得た際のパンニング動作と露光タイミングとの関係を示す図である。   FIG. 7 is a diagram illustrating an example of a display image obtained by the divided exposure when the panning operation is performed. FIG. 8 is a diagram showing the relationship between the panning operation and the exposure timing when the display image shown in FIG. 7 is obtained.

図7に示す例では、図13で説明したように、撮影者がパンニング動作を行って、画角を画角801から画角802に変更したとする。   In the example illustrated in FIG. 7, as described in FIG. 13, it is assumed that the photographer performs a panning operation and changes the angle of view from the angle of view 801 to the angle of view 802.

図8において、横軸は時間の経過を示し、時刻T1101〜T1107はライブビューのための露光開始タイミングを示す。そして、フレームの露光期間を露光1111〜1117で示す。さらに、露光1111〜1117において露光を行った結果得られた画像に応じて生成された画像をライブビューとして表示開始するタイミングをT1101’〜1107’で示す。   In FIG. 8, the horizontal axis indicates the passage of time, and times T1101 to T1107 indicate the exposure start timing for live view. The exposure periods of the frames are indicated by exposures 1111 to 1117. Furthermore, timings at which display of images generated according to the images obtained as a result of exposure in exposures 1111 to 1117 as live views are started are indicated by T1101 'to 1107'.

時刻T1101’〜T1107’において表示されるライブビュー画像はそれぞれ表示開始直前までの3フレームの画像を加算合成して得られた画像である。例えば、T1103’において表示する表示画像は露光期間が露光1111〜露光1113のフレームを加算合成して得られる。タイミングT1101’〜T1107’において表示部311に表示する表示画像は図7に示す画像1201〜1207である。   Live view images displayed at times T1101 'to T1107' are images obtained by adding and synthesizing three frames of images up to immediately before the start of display. For example, the display image displayed at T1103 'is obtained by adding and combining frames whose exposure periods are exposure 1111 to exposure 1113. Display images displayed on the display unit 311 at timings T1101 'to T1107' are images 1201 to 1207 shown in FIG.

図8において、曲線はカメラ300の動き量の変化を示しており、カメラ300の動き量が大きな区間は画角合わせのためのパンニング動作が行われた区間である。図8に示す例では、時刻T1104の少し前から時刻T1105の直前の期間においてパンニング動作が行われている。   In FIG. 8, the curve indicates a change in the amount of motion of the camera 300, and a section where the amount of motion of the camera 300 is large is a section where a panning operation for adjusting the angle of view is performed. In the example illustrated in FIG. 8, the panning operation is performed in a period just before time T1104 to immediately before time T1105.

カメラ動き量1110から容易に理解できるように、露光1114についてはカメラ300動き量が大きくパンニング動作中に露光が行われている。このため、露光1114において撮影された画像は像ぶれが大きくなる。このため、分割露光を行うと、つまり、画像合成を行うと、表示画像に用いられる画像1204〜1206についてはぶれのない画像を得ることができない。   As can be easily understood from the camera movement amount 1110, the exposure 1114 has a large movement amount of the camera 300 and is exposed during the panning operation. For this reason, an image taken in the exposure 1114 has a large image blur. For this reason, when divided exposure is performed, that is, when image synthesis is performed, it is not possible to obtain a blur-free image for the images 1204 to 1206 used for the display image.

本発明の第2の実施形態においては、低照度の被写体を撮影する際に分割露光を用いた場合に、パンニング動作が行われてもライブビューとしてぶれのない画像を得るようにする。   In the second embodiment of the present invention, when divided exposure is used when shooting an object with low illuminance, an image without blurring is obtained as a live view even if a panning operation is performed.

なお、第2の実施形態においても、図13に示す画像800のように低照度の星空シーンの撮影する際に撮影者が画角を変更するため、画角801から画角802にパンニング動作した場合について説明する。また、ここでは、説明の便宜上、カメラ300を起動した際の画角に対して水平方向の移動と垂直方向の移動で表現可能な画角の変更について説明する。   In the second embodiment as well, panning operation from the angle of view 801 to the angle of view 802 is performed because the photographer changes the angle of view when shooting a low-light starry sky scene like the image 800 shown in FIG. The case will be described. Further, here, for convenience of explanation, a description will be given of a change in the angle of view that can be expressed by a horizontal movement and a vertical movement with respect to the angle of view when the camera 300 is activated.

第2の実施形態よるカメラにおいても図2で説明したライブビュー表示が行われる。そして、第2の実施形態では、表示モード1に係る処理が第1の実施形態と異なる。   The live view display described in FIG. 2 is also performed in the camera according to the second embodiment. And in 2nd Embodiment, the process which concerns on the display mode 1 differs from 1st Embodiment.

図9は、本発明の第2の実施形態で行われる表示モード1に係る処理の一例を説明するためのフローチャートである。なお、図9において、図3に示すフローチャートのステップと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 9 is a flowchart for explaining an example of processing according to the display mode 1 performed in the second embodiment of the present invention. In FIG. 9, the same steps as those in the flowchart shown in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted.

表示モード1を開始すると、全体制御演算部309は、図3で説明したステップS101の処理を行う。但し、ここでは、複数の画像の合計の合計露光時間が露光時間Tvであればよい。よって、1枚の画像を撮影する際の露光時間をTvsとし、加算する画像の枚数をNとすると、露光時間Tvsは次の式(2)で表される。   When the display mode 1 is started, the overall control calculation unit 309 performs the process of step S101 described in FIG. However, here, the total exposure time of the plurality of images may be the exposure time Tv. Therefore, assuming that the exposure time when shooting one image is Tvs and the number of images to be added is N, the exposure time Tvs is expressed by the following equation (2).

Tvs=Tv/N (2)
続いて、全体制御演算部309は、図3で説明したステップS102およびS103の処理を行う。そして、動き判定閾値M=1であると(ステップS103において、YES)、全体制御演算部309は、図3で説明したステップS105の処理を行う。
Tvs = Tv / N (2)
Subsequently, the overall control calculation unit 309 performs the processing of steps S102 and S103 described in FIG. If the motion determination threshold value M = 1 (YES in step S103), the overall control calculation unit 309 performs the process of step S105 described in FIG.

一方、動き判定閾値M=0であると(ステップS103において、NO)、全体制御演算部309は、後述するようにして、複数枚の画像を合成する加算合成処理を行って、合成画像(Raw画像データRd)を得る(ステップS601)。そして、全体制御演算部309は、図3で説明したステップS107の処理を行う。   On the other hand, if the motion determination threshold value M = 0 (NO in step S103), the overall control calculation unit 309 performs an addition synthesis process for synthesizing a plurality of images as will be described later, and performs a synthesized image (Raw). Image data Rd) is obtained (step S601). Then, the overall control calculation unit 309 performs the process of step S107 described in FIG.

ステップS105又はS107の処理の後、全体制御演算部309は、後述するようにして、領域加算数マップを更新する(ステップS602)。その後、全体制御演算部309は、図3で説明したステップS108の処理を行って、表示モード1を終了する。   After the process of step S105 or S107, the overall control calculation unit 309 updates the area addition number map as described later (step S602). After that, the overall control calculation unit 309 performs the process of step S108 described with reference to FIG.

図10は、図9に示す加算合成処理を説明するためのフローチャートである。   FIG. 10 is a flowchart for explaining the addition synthesis process shown in FIG.

ここでは、複数枚の画像を合成することによって表示部311に表示する表示画像を生成する。この際、全体制御演算部309は画像の合成数がN(Nは2以上の整数)枚に達するまでは順次画像の加算合成を行って表示画像を生成する。画像の合成数がN枚を超えると、全体制御演算部309は最新の画像についてその重みを大きくして加算平均処理を行って表示画像を生成する。   Here, a display image to be displayed on the display unit 311 is generated by combining a plurality of images. At this time, the overall control calculation unit 309 generates a display image by sequentially adding and combining images until the number of combined images reaches N (N is an integer of 2 or more). When the number of combined images exceeds N, the overall control calculation unit 309 increases the weight of the latest image and performs an averaging process to generate a display image.

画角が変更されない場合には、全体制御演算部309は画像を合成した枚数をメモリ部II314に記録して、当該枚数に基づいて加算合成処理を行えばよいが、画角が変更されると、画像の領域(画像領域)毎に合成枚数が異なってしまう。そこで、画角が変更された場合には、全体制御演算部309はいずれの領域毎に合成枚数をメモリ部II314に記録して、当該記録に応じて領域毎に加算合成処理を異ならせる。   If the angle of view is not changed, the overall control calculation unit 309 may record the number of combined images in the memory unit II 314 and perform addition / synthesis processing based on the number of images, but if the angle of view is changed, Therefore, the number of synthesized images differs for each image area (image area). Therefore, when the angle of view is changed, the overall control calculation unit 309 records the number of combined images for each region in the memory unit II 314, and varies the addition / combination processing for each region according to the recording.

図10を参照して、加算合成処理を開始すると、全体制御演算部309は、まず変数i=ir0、変数j=jr0に設定する(ステップS701)。なお、変数iおよびjは画像の水平方向および垂直方向の位置を示し、画像を複数の領域に分割した際の当該領域を特定するものである。また、ir0およびjr0は画角の変更によって撮影の際に画像の左上隅の位置する領域の絶対座標における位置を示す。なお、変数iを水平領域アドレス、変数jを垂直領域アドレスと呼ぶ。   Referring to FIG. 10, when the addition synthesis process is started, overall control operation unit 309 first sets variable i = ir0 and variable j = jr0 (step S701). Variables i and j indicate the horizontal and vertical positions of the image, and specify the region when the image is divided into a plurality of regions. Further, ir0 and jr0 indicate the positions in the absolute coordinates of the area located at the upper left corner of the image at the time of shooting by changing the angle of view. The variable i is called a horizontal area address, and the variable j is called a vertical area address.

図11は、本発明の第2の実施形態によるカメラで行われる画像領域の加算数を説明するための図である。そして、図11(a)は画像領域の設定を示す図であり、図11(b)は領域数加算マップを示す図である。   FIG. 11 is a diagram for explaining the addition number of image areas performed by the camera according to the second embodiment of the present invention. FIG. 11A is a diagram showing the setting of image regions, and FIG. 11B is a diagram showing a region number addition map.

図11(a)に示すように、全体制御演算部309は、最初の撮影の際にレンズ301でとらえた画角の左上隅の点を原点とする絶対座標系を設定する。全体制御演算部309は当該原点に接する所定の大きさの画像領域を領域(0,0)とする。そして、全体制御演算部309は所定の大きさで画像を分割して複数の画像領域を設定する。図示の例では、領域(0,0)〜領域(4,4)が設定される。   As shown in FIG. 11A, the overall control calculation unit 309 sets an absolute coordinate system having the origin at the upper left corner of the angle of view captured by the lens 301 at the time of the first shooting. The overall control calculation unit 309 sets an image area having a predetermined size in contact with the origin as the area (0, 0). Then, the overall control calculation unit 309 divides the image with a predetermined size and sets a plurality of image areas. In the illustrated example, the area (0, 0) to the area (4, 4) are set.

いま、ある時点でレンズ301によってとらえられた画角を、図11(a)において黒太線で囲まれた枠であるとすると、当該時点における領域(ir0,jr0)は領域(1,1)となる。つまり、全体制御演算部309はi=1、j=1に設定する。   Assuming that the angle of view captured by the lens 301 at a certain time is a frame surrounded by a thick black line in FIG. 11A, the region (ir0, jr0) at that time is the region (1, 1). Become. That is, the overall control calculation unit 309 sets i = 1 and j = 1.

再び図10を参照して、ステップS701の処理の後、全体制御演算部309は処理すべき領域である処理領域(i,j)に移動する(ステップS702)。そして、全体制御演算部309は当該処理領域(i,j)が新しい画角の領域(画角領域)であるか否かを判定する(ステップS703)。なお、新しい画角領域とは、他の表示モードから表示モード1に切り替わった後、最初の撮影の際の画角でとらえられた領域をいう。   Referring to FIG. 10 again, after the process of step S701, overall control operation unit 309 moves to process area (i, j), which is an area to be processed (step S702). Then, the overall control calculation unit 309 determines whether or not the processing area (i, j) is a new view angle area (view angle area) (step S703). Note that the new field angle area refers to an area captured at the field angle at the time of the first shooting after switching from the other display mode to the display mode 1.

新しい画角領域でないと(ステップS703において、NO)、つまり、以前のフレームにおいて得られた(撮影された)領域であると、全体制御演算部309は画像加算数kに1を加える(ステップS704)。そして、全体制御演算部309は、画素加算数k≦合成枚数Nであるか否かを判定する(ステップS705)。   If it is not a new field angle area (NO in step S703), that is, if it is an area obtained (captured) in a previous frame, the overall control calculation unit 309 adds 1 to the image addition number k (step S704). ). Then, the overall control calculation unit 309 determines whether or not the pixel addition number k ≦ the combined number N (step S705).

新しい画角領域であると(ステップS703において、YES)、つまり、以前のフレームにおいて得られたことのない(撮影されたことのない)領域であると、全体制御演算部309は画像加算数k=1とする(ステップS706)。そして、全体制御演算部309はステップS101で得られた画像データXijを表示画像用の部分画像データXijとする(ステップS707)。その後、全体制御演算部309は、後述するステップS710の処理に進む。   If it is a new field angle area (YES in step S703), that is, if it is an area that has never been obtained (has not been photographed) in the previous frame, the overall control calculation unit 309 has the image addition number k. = 1 (step S706). Then, the overall control calculation unit 309 sets the image data Xij obtained in step S101 as partial image data Xij for a display image (step S707). Thereafter, the overall control calculation unit 309 proceeds to the process of step S710 described later.

画素加算数k≦合成枚数Nであると(ステップS705において、YES)、全体制御演算部309は部分画像データXijと1フレーム前の部分画像データXij−1とを加算して、表示画像用の部分画像データとする(ステップS708)。   When the pixel addition number k ≦ the composite number N (YES in step S705), the overall control calculation unit 309 adds the partial image data Xij and the partial image data Xij-1 of the previous frame, and displays the display image. Partial image data is set (step S708).

画素加算数k>合成枚数Nであると(ステップS705において、NO)、全体制御演算部309は部分画像データXijと1フレーム前の部分画像データXij−1とを用いて、次の式(3)によって表示用画像の部分画像データを求める(ステップS709)。   When the pixel addition number k> the composite number N (NO in step S705), the overall control calculation unit 309 uses the partial image data Xij and the partial image data Xij-1 of the previous frame, and uses the following equation (3 ) To obtain partial image data of the display image (step S709).

Xij=Xij−1×N/(N+1)+Xij×1/(N+1) (3)
続いて、全体制御演算部309は、レンズ301でとらえられた画角に含まれる領域について水平領域アドレスi=最大値imaxであるか否かを判定する(ステップS710)。i=imaxであると(ステップS710において、YES)、全体制御演算部309は垂直領域アドレスj=最大値jmaxであるか否かを判定する(ステップS711)。なお、図11(a)に示す例では、水平方向に3領域、垂直方向に3領域であり、領域(ir0,jr0)=領域(1,1)であるので、imax=3、jmax=3となる。
Xij = Xij-1 * N / (N + 1) + Xij * 1 / (N + 1) (3)
Subsequently, the overall control calculation unit 309 determines whether or not the horizontal area address i = the maximum value imax for the area included in the angle of view captured by the lens 301 (step S710). If i = imax (YES in step S710), overall control calculation unit 309 determines whether vertical area address j = maximum value jmax is satisfied (step S711). In the example shown in FIG. 11A, since there are three regions in the horizontal direction and three regions in the vertical direction and region (ir0, jr0) = region (1, 1), imax = 3 and jmax = 3. It becomes.

i=imaxでないと(ステップS710において、NO)、全体制御演算部309は水平領域アドレスiに1を加える(ステップS712)。そして、全体制御演算部309はステップS702の処理に戻る。   If i is not imax (NO in step S710), overall control operation unit 309 adds 1 to horizontal area address i (step S712). Then, the overall control calculation unit 309 returns to the process of step S702.

垂直領域アドレスj=最大値jmaxでないと(ステップS711において、NO)、全体制御演算部309は垂直領域アドレスjに1を加える(ステップS713)。そして、全体制御演算部309は水平領域アドレスiを初期値i0に設定する(ステップS714)。その後、全体制御演算部309はステップS702の処理に戻る。   If vertical area address j = not maximum value jmax (NO in step S711), overall control operation unit 309 adds 1 to vertical area address j (step S713). Then, the overall control calculation unit 309 sets the horizontal area address i to the initial value i0 (step S714). Thereafter, the overall control calculation unit 309 returns to the process of step S702.

垂直領域アドレスj=最大値jmaxであると(ステップS711において、YES)、全体制御演算部309は部分画像データをつなぎ合わせてRaw画像Rdを生成する(ステップS715)。そして、全体制御演算部309は加算合成処理を終了する。   If vertical area address j = maximum value jmax (YES in step S711), overall control calculation unit 309 joins the partial image data to generate Raw image Rd (step S715). Then, the overall control calculation unit 309 ends the addition synthesis process.

ここで、図11を参照して、領域数加算マップについて説明する。領域数加算マップは、図11(b)に示すように、被写体(ここでは、空間、つまり、画像)を複数の領域に分割して、各領域についてその加算数kを記録したマップである。   Here, the region number addition map will be described with reference to FIG. As shown in FIG. 11B, the area number addition map is a map in which a subject (here, a space, that is, an image) is divided into a plurality of areas, and the addition number k is recorded for each area.

図11(a)に示す画像は20個の領域(0,0)〜領域(4,4)に分割されており、領域(0,0)〜領域(4,4)はそれぞれ図11(b)に示す20個の領域に対応している。図示の例では、領域(0,0)加算数kは0であり、領域(1,1)の加算数kはN+1である。   The image shown in FIG. 11A is divided into 20 areas (0, 0) to (4, 4), and the areas (0, 0) to (4, 4) are respectively shown in FIG. 20 areas shown in FIG. In the example shown in the figure, the region (0, 0) addition number k is 0, and the region (1, 1) addition number k is N + 1.

図12は、本発明の第2の実施形態によるカメラで得られた画像のライブビュー表示の一例を示す図である。   FIG. 12 is a diagram illustrating an example of a live view display of an image obtained by the camera according to the second embodiment of the present invention.

いま、図13で説明したようにして、撮影者がカメラ300のパンニング動作を行い、画角を画角801から画角802に変更したとする。この際、パンニング動作と露光タイミングとの関係は図8で説明したようになり、タイミングT1101’〜T1107’において表示部311に表示される表示画像はそれぞれ図12に示す画像1401〜画像1407となる。   Now, as described with reference to FIG. 13, it is assumed that the photographer performs the panning operation of the camera 300 and changes the angle of view from the angle of view 801 to the angle of view 802. At this time, the relationship between the panning operation and the exposure timing is as described with reference to FIG. 8, and the display images displayed on the display unit 311 at the timings T1101 ′ to T1107 ′ are images 1401 to 1407 shown in FIG. .

画像1401〜画像1403および画像1407は、それぞれ図7に示す画像1201〜画像1203および画像1207と同様である。全体制御演算部309はライブビュー開始の直前までに得られた3フレームの画像に基づいてライブビュー表示用画像を生成する。   An image 1401 to an image 1403 and an image 1407 are the same as the image 1201 to the image 1203 and the image 1207 shown in FIG. The overall control calculation unit 309 generates a live view display image based on three frames of images obtained immediately before the start of live view.

一方、全体制御演算部309は画像1404については画像1403の生成に用いたRaw画像Rdに基づいて生成する。また、全体制御演算部309は画像1405については画像1404の生成に用いたRaw画像Rdと露光1115で得られた画像とに基づいて生成する。さらに、全体制御演算部309は画像1406については画像1405の生成に用いたRaw画像Rdと露光1116で得られた画像に基づいて生成する。   On the other hand, the overall control calculation unit 309 generates the image 1404 based on the Raw image Rd used for generating the image 1403. The overall control calculation unit 309 generates the image 1405 based on the raw image Rd used for generating the image 1404 and the image obtained by the exposure 1115. Further, the overall control calculation unit 309 generates the image 1406 based on the raw image Rd used for generating the image 1405 and the image obtained by the exposure 1116.

図8に示すように、時刻T1104の少し前から時刻T1105の直後までパンニング動作を行った場合、図7に示す例では、画像1204〜画像1206についてはぶれが生じる。一方、図12に示す例では、画像1404〜画像1406においてぶれが生じることがない。   As illustrated in FIG. 8, when the panning operation is performed from slightly before time T1104 to immediately after time T1105, in the example illustrated in FIG. 7, the images 1204 to 1206 are blurred. On the other hand, in the example illustrated in FIG. 12, no blurring occurs in the images 1404 to 1406.

このように、本発明の第2の実施形態では、長秒露光で撮影を行う必要のある被写体を分割露光によって撮影する際、パンニング動作中又はパンニング動作直後であってもぶれのない画像を表示部に表示することができる。その結果、撮影者は容易に画角を合わせることができる。   As described above, in the second embodiment of the present invention, when a subject that needs to be shot with long-second exposure is shot with divided exposure, an image without blurring is displayed even during or immediately after the panning operation. Can be displayed. As a result, the photographer can easily adjust the angle of view.

上述の第2の実施形態では、画像領域毎の加算数を領域数加算マップとして記録する例について説明したが、画素毎の加算数を記録するようにしてもよく、他の手法を用いるようにしてもよい。   In the above-described second embodiment, the example in which the number of additions for each image area is recorded as the area number addition map has been described. However, the number of additions for each pixel may be recorded, and other methods may be used. May be.

なお、上述の実施の形態では、予め撮影者がライブビューモードで撮影する際の露光時間Tvを指定するようにしたが、カメラ撮影モードとしてカメラ長秒撮影に特化したモードを選択して露光時間を間接的に指定するようにしてもよい。さらには、AE(自動露出調整)などによって露光時間Tvを決定するようにしてもよい。   In the above-described embodiment, the exposure time Tv when the photographer shoots in the live view mode is specified in advance. However, the exposure mode is selected by selecting a mode specialized for camera long-time shooting as the camera shooting mode. You may make it designate time indirectly. Further, the exposure time Tv may be determined by AE (automatic exposure adjustment) or the like.

上述の説明から明らかなように、図1に示す例では、全体制御演算部309および動き検出部316が検出手段として機能し、全体制御演算部309が制御手段として機能する。また、全体制御演算部309および撮像信号処理回路307が合成手段として機能する。   As is clear from the above description, in the example shown in FIG. 1, the overall control calculation unit 309 and the motion detection unit 316 function as detection means, and the overall control calculation unit 309 functions as control means. Further, the overall control calculation unit 309 and the imaging signal processing circuit 307 function as a synthesis unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも本発明は実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
A program that realizes one or more functions of the above-described embodiments is supplied to a system or apparatus via a network or a storage medium. The present invention can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

301 レンズ
302 レンズ駆動部
303 メカシャッタ
304 絞り
305 シャッタ・絞り駆動部
306 撮像素子
307 撮像信号処理回路
309 全体制御演算部
311 表示部
316 動き検出部
DESCRIPTION OF SYMBOLS 301 Lens 302 Lens drive part 303 Mechanical shutter 304 Diaphragm 305 Shutter / aperture drive part 306 Imaging element 307 Imaging signal processing circuit 309 Overall control calculation part 311 Display part 316 Motion detection part

Claims (9)

被写体を撮像して得られた画像を連続的に表示部に表示する撮像装置であって、
前記撮像装置の画角の変化を検知する検知手段と、
前記被写体を撮像する際に、前記検知手段によって前記画角の変化が検知されると、前記画角の変化が検知されたフレームよりも前のフレームの画像を前記表示部に表示する制御手段と、
を有することを特徴とする撮像装置。
An imaging device that continuously displays images obtained by imaging a subject on a display unit,
Detecting means for detecting a change in the angle of view of the imaging device;
Control means for displaying an image of a frame before the frame in which the change in the angle of view is detected on the display unit when the change in the angle of view is detected by the detection means when the subject is imaged; ,
An imaging device comprising:
前記制御手段は、前記被写体を撮像する際の露光時間が予め定められた閾値以上である場合に、前記検知手段によって前記画角の変化が検出されると、前記画角の変化が検知されたフレームよりも前のフレームの画像を前記表示部に表示することを特徴とする請求項1に記載の撮像装置。   The control means detects the change in the angle of view when the change in the angle of view is detected by the detection means when the exposure time when the subject is imaged is equal to or greater than a predetermined threshold. The image pickup apparatus according to claim 1, wherein an image of a frame prior to the frame is displayed on the display unit. 前記制御手段は、前記露光時間が前記閾値未満であるか又は前記検知手段によって前記画角の変化が検知されないと、フレームの各々の画像を前記表示部に表示することを特徴とする請求項2に記載の撮像装置。   The control unit displays each image of a frame on the display unit when the exposure time is less than the threshold value or when the change of the angle of view is not detected by the detection unit. The imaging device described in 1. 前記検知手段は、前記画角の変化が予め定められた条件を満たさないと、前記撮像装置に動きがあったとすることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 1 to 3, wherein the detection unit moves the imaging device when the change in the angle of view does not satisfy a predetermined condition. . 前記制御手段は、前記画角の変化が検知されたフレームよりも前のフレームの画像を前記表示部に表示する際に、前記画角の変化に応じて前記表示部に画像を表示することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   The control means displays an image on the display unit according to the change in the angle of view when displaying an image of a frame before the frame in which the change in the angle of view is detected on the display unit. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 複数のフレームを合成して合成画像を得る合成手段を備え、
前記制御手段は、前記検知手段によって前記画角の変化が検知されないと、前記合成手段によって得られた合成画像を前記表示部に表示することを特徴とする請求項2に記載の撮像装置。
Comprising a combining means for combining a plurality of frames to obtain a combined image;
The imaging apparatus according to claim 2, wherein the control unit displays a synthesized image obtained by the synthesizing unit on the display unit when a change in the angle of view is not detected by the detecting unit.
前記制御手段は、前記検知手段によって前記画角の変化が検知された際のフレームを前記合成手段による画像合成に用いないことを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the control unit does not use a frame when the change of the angle of view is detected by the detection unit for image synthesis by the synthesis unit. 被写体を撮像して得られた画像を連続的に表示部に表示する撮像装置の制御方法であって、
前記撮像装置の画角の変化を検知する検知ステップと、
前記被写体を撮像する際に、前記検知ステップで前記画角の変化が検知されると、前記画角の変化が検知されたフレームよりも前のフレームの画像を前記表示部に表示する制御ステップと、
を有することを特徴とする制御方法。
A method for controlling an imaging apparatus that continuously displays images obtained by imaging a subject on a display unit,
A detection step of detecting a change in the angle of view of the imaging device;
A control step of displaying an image of a frame before the frame in which the change in the angle of view is detected on the display unit when the change in the angle of view is detected in the detection step when the subject is imaged; ,
A control method characterized by comprising:
被写体を撮像して得られた画像を連続的に表示部に表示する撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記撮像装置の画角の変化を検知する検知ステップと、
前記被写体を撮像する際に、前記検知ステップで前記画角の変化が検知されると、前記画角の変化が検知されたフレームよりも前のフレームの画像を前記表示部に表示する制御ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an imaging apparatus that continuously displays images obtained by imaging a subject on a display unit,
In the computer provided in the imaging device,
A detection step of detecting a change in the angle of view of the imaging device;
A control step of displaying an image of a frame before the frame in which the change in the angle of view is detected on the display unit when the change in the angle of view is detected in the detection step when the subject is imaged; ,
A control program characterized by causing
JP2016067694A 2016-03-30 2016-03-30 Imaging apparatus, control method and control program of the same Pending JP2017183983A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016067694A JP2017183983A (en) 2016-03-30 2016-03-30 Imaging apparatus, control method and control program of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016067694A JP2017183983A (en) 2016-03-30 2016-03-30 Imaging apparatus, control method and control program of the same

Publications (1)

Publication Number Publication Date
JP2017183983A true JP2017183983A (en) 2017-10-05

Family

ID=60007733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016067694A Pending JP2017183983A (en) 2016-03-30 2016-03-30 Imaging apparatus, control method and control program of the same

Country Status (1)

Country Link
JP (1) JP2017183983A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019073790A1 (en) * 2017-10-10 2019-04-18 キヤノン株式会社 Display control device and control method therefor
JP7059239B2 (en) 2019-11-15 2022-04-25 キヤノン株式会社 Image processing equipment, imaging equipment, image processing methods, programs and recording media

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019073790A1 (en) * 2017-10-10 2019-04-18 キヤノン株式会社 Display control device and control method therefor
JP2019070759A (en) * 2017-10-10 2019-05-09 キヤノン株式会社 Display control device and control method therefor
JP7005261B2 (en) 2017-10-10 2022-02-10 キヤノン株式会社 Display control device and its control method
US11252330B2 (en) 2017-10-10 2022-02-15 Canon Kabushiki Kaisha Display control apparatus and control method therefor
JP7059239B2 (en) 2019-11-15 2022-04-25 キヤノン株式会社 Image processing equipment, imaging equipment, image processing methods, programs and recording media

Similar Documents

Publication Publication Date Title
US9473698B2 (en) Imaging device and imaging method
WO2017045558A1 (en) Depth-of-field adjustment method and apparatus, and terminal
CN110475067B (en) Image processing method and device, electronic equipment and computer readable storage medium
JP2016012811A (en) Imaging apparatus, control method thereof, program and storage medium
JP5343588B2 (en) Imaging device
JP2010147786A (en) Imaging device and image processing method
WO2019124289A1 (en) Device, control method, and storage medium
JP5499853B2 (en) Electronic camera
JP2018061130A (en) Image processing device, image processing method, and program
JP2015230414A (en) Imaging device, control method and program
JP2018037857A (en) Image processing system, image processing method and program
JP2015204470A (en) Imaging apparatus, control method thereof, and program
JP2016028468A (en) Imaging apparatus and control method thereof and program
US11032463B2 (en) Image capture apparatus and control method thereof
JP2017183983A (en) Imaging apparatus, control method and control program of the same
JP2018006828A (en) Imaging apparatus, control method therefor and program
JP6018466B2 (en) Imaging apparatus and control method thereof
JP2018142983A (en) Image processing device and method of controlling the same, program, and storage medium
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP6245847B2 (en) Image processing apparatus and image processing method
JP6294607B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2016208118A (en) Image processing apparatus, image processing method, and program
JP2016032180A (en) Imaging apparatus, control method and program
JP6762843B2 (en) Image processing equipment, image processing methods, and programs
JP2014236244A (en) Image processing system, image processing program, and digital camera