JP5184325B2 - Image capturing apparatus, image capturing apparatus control method, and program - Google Patents

Image capturing apparatus, image capturing apparatus control method, and program Download PDF

Info

Publication number
JP5184325B2
JP5184325B2 JP2008315398A JP2008315398A JP5184325B2 JP 5184325 B2 JP5184325 B2 JP 5184325B2 JP 2008315398 A JP2008315398 A JP 2008315398A JP 2008315398 A JP2008315398 A JP 2008315398A JP 5184325 B2 JP5184325 B2 JP 5184325B2
Authority
JP
Japan
Prior art keywords
image
moving object
region
charge
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008315398A
Other languages
Japanese (ja)
Other versions
JP2010141551A (en
Inventor
和田  哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008315398A priority Critical patent/JP5184325B2/en
Publication of JP2010141551A publication Critical patent/JP2010141551A/en
Application granted granted Critical
Publication of JP5184325B2 publication Critical patent/JP5184325B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、とくにマルチフレーム撮影に適した撮影装置および撮影装置の制御方法並びに撮影装置の制御方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention relates to a photographing apparatus and a photographing apparatus control method particularly suitable for multi-frame photographing, and a program for causing a computer to execute the photographing apparatus control method.

デジタルカメラなどの撮像装置において、シャッタスピードが遅くなり手ブレの影響が強く出るようなシーンでは、適正露光期間よりも短い露光期間で複数回撮影するマルチフレーム撮影を行い、マルチフレーム撮影により取得された複数の画像をそれぞれ位置合わせして合成することにより、手ブレの影響がない画像を得ることができる。   In scenes where the shutter speed is slow and the effects of camera shake are strong in an imaging device such as a digital camera, multi-frame shooting is performed multiple times with an exposure period shorter than the appropriate exposure period, and is acquired by multi-frame shooting. In addition, by aligning and synthesizing a plurality of images, an image free from the influence of camera shake can be obtained.

このようなマルチフレーム撮影において、撮影装置のブレ量に応じて露光時間を制御して複数回の撮影を行うことにより、複数の画像を取得する手法が提案されている(特許文献1参照)。また、複数の画像を同時に読み出し、合成する際のゲインを、複数の画像に含まれる動体の動きに応じて制御する手法も提案されている(特許文献2参照)。また、撮影装置にCMOSのような部分的に電荷を読み出し可能な撮像素子を使用し、撮像素子からの電荷の読み出しを行うに際し、高速画面レートにて読み出しを行う場合には、撮像素子の中央部分の領域のみから電荷の読み出しを行い、通常画面レートにて読み出しを行う場合には、撮像素子の全領域からの電荷の読み出しを行う手法が提案されている(特許文献3参照)。
特開2003−32540号公報 特開平5−37851号公報 特開平11−103412号公報
In such multi-frame shooting, a technique has been proposed in which a plurality of images are acquired by performing a plurality of shootings by controlling the exposure time in accordance with the amount of blur of the shooting apparatus (see Patent Document 1). There has also been proposed a method of controlling the gain when simultaneously reading and combining a plurality of images according to the motion of a moving object included in the plurality of images (see Patent Document 2). In addition, when an image pickup device such as a CMOS that can partially read out charges is used in the photographing apparatus, and when reading out charges from the image pickup device, when reading at a high screen rate, the center of the image pickup device is used. In the case where charges are read from only a partial area and are read at a normal screen rate, a method of reading charges from the entire area of the image sensor has been proposed (see Patent Document 3).
Japanese Patent Laid-Open No. 2003-32540 Japanese Patent Laid-Open No. 5-37851 Japanese Patent Application Laid-Open No. 11-10312

上記特許文献1,2に記載された手法は、撮影装置に使用されている撮像素子の全領域から電荷を読み出しているため、フレームレートが遅くなる。このようにフレームレートが遅くなると、動体に対する動きの追従が悪くなるため、動体の残像が長くなり、その結果、合成画像の画質が低下する。また、撮像素子から複数回電荷を読み出しているため、とくに撮像素子がCMOSのようなノイズの残留性があるものを使用すると、電荷を読み出す毎に電荷に残留ノイズが存在することとなる。したがって、複数の画像を重ね合わせることにより合成した場合、ノイズが重ね合わせられるため、ノイズが目立ってしまうという問題がある。一方、特許文献3に記載された手法は、高速画面レートにて読み出しを行う場合には、フレームレートを速くすることができるが、撮像素子の中央部分のみからしか電荷を読み出さないため、取得される画像の画角が狭くなる。   The methods described in Patent Documents 1 and 2 read out charges from the entire area of the image sensor used in the imaging apparatus, and therefore the frame rate is slow. When the frame rate is thus reduced, the tracking of the motion with respect to the moving object becomes worse, and the afterimage of the moving object becomes longer. As a result, the image quality of the composite image decreases. In addition, since the charge is read from the image sensor a plurality of times, especially when the image sensor has a noise persistence such as CMOS, there is residual noise in the charge every time the charge is read. Therefore, when combining a plurality of images by superimposing, noise is superimposed, and therefore, there is a problem that the noise becomes conspicuous. On the other hand, the method described in Patent Document 3 can increase the frame rate when reading is performed at a high screen rate, but is acquired because the charge is read only from the central portion of the image sensor. The angle of view of the image to be narrowed.

本発明は上記事情に鑑みなされたものであり、マルチフレーム撮影により取得された画像の高画質化を図ることを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to improve the image quality of an image acquired by multiframe shooting.

本発明による撮影装置は、被写体像を光電変換して画像信号を取得する撮像素子と、
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得し、前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得するよう前記撮像素子を制御する撮像制御手段とを備えたことを特徴とするものである。
An imaging device according to the present invention includes an image sensor that photoelectrically converts a subject image to obtain an image signal;
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. The plurality of first image signals are acquired, and when the predetermined time is reached, the image sensor is controlled to acquire the second image signal by reading out charges from the entire area of the image sensor. The image pickup control means is provided.

「動体領域」とは、撮像素子における画像の撮像領域のうち、撮像時の撮像素子に対して相対的に動いている被写体が撮像されている領域を意味するものとする。なお、動体領域は、動体のみの領域であってもよく、動体を囲む所定範囲の領域であってもよい。   The “moving object region” means a region where a subject moving relatively with respect to the image pickup device at the time of image pickup is picked up among the image pickup regions of the image pickup device. Note that the moving object region may be a region only of the moving object, or may be a region in a predetermined range surrounding the moving object.

なお、本発明による撮影装置においては、前記露光開始前に前記撮像素子が取得した画像信号により表される画像に基づいて、前記動体の位置を検出するとともにその移動位置を予測する動体検出手段をさらに備えるものとし、
前記撮像制御手段を、前記動体の位置および前記移動位置に基づいて、前記動体領域のみからの前記電荷の読み出しを行うよう前記撮像素子を制御する手段としてもよい。
In the photographing apparatus according to the present invention, a moving object detection unit that detects the position of the moving object and predicts the moving position based on an image represented by an image signal acquired by the imaging element before the start of the exposure. We shall prepare further,
The imaging control means may be means for controlling the imaging element so as to read out the electric charge only from the moving body region based on the position of the moving body and the moving position.

「露光開始前」とは、レリーズボタンが押下されることにより、合成画像を生成するための第1および第2の画像を取得する前を意味する。具体的には、撮影前にモニタにスルー画像が表示されている状態を意味する。   “Before the start of exposure” means before the first and second images for generating the composite image are acquired by pressing the release button. Specifically, it means a state in which a through image is displayed on the monitor before shooting.

また、本発明による撮影装置においては、前記撮像制御手段を、前記動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、該次の動体領域を含む領域から読み出した電荷を破棄して前記第1の画像信号を取得するよう前記撮像素子を制御する手段としてもよい。   In the imaging apparatus according to the present invention, the imaging control unit reads the charge from an area including the next moving body area where the charge is read next time, when the charge is read from the moving body area once. The image sensor may be controlled so as to obtain the first image signal by discarding the charges read from the area including the moving object area.

また、本発明による撮影装置においては、前記撮像制御手段を、前記動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、該次の動体領域を含む領域から読み出した電荷とともに前記第1の画像信号を取得するよう前記撮像素子を制御する手段としてもよい。   In the imaging apparatus according to the present invention, the imaging control unit reads the charge from an area including the next moving body area where the charge is read next time, when the charge is read from the moving body area once. The image sensor may be controlled to acquire the first image signal together with the electric charge read from the region including the moving body region.

「次回に電荷を読み出す次の動体領域を含む領域」は、次の動体領域のみを含む領域であってもよく、次の動体領域およびそれ以外の領域を含む領域であってもよい。例えば、次の動体領域のみを含む領域の場合、電荷の読み出しは、電荷読み出しの対象となる動体領域および次の動体領域から行われる。また、次の動体領域以外の領域を含む領域の場合、電荷を読み出す領域を、電荷読み出しの対象となる動体領域および次の動体領域の双方を囲むような領域とすることができる。とくに電荷を読み出す領域を矩形領域とすることにより、撮像素子からの電荷の読み出しを簡易に行うことができる。   The “region including the next moving body region where the charge is read next time” may be a region including only the next moving body region, or may be a region including the next moving body region and other regions. For example, in the case of a region including only the next moving body region, the reading of charges is performed from the moving body region and the next moving body region that are targets of charge reading. In the case of a region including a region other than the next moving body region, the region from which the charge is read can be a region that surrounds both the moving body region to be read and the next moving body region. In particular, it is possible to easily read out charges from the image sensor by making the area from which charges are read out a rectangular area.

また、本発明による撮影装置においては、前記複数の第1の画像信号により表される複数の第1の画像、および前記第2の画像信号により表される第2の画像を合成して合成画像を生成する合成手段をさらに備えるものとしてもよい。   In the photographing apparatus according to the present invention, a plurality of first images represented by the plurality of first image signals and a second image represented by the second image signals are synthesized to form a composite image. It is also possible to further include a synthesis means for generating

また、本発明による撮影装置においては、前記複数の第1の画像および前記第2の画像における各画素の露光時間に応じて、前記第1の画像および前記第2の画像の明るさを補正する明るさ補正手段をさらに備えるものとし、
前記合成手段を、前記明るさ補正が行われた後の前記複数の第1の画像および前記第2の画像を合成して前記合成画像を生成する手段としてもよい。
In the photographing apparatus according to the present invention, the brightness of the first image and the second image is corrected according to the exposure time of each pixel in the plurality of first images and the second image. It further includes brightness correction means,
The synthesizing unit may be a unit that generates the synthesized image by synthesizing the plurality of first images and the second image after the brightness correction is performed.

本発明による撮影装置の制御方法は、被写体像を光電変換して画像信号を取得する撮像素子を備えた撮影装置の制御方法であって、
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得し、
前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得することを特徴とするものである。
A method for controlling a photographing apparatus according to the present invention is a method for controlling a photographing apparatus including an imaging element that photoelectrically converts a subject image to obtain an image signal,
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. Obtaining a plurality of first image signals;
When the predetermined time is reached, the second image signal is obtained by reading out charges from the entire area of the image sensor.

なお、本発明による撮影装置の制御方法をコンピュータに実行させるためのプログラムとして提供してもよい。   In addition, you may provide as a program for making a computer perform the control method of the imaging device by this invention.

本発明によれば、露光開始から露光時間が所定の時間に達するまで、撮像素子における被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しが、動体領域の移動に対応して繰り返し行われて複数の第1の画像信号が取得され、所定の時間に達したときに、撮像素子における全領域からの電荷の読み出しが行われて第2の画像信号が取得される。このように本発明によれば、撮像素子における動体に対応する動体領域のみから繰り返し電荷が読み出されるため、撮像素子の全領域から電荷を読み出す場合と比較して、第1の画像信号の取得時には、フレームレートを速くすることができる。このため、第1の画像信号により表される第1の画像に動体の残像が発生することが少なくなり、その結果、合成画像に含まれる動体を、残像のない高画質なものとすることができる。一方、第2の画像信号は、露光時間が所定の時間に達したときに一度のみ取得されることから、フレームレートには影響を与えない。また、第2の画像信号は一度のみ取得されるため、撮像素子の残留ノイズの影響が少ないものとなっている。したがって、複数の第1の画像および第2の画像を合成することにより取得される合成画像の高画質化を図ることができる。また、第2の画像信号は撮像素子の全領域から読み出した電荷を用いているため、合成画像の画角が狭くなることもなくなる。   According to the present invention, until the exposure time reaches a predetermined time from the start of exposure, the reading of charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor is repeated corresponding to the movement of the moving object region. A plurality of first image signals are acquired, and when a predetermined time is reached, the charge is read from the entire area of the image sensor and the second image signal is acquired. As described above, according to the present invention, the charge is repeatedly read from only the moving object region corresponding to the moving object in the image sensor, and therefore, when the first image signal is acquired as compared with the case of reading the charge from the entire region of the image sensor. The frame rate can be increased. For this reason, the afterimage of the moving object is less likely to occur in the first image represented by the first image signal, and as a result, the moving object included in the composite image has a high image quality without an afterimage. it can. On the other hand, since the second image signal is acquired only once when the exposure time reaches a predetermined time, the frame rate is not affected. Further, since the second image signal is acquired only once, the influence of residual noise of the image sensor is small. Therefore, it is possible to improve the image quality of a composite image obtained by combining a plurality of first images and second images. Further, since the second image signal uses charges read from the entire area of the image sensor, the angle of view of the composite image is not reduced.

また、動体の位置およびその移動位置を予測し、動体の位置およびその移動位置に基づいて、動体領域からの電荷の読み出しを行うことにより、第1の画像信号により表される第1の画像を、確実に動体を含むものとすることができる。   In addition, by predicting the position of the moving object and its moving position, and reading out charges from the moving object region based on the position of the moving object and its moving position, the first image represented by the first image signal is obtained. The moving object can be surely included.

また、動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、次の動体領域から読み出した電荷を破棄して第1の画像信号を取得することにより、動体領域の露光時間を同一とすることができる。このため、合成画像の生成時における第1の画像の明るさを補正しなくてもよいか、または明るさ補正処理を簡易なものとすることができるため、明るさ補正処理を高速に行うことができる。   Further, at the time of reading the charge once from the moving object region, the charge is also read from the region including the next moving object region where the charge is read next time, the charge read from the next moving object region is discarded, and the first image signal is obtained. By acquiring, the exposure time of a moving body area | region can be made the same. For this reason, it is not necessary to correct the brightness of the first image at the time of generating the composite image, or the brightness correction process can be simplified, so that the brightness correction process is performed at high speed. Can do.

また、動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、次の動体領域から読み出した電荷とともに第1の画像信号を取得することにより、動体領域の露光時間を同一とすることができる。このため、合成画像の生成時における第1の画像の明るさを補正しなくてもよいか、または明るさ補正処理を簡易なものとすることができるため、明るさ補正処理を高速に行うことができる。また、読み出した電荷を有効に利用することができるため、合成画像の生成時における明るさの補正の程度を少なくすることができ、その結果、合成画像の画質をより向上させることができる。   Further, at the time of reading the charge once from the moving object region, the charge is read also from the region including the next moving object region where the charge is read next time, and the first image signal is acquired together with the charge read from the next moving object region. Thus, the exposure time of the moving object region can be made the same. For this reason, it is not necessary to correct the brightness of the first image at the time of generating the composite image, or the brightness correction process can be simplified, so that the brightness correction process is performed at high speed. Can do. Further, since the read charges can be used effectively, the degree of brightness correction at the time of generating the composite image can be reduced, and as a result, the image quality of the composite image can be further improved.

以下、図面を参照して本発明の実施形態について説明する。図1および図2は本発明の実施形態による撮影装置を適用したデジタルカメラ1の外観を示す図である。図1および図2に示すように、このデジタルカメラ1の上部には、レリーズボタン2、電源ボタン3およびズームレバー4が備えられている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. 1 and 2 are views showing the appearance of a digital camera 1 to which a photographing apparatus according to an embodiment of the present invention is applied. As shown in FIGS. 1 and 2, a release button 2, a power button 3, and a zoom lever 4 are provided on the top of the digital camera 1.

レリーズボタン2は、2段階の押下により2種類の動作を指示できる構造となっている。例えば、自動露出調整機能(AE:Auto Exposure)、自動焦点調節機能(AF:Auto Focus)を利用した撮影では、デジタルカメラ1は、レリーズボタン2が軽く押下される第1の押下操作(半押しともいう)がなされたときに、露出調整、焦点合わせ等の撮影準備を行う。その状態で、レリーズボタン2が強く押下される第2の押下操作(全押しともいう)がなされると、デジタルカメラ1は露光を開始し、露光により得られた1画面分の画像データを記録メディアに記録する。   The release button 2 has a structure in which two types of operations can be instructed by pressing in two steps. For example, in shooting using an automatic exposure adjustment function (AE: Auto Exposure) and an automatic focus adjustment function (AF: Auto Focus), the digital camera 1 performs a first pressing operation (half-pressing) in which the release button 2 is lightly pressed. (Also called exposure), preparation for shooting such as exposure adjustment and focusing is performed. In this state, when a second pressing operation (also referred to as full pressing) in which the release button 2 is strongly pressed is performed, the digital camera 1 starts exposure and records image data for one screen obtained by the exposure. Record on media.

デジタルカメラ1の背面には、液晶等のモニタ5、撮影モード等の設定に利用されるモードダイヤル6、および後各種操作ボタン8が備えられている。なお、本実施形態においては、撮影を行う撮影モード、および記録メディアに記録された画像をモニタ5に再生する再生モード等を設定可能とされている。また、撮影モードとしては通常の撮影を行うための通常撮影モードの他、マルチフレーム撮影を行うためのマルチフレームモードが設定可能とされている。   On the back of the digital camera 1, a monitor 5 such as a liquid crystal, a mode dial 6 used for setting a shooting mode, and various operation buttons 8 are provided. In the present embodiment, it is possible to set a shooting mode for shooting, a playback mode for playing back an image recorded on a recording medium on the monitor 5, and the like. In addition to the normal shooting mode for performing normal shooting, the multi-frame mode for performing multi-frame shooting can be set as the shooting mode.

次いで、デジタルカメラ1の内部構成について説明する。図3は本発明の実施形態による撮影装置を適用したデジタルカメラの内部構成を示す概略ブロック図である。図3に示すように本実施形態による撮影装置を適用したデジタルカメラ1は、撮像系9を有する。   Next, the internal configuration of the digital camera 1 will be described. FIG. 3 is a schematic block diagram showing an internal configuration of a digital camera to which the photographing apparatus according to the embodiment of the present invention is applied. As shown in FIG. 3, the digital camera 1 to which the photographing apparatus according to the present embodiment is applied has an imaging system 9.

撮像系9は、被写体にピントを合わせるためのフォーカスレンズ10aおよびズーム機能を実現するためのズームレンズ10bからなる撮影レンズ10を有する。各々のレンズは、モータとモータドライバとからなるフォーカスレンズ駆動部11およびズームレンズ駆動部12によって光軸方向に移動可能である。フォーカスレンズ駆動部11は、後述するAF処理部28からの指示に基づいて、ズームレンズ駆動部12はズームレバー4の操作に応じたCPU40からの指示に基づいて、各々のレンズの移動を制御する。   The imaging system 9 includes a photographing lens 10 including a focus lens 10a for focusing on a subject and a zoom lens 10b for realizing a zoom function. Each lens can be moved in the optical axis direction by a focus lens driving unit 11 and a zoom lens driving unit 12 each including a motor and a motor driver. The focus lens driving unit 11 controls the movement of each lens based on an instruction from the AF processing unit 28 described later, and the zoom lens driving unit 12 based on an instruction from the CPU 40 according to the operation of the zoom lever 4. .

絞り14は、複数の絞り羽根からなる。絞り駆動部15は、ステッピングモータ等小型のモータで、AE処理部29から出力される絞り値データに応じて、絞りの開口サイズが目的に適ったサイズになるように絞り羽根の位置を調整する。   The diaphragm 14 includes a plurality of diaphragm blades. The aperture drive unit 15 is a small motor such as a stepping motor, and adjusts the position of the aperture blade so that the aperture size of the aperture becomes a size suitable for the purpose according to the aperture value data output from the AE processing unit 29. .

シャッタ16はメカニカルシャッタであり、シャッタ駆動部17によって駆動される。シャッタ駆動部17は、レリーズボタンの押下により発生する信号と、AE処理部29から出力されるシャッタスピードデータとに応じて、シャッタ16の開閉の制御を行う。   The shutter 16 is a mechanical shutter and is driven by a shutter driving unit 17. The shutter drive unit 17 controls the opening and closing of the shutter 16 according to a signal generated by pressing the release button and the shutter speed data output from the AE processing unit 29.

シャッタ16の後方には撮像素子18を有している。本実施形態においては、CMOSタイプの撮像素子18を用いるものとする。撮像素子18は、多数の受光素子を2次元的に配列した光電面を有しており、撮影レンズ10等の光学系を通過した被写体光がこの光電面に結像し、光電変換される。光電面の前方には、各画素に光を集光するためのマイクロレンズアレイと、R,G,B各色のフィルタが規則的に配列されたカラーフィルタアレイとが配置されている。撮像素子18は、撮像素子制御部19から供給される読み出し信号に同期して、画素毎に蓄積された電荷を1画素ずつアナログ撮影信号として出力する。なお、各画素において電荷の蓄積を開始してから電荷を読み出すまでの時間、すなわち電子シャッタのシャッタスピードは、撮像素子制御部19から与えられる電子シャッタ駆動信号によって決定される。この露光時間は、後述するAE処理部29により設定される。また、撮像素子18は撮像素子制御部19により、あらかじめ定められた大きさのアナログ撮像信号が得られるようにゲインが調整されている。   An image sensor 18 is provided behind the shutter 16. In the present embodiment, it is assumed that a CMOS type image sensor 18 is used. The imaging element 18 has a photoelectric surface in which a large number of light receiving elements are two-dimensionally arranged, and subject light that has passed through an optical system such as the photographing lens 10 forms an image on the photoelectric surface and is subjected to photoelectric conversion. In front of the photocathode, a microlens array for condensing light on each pixel and a color filter array in which filters of R, G, and B colors are regularly arranged are arranged. The image sensor 18 outputs the electric charge accumulated for each pixel as an analog photographing signal one pixel at a time in synchronization with the readout signal supplied from the image sensor controller 19. The time from the start of charge accumulation in each pixel until the charge is read out, that is, the shutter speed of the electronic shutter, is determined by the electronic shutter drive signal supplied from the image sensor control unit 19. This exposure time is set by an AE processing unit 29 described later. The gain of the image sensor 18 is adjusted by the image sensor control unit 19 so that an analog image signal having a predetermined size can be obtained.

撮像素子18から読み出されたアナログ撮影信号は、アナログフロントエンド(AFE)20に入力される。AFE20は、アナログ信号のノイズを除去する相関2重サンプリング回路(CDS)と、アナログ信号のゲインを調節するオートゲインコントローラ(AGC)と、アナログ信号をデジタル信号に変換するA/Dコンバータ(ADC)とからなる。このデジタル信号に変換された画像データは、画素毎にR,G,Bの濃度値を持つRAWデータである。   The analog photographing signal read from the image sensor 18 is input to an analog front end (AFE) 20. The AFE 20 includes a correlated double sampling circuit (CDS) that removes noise from the analog signal, an auto gain controller (AGC) that adjusts the gain of the analog signal, and an A / D converter (ADC) that converts the analog signal into a digital signal. It consists of. The image data converted into the digital signal is RAW data having R, G, and B density values for each pixel.

タイミングジェネレータ21は、同期信号を発生させるものであり、このタイミング信号をシャッタ駆動部17、撮像素子制御部19、およびAFE20に供給することにより、レリーズボタンの操作、シャッタ16の開閉、撮像素子18からの電荷の読み出し、およびAFE20の処理の同期をとっている。   The timing generator 21 generates a synchronization signal. By supplying this timing signal to the shutter drive unit 17, the image sensor control unit 19, and the AFE 20, the release button is operated, the shutter 16 is opened and closed, and the image sensor 18. The readout of the charges from the AFE 20 and the processing of the AFE 20 are synchronized.

また、デジタルカメラ1は撮影時において必要なときに発光されるフラッシュ24を有する。フラッシュ24は、発光制御部23によりその発光が制御される。   In addition, the digital camera 1 has a flash 24 that emits light when necessary during photographing. The light emission of the flash 24 is controlled by the light emission control unit 23.

また、デジタルカメラ1は、AFE20が出力した画像データをデータバス41を介して他の処理部に転送する画像入力コントローラ25、および画像入力コントローラ25から転送された画像データを一時記憶するフレームメモリ26を備える。   The digital camera 1 also has an image input controller 25 that transfers the image data output from the AFE 20 to another processing unit via the data bus 41, and a frame memory 26 that temporarily stores the image data transferred from the image input controller 25. Is provided.

フレームメモリ26は、画像データに対して後述の各種処理を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。   The frame memory 26 is a working memory used when performing various processes described later on image data. For example, an SDRAM (Synchronous Dynamic Random Access Memory) that performs data transfer in synchronization with a bus clock signal having a constant period. Is used.

表示制御部27は、フレームメモリ26に格納された画像データをスルー画像としてモニタ5に表示させたり、再生モード時に記録メディア34に保存されている画像をモニタ5に表示させたりするためのものである。なお、スルー画像は、撮影モードが選択されている間、タイミングジェネレータ21が発生する同期信号に同期して、所定時間間隔で撮像系9により撮影される。   The display control unit 27 displays the image data stored in the frame memory 26 on the monitor 5 as a through image, or displays the image stored on the recording medium 34 on the monitor 5 in the reproduction mode. is there. The through image is captured by the imaging system 9 at predetermined time intervals in synchronization with the synchronization signal generated by the timing generator 21 while the imaging mode is selected.

AF処理部28およびAE処理部29は、プレ画像に基づいて撮影条件を決定する。このプレ画像とは、レリーズボタンが半押しされることによって発生する半押し信号を検出したCPU40が撮像素子18にプレ撮影を実行させた結果、フレームメモリ26に格納された画像データにより表される画像である。   The AF processing unit 28 and the AE processing unit 29 determine shooting conditions based on the pre-image. The pre-image is represented by image data stored in the frame memory 26 as a result of the CPU 40 having detected a half-press signal generated by half-pressing the release button causing the image sensor 18 to perform pre-photographing. It is an image.

AF処理部28は、プレ画像に基づいてフォーカスレンズ10aの合焦位置を検出する。合焦位置の検出方式としては、例えば、所望とする被写体にピントが合った状態では画像のコントラストが高くなるという特徴を利用して合焦位置を検出するTTL方式を用いる。   The AF processing unit 28 detects the in-focus position of the focus lens 10a based on the pre-image. As a method for detecting the in-focus position, for example, a TTL method for detecting the in-focus position using the feature that the contrast of the image is high when the desired subject is in focus is used.

AE処理部29は、プレ画像に基づいて被写体輝度を測定し、測定した被写体輝度に基づいて絞り値およびシャッタスピードを露出設定値として設定して出力する(AE処理)。具体的には、測光方式が分割測光の場合、プレ画像を例えば8×8の64の測光領域に分割し、各領域の明るさおよびあらかじめ定められて後述する内部メモリ35に記憶されたプログラム線図に基づいて、シャッタスピードおよび絞り値を設定する。なお、測光方式が中央重点測光またはスポット測光の場合には、中央部分の領域または定められた領域の明るさに基づいて、シャッタスピードおよび絞り値を設定する。   The AE processing unit 29 measures the subject brightness based on the pre-image, and sets and outputs the aperture value and the shutter speed as the exposure set value based on the measured subject brightness (AE process). Specifically, when the metering method is divided metering, the pre-image is divided into 64 × 8 metering areas, for example, 8 × 8, and the brightness of each area and the program lines determined in advance and stored in the internal memory 35 described later. Based on the figure, the shutter speed and aperture value are set. When the metering method is center-weighted metering or spot metering, the shutter speed and the aperture value are set based on the brightness of the central area or the predetermined area.

ここで、本実施形態によるデジタルカメラ1においては、通常撮影モードに設定されている場合には、1回のレリーズボタンの全押し操作に応じて、1回の露光により、撮像素子18から1回電荷を読み出す撮影を行う。一方、マルチフレームモードに設定されている場合には、通常1回の電荷の読み出しを行うところを、露光期間中複数回に分割して電荷の読み出しを行い、各回において読み出した電荷にそれぞれ対応する複数の画像を取得する。なお、複数の画像は後述するように合成されて合成画像が生成される。なお、マルチフレームモードでは、AE処理部29は、プレ画像に基づいて設定したシャッタスピード、すなわち露光時間(T0とする)に基づいて、分割後の露光時間すなわち電荷の読み出し間隔(Tとする)および読み出し回数nを設定する。   Here, in the digital camera 1 according to the present embodiment, when the normal shooting mode is set, one exposure is performed once from the image sensor 18 in response to a full pressing operation of the release button. Shooting to read out the charge. On the other hand, when the multi-frame mode is set, the charge reading is usually performed once in a plurality of times during the exposure period, and the charge is read at each time. Acquire multiple images. Note that a plurality of images are combined as described later to generate a combined image. In the multi-frame mode, the AE processing unit 29 sets the exposure time after division, that is, the charge readout interval (T) based on the shutter speed set based on the pre-image, that is, the exposure time (T0). And the number of times of reading n is set.

なお、通常撮影モードによる撮影時においては、AE処理部29が設定したシャッタスピードによりシャッタ16が開放して撮像素子18がシャッタスピードに対応する露光時間T0露光されて1回の電荷の読み出しが行われる。一方、マルチフレームモードによる撮影時においては、レリーズボタンの押下後、設定された読み出し回数nの電荷の読み出しが行われるまでの間シャッタ16は開放とされ、その間、設定された露光時間Tの間隔により撮像素子18から繰り返し電荷が読み出されて、複数の画像が取得される。   During shooting in the normal shooting mode, the shutter 16 is opened at the shutter speed set by the AE processing unit 29, and the image sensor 18 is exposed for an exposure time T0 corresponding to the shutter speed, and one charge is read out. Is called. On the other hand, at the time of shooting in the multi-frame mode, the shutter 16 is opened after the release button is pressed until the charge is read for the set number of times of reading n, and the interval of the set exposure time T during that time. As a result, the charge is repeatedly read from the image sensor 18 to obtain a plurality of images.

また、本実施形態においては、マルチフレームモード時においては、後述するように検出された動体の位置および予測された動体の移動位置に対応する動体領域のみから電荷が読み出される。また、最後の電荷の読み出し時には、撮像素子18の全領域から電荷が読み出される。なお、具体的な電荷の読み出しについては後述する。   In the present embodiment, in the multi-frame mode, charges are read out only from the moving object region corresponding to the detected moving object position and the predicted moving object movement position, as will be described later. In addition, when reading the last charge, the charge is read from the entire area of the image sensor 18. Specific charge readout will be described later.

AWB処理部30は、撮影時のホワイトバランスを自動調整する(AWB処理)。   The AWB processing unit 30 automatically adjusts the white balance at the time of shooting (AWB processing).

画像処理部31は、本画像の画像データに対して、明るさ補正、階調補正、シャープネス補正、および色補正等の画質補正処理、並びにRAWデータを輝度信号であるYデータと、青色色差信号であるCbデータおよび赤色色差信号であるCrデータとからなるYCデータに変換するYC処理を行う。この本画像とは、レリーズボタンが全押しされることによって実行される本撮影により撮像素子18から取り込まれ、AFE20、画像入力コントローラ25経由でフレームメモリ26に格納された画像データにより表される画像である。また、画像処理部31は、後述するマルチフレームモードの撮影により取得された画像に対して、露光時間に応じた明るさ補正処理を行う。   The image processing unit 31 performs image quality correction processing such as brightness correction, gradation correction, sharpness correction, and color correction on the image data of the main image, and Y data that is RAW data as luminance signals and a blue color difference signal. YC processing is performed for conversion into YC data consisting of Cb data that is and Cr data that is a red color difference signal. The main image is an image represented by image data that is captured from the image sensor 18 by main shooting executed when the release button is fully pressed and is stored in the frame memory 26 via the AFE 20 and the image input controller 25. It is. In addition, the image processing unit 31 performs brightness correction processing according to the exposure time on an image acquired by shooting in a multi-frame mode to be described later.

圧縮/伸長処理部32は、画像処理部31によって処理が行われた本画像の画像データに対して、例えば、JPEG等の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルには、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付加される。   The compression / decompression processing unit 32 performs a compression process on the image data of the main image processed by the image processing unit 31 in a compression format such as JPEG, and generates an image file. A tag storing incidental information such as shooting date and time is added to the image file based on the Exif format or the like.

メディア制御部33は、不図示のメディアスロットルに着脱自在にセットされた記録メディア34にアクセスして、画像ファイルの書き込みと読み込みの制御を行う。   The media control unit 33 accesses a recording medium 34 that is detachably set on a media throttle (not shown), and controls writing and reading of an image file.

内部メモリ35は、デジタルカメラ1において設定される各種定数、ルックアップテーブル、およびCPU40が実行するプログラム等を記憶する。   The internal memory 35 stores various constants set in the digital camera 1, a lookup table, a program executed by the CPU 40, and the like.

また、デジタルカメラ1は、動体検出部36および合成部37を備える。   The digital camera 1 also includes a moving object detection unit 36 and a synthesis unit 37.

動体検出部36は、画像に含まれる動体を検出する。具体的には、マルチフレームモードによる撮影を行う場合に、レリーズボタン押下前に連続して取得される複数のスルー画像の間において動きが大きい画素を求め、その画素からなる領域を動体領域として検出する。例えば、図4に示すように3つのスルー画像G1〜G3が取得された場合、動きが大きい被写体は鳥となる。このため、動体検出部36は鳥を動体として検出する。なお、本実施形態においては、動体のみからなる領域を動体として検出してもよいが、動体を囲む所定範囲の領域を動体として検出してもよい。   The moving object detection unit 36 detects a moving object included in the image. Specifically, when shooting in the multi-frame mode, a pixel having a large movement is obtained between a plurality of through images acquired continuously before the release button is pressed, and an area including the pixel is detected as a moving object area. To do. For example, as shown in FIG. 4, when three through images G1 to G3 are acquired, a subject with a large movement is a bird. For this reason, the moving body detection part 36 detects a bird as a moving body. In the present embodiment, an area composed only of a moving object may be detected as a moving object, but an area in a predetermined range surrounding the moving object may be detected as a moving object.

また、動体検出部36は動体の移動方向および移動速度を検出し、移動方向および移動速度に基づいて、電荷読み出し時の動体の移動位置を推定する。なお、移動方向の算出は、複数のスルー画像を重ね合わせた場合における、互いに対応する動体領域内の画素の移動ベクトルを算出することにより行う。図5は移動ベクトルの算出を説明するための図である。なお、図5においては、図4に示す3つのスルー画像G1〜G3のうち、2つのスルー画像G1,G2を用いて説明する。スルー画像G1,G2においては鳥が動体となるため、図5に示すように、スルー画像G1における鳥のくちばし位置O1は、スルー画像G2においては位置O2に移動する。このため、動体検出部36は、スルー画像の動体に対応する動体領域内における互いに対応する画素について、スルー画像G1,G2における画素位置を求め、画素位置の座標値の差に基づいて、移動ベクトルを算出する。なお、図5において鳥のくちばしの移動ベクトルV0を算出した状態を示している。そして、移動ベクトルの大きさをスルー画像の撮影時間間隔により除算して動体の移動速度を算出する。   The moving object detection unit 36 detects the moving direction and moving speed of the moving object, and estimates the moving position of the moving object at the time of charge reading based on the moving direction and moving speed. Note that the movement direction is calculated by calculating the movement vector of the pixels in the corresponding moving object region when a plurality of through images are superimposed. FIG. 5 is a diagram for explaining the calculation of the movement vector. Note that FIG. 5 will be described using two through images G1 and G2 among the three through images G1 to G3 shown in FIG. Since the bird is a moving body in the through images G1 and G2, as shown in FIG. 5, the beak position O1 of the bird in the through image G1 moves to the position O2 in the through image G2. Therefore, the moving object detection unit 36 obtains pixel positions in the through images G1 and G2 for the pixels corresponding to each other in the moving object region corresponding to the moving object of the through image, and based on the difference between the coordinate values of the pixel positions, the moving vector Is calculated. FIG. 5 shows a state where the movement vector V0 of the bird's beak is calculated. Then, the moving speed of the moving object is calculated by dividing the magnitude of the moving vector by the shooting time interval of the through image.

このように、動体の移動方向および移動速度を算出することにより、マルチフレームモード撮影時における電荷読み出し時の動体の位置を予測することができる。なお、動体検出部36は、検出した動体の位置および予測した移動位置の情報をCPU40に出力する。   Thus, by calculating the moving direction and moving speed of the moving object, it is possible to predict the position of the moving object at the time of charge reading in multi-frame mode imaging. Note that the moving object detection unit 36 outputs information on the detected position of the moving object and the predicted movement position to the CPU 40.

合成部37は、マルチフレームモードの撮影により取得され、明るさが補正された複数の画像を、動体の位置が同じ位置になるように重ね合わせることにより合成して、合成画像を生成する。なお、合成は複数の画像について、動体の位置合わせを行った後に、複数の画像間の対応する画素値を加算することにより行ってもよく、画素値の平均値を算出することにより行ってもよい。ここで、位置合わせは、複数の画像から1つの基準画像を選択し、基準画像に含まれる動体の位置に他の画像における動体の位置が一致するように、他の画像を回転、拡大縮小等、変形することにより行えばよい。   The synthesizing unit 37 synthesizes a plurality of images acquired by shooting in the multi-frame mode and corrected in brightness so that the positions of moving objects are the same position, thereby generating a synthesized image. Note that the composition may be performed by adding the corresponding pixel values between the plurality of images after performing the positioning of the moving object for a plurality of images, or by calculating an average value of the pixel values. Good. Here, alignment is performed by selecting one reference image from a plurality of images and rotating, enlarging or reducing other images so that the position of the moving object in the other image matches the position of the moving object included in the reference image. This can be done by deforming.

CPU40は、レリーズボタン2、操作ボタン8およびAE処理部29等の各種処理部からの信号に応じてデジタルカメラ1の本体各部を制御する。   The CPU 40 controls each part of the main body of the digital camera 1 according to signals from various processing units such as the release button 2, the operation button 8, and the AE processing unit 29.

データバス41は、各種処理部、フレームメモリ26およびCPU40等に接続されており、画像データおよび各種指示等のやり取りを行う。   The data bus 41 is connected to various processing units, the frame memory 26, the CPU 40, and the like, and exchanges image data and various instructions.

次いで、本実施形態において行われる処理について説明する。図6は第1の実施形態において行われる処理を示すフローチャートである。なお、本発明はマルチフレームモードにおける撮影の処理に特徴を有するため、以下に説明する実施形態においては、マルチフレームモードが設定されている場合の処理について説明する。   Next, processing performed in the present embodiment will be described. FIG. 6 is a flowchart showing processing performed in the first embodiment. Since the present invention has a feature in the shooting process in the multi-frame mode, in the embodiment described below, the process when the multi-frame mode is set will be described.

マルチフレームモードに設定後、動体検出部36が動体の位置を検出する(ステップST1)。そして、CPU40はレリーズボタン2が半押しされたか否かを判定し(ステップST2)、ステップST2が否定されるとステップST1に戻る。レリーズボタン2が半押しされると、ステップST2が肯定され、撮像系9がプレ撮影を行い(ステップST3)、AE処理部29がプレ撮影により取得されたプレ画像を用いてAE処理を行う(ステップST4)。これにより、マルチフレームモードの撮影の1回の露光時間Tおよび電荷読み出し回数nが設定される。   After setting to the multi-frame mode, the moving object detection unit 36 detects the position of the moving object (step ST1). Then, the CPU 40 determines whether or not the release button 2 is half-pressed (step ST2), and if step ST2 is negative, the process returns to step ST1. When the release button 2 is half-pressed, step ST2 is affirmed, the imaging system 9 performs pre-shooting (step ST3), and the AE processing unit 29 performs AE processing using the pre-image acquired by pre-shooting (step ST3). Step ST4). As a result, the exposure time T and the number of charge readouts n for one shooting in the multi-frame mode are set.

次いでCPU40はレリーズボタン2が全押しされたか否かの監視を開始し(ステップST5)、ステップST5が肯定されると本撮影を開始し、電荷の読み出し回数を初期値に設定する(i=1、ステップST6)。次いで、CPU40は動体検出部36が検出した動体の位置またはその移動位置の情報に基づいて、撮像素子18における動体に対応する動体領域のみから電荷を読み出す(ステップST7)。   Next, the CPU 40 starts monitoring whether or not the release button 2 has been fully pressed (step ST5). When step ST5 is affirmed, the main photographing is started, and the charge readout count is set to an initial value (i = 1). Step ST6). Next, the CPU 40 reads out charges from only the moving object region corresponding to the moving object in the image sensor 18 based on the position of the moving object detected by the moving object detection unit 36 or the information on the moving position thereof (step ST7).

図7は1回目の電荷の読み出しを説明するための図である。図7に示すようにCPU40は、撮像素子18における動体領域D1に対応する画素のみから電荷を読み出す。なお、図7および以降の説明においては、動体領域を矩形にて示すものとする。ここで、読み出された電荷は、上述したようにデジタルの画像データに変換され、フレームメモリ26に一時的に記憶される。また、動体領域の画素のみから電荷を読み出すことにより取得した画像データにより表される画像を第1の画像G1−iと称する(i=1〜n−1)。なお、1回目の電荷の読み出しにおいては、図7に示すように、撮像素子18における動体領域D1およびそれ以外の領域、すなわち全領域において露光時間は1Tとなる。   FIG. 7 is a diagram for explaining the first charge reading. As shown in FIG. 7, the CPU 40 reads out charges from only the pixels corresponding to the moving body region D <b> 1 in the image sensor 18. In FIG. 7 and the following description, the moving object region is indicated by a rectangle. Here, the read electric charges are converted into digital image data as described above, and are temporarily stored in the frame memory 26. In addition, an image represented by image data acquired by reading out charges from only the pixels of the moving object region is referred to as a first image G1-i (i = 1 to n−1). In the first charge readout, as shown in FIG. 7, the exposure time is 1T in the moving body region D1 and other regions in the image sensor 18, that is, the entire region.

次いで、CPU40は次回の読み出しが最後の読み出しであるか否かを判定し(ステップST8)、ステップST8が否定されると、電荷の読み出し回数を次に設定し(i=i+1,ステップST9)、ステップST7に戻る。なお、ステップST7においては、動体検出部36が予測した動体の移動位置の情報に基づいて、動体領域Diからの電荷の読み出しが行われる。一方、ステップST8が肯定されると、電解の読み出し回を最後の回に設定し(i=n、ステップST10)、撮像素子18の全領域から電荷の読み出しを行う(ステップST11)。これにより第2の画像G2が取得される。   Next, the CPU 40 determines whether or not the next reading is the last reading (step ST8). If the determination in step ST8 is negative, the number of charges read is set next (i = i + 1, step ST9). Return to step ST7. In step ST7, the charge is read from the moving object region Di based on the information on the moving position of the moving object predicted by the moving object detection unit 36. On the other hand, when step ST8 is affirmed, the readout time of electrolysis is set to the last time (i = n, step ST10), and charge is read from the entire area of the image sensor 18 (step ST11). Thereby, the second image G2 is acquired.

図8から図11は、露光回数n=5とした場合における2回目から5回目までの動体領域の位置および撮像素子18の露光時間を示す図である。まず、2回目の電荷の読み出し時には、図8に示すように、動体領域D2から電荷を読み出して第1の画像G1−2を取得する。この際、動体領域D1からは前回において電荷が読み出されているため、動体領域D1の露光時間は1Tとなる。また、動体領域D2において動体領域D1と重なる領域D1′の露光時間は1T、動体領域D2(領域D1′を除く)の露光時間は2T、それ以外の領域の露光時間は2Tとなる。   8 to 11 are diagrams showing the positions of moving object regions and the exposure time of the image sensor 18 from the second time to the fifth time when the number of exposures n = 5. First, at the time of reading the charge for the second time, as shown in FIG. 8, the charge is read from the moving body region D2 to obtain the first image G1-2. At this time, since the charge has been read from the moving object region D1 last time, the exposure time of the moving object region D1 is 1T. Further, in the moving object region D2, the exposure time of the region D1 ′ overlapping with the moving object region D1 is 1T, the exposure time of the moving object region D2 (excluding the region D1 ′) is 2T, and the exposure time of other regions is 2T.

3回目の電荷の読み出し時には、図9に示すように、動体領域D3から電荷を読み出して第1の画像G1−3を取得する。この際、動体領域D1(領域D1′を除く)の露光時間は2T、動体領域D2の露光時間は1Tとなる。また、動体領域D3において動体領域D2と重なる領域D2′の露光時間は1T、動体領域D3(領域D2′を除く)の露光時間は3T、それ以外の領域の露光時間は3Tとなる。   At the time of reading the charge for the third time, as shown in FIG. 9, the charge is read from the moving body region D3 to obtain the first image G1-3. At this time, the exposure time of the moving object region D1 (excluding the region D1 ′) is 2T, and the exposure time of the moving object region D2 is 1T. In the moving body region D3, the exposure time of the region D2 ′ overlapping the moving body region D2 is 1T, the exposure time of the moving body region D3 (excluding the region D2 ′) is 3T, and the exposure time of the other regions is 3T.

4回目の電荷の読み出し時には、図10に示すように、動体領域D4から電荷を読み出して第1の画像G1−4を取得する。この際、動体領域D1(領域D1′を除く)の露光時間は3T、動体領域D2(領域D2′を除く)の露光時間は2T、動体領域D3の露光時間は1Tとなる。また、動体領域D4において動体領域D3と重なる領域D3′の露光時間は1T、動体領域D4(領域D3′を除く)の露光時間は4T、それ以外の領域の露光時間は4Tとなる。   At the time of reading the charge for the fourth time, as shown in FIG. 10, the charge is read from the moving object region D4 to obtain the first image G1-4. At this time, the exposure time of the moving object region D1 (excluding the region D1 ′) is 3T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 2T, and the exposure time of the moving object region D3 is 1T. In the moving body region D4, the exposure time of the region D3 ′ overlapping with the moving body region D3 is 1T, the exposure time of the moving body region D4 (excluding the region D3 ′) is 4T, and the exposure time of other regions is 4T.

5回目の電荷の読み出し時には、図11に示すように、動体領域D5を含む全領域から電荷を読み出して第2の画像G2を取得する。この際、動体領域D1(領域D1′を除く)の露光時間は4T、動体領域D2(領域D2′を除く)の露光時間は3T、動体領域D3(領域D3′を除く)の露光時間は2T、動体領域D4の露光時間は1Tとなる。また、動体領域D5において動体領域D4と重なる領域D4′の露光時間は1T、動体領域D5(領域D4′を除く)の露光時間は5T、それ以外の領域の露光時間は5Tとなる。   When the charge is read for the fifth time, as shown in FIG. 11, the second image G2 is acquired by reading the charge from the entire area including the moving body area D5. At this time, the exposure time of the moving object region D1 (excluding the region D1 ′) is 4T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 3T, and the exposure time of the moving object region D3 (excluding the region D3 ′) is 2T. The exposure time of the moving body region D4 is 1T. In the moving body region D5, the exposure time of the region D4 ′ overlapping the moving body region D4 is 1T, the exposure time of the moving body region D5 (excluding the region D4 ′) is 5T, and the exposure time of the other regions is 5T.

ステップST11に続いて、画像処理部31が第1の画像G1−i(i=n−1)および第2の画像G2に対して明るさ補正処理を含む画像処理を施す(ステップST12)。ここで、図7から図11に示すように、第1の画像G1−iおよび第2の画像G2は、領域内の場所毎に露光時間が異なるため、露光時間に応じて明るさが部分的に異なるものとなっている。このため、画像処理部31は第1の画像G1−iおよび第2の画像G2に対して、露光時間に応じた明るさ補正処理を行う。以下、明るさ補正処理について説明する。なお、ここでは、図7から図11に示すように4つの第1の画像G1−1〜G1−4および第2の画像G2が取得された場合の処理について説明する。   Subsequent to step ST11, the image processing unit 31 performs image processing including brightness correction processing on the first image G1-i (i = n-1) and the second image G2 (step ST12). Here, as shown in FIG. 7 to FIG. 11, the first image G1-i and the second image G2 have different exposure times depending on the exposure time because the exposure time differs for each location in the region. It is different. Therefore, the image processing unit 31 performs brightness correction processing corresponding to the exposure time on the first image G1-i and the second image G2. Hereinafter, the brightness correction process will be described. Here, a process when four first images G1-1 to G1-4 and a second image G2 are acquired as shown in FIGS. 7 to 11 will be described.

まず、第1の画像G1−1は全領域について露光時間が1Tである。ここで、第2の画像G2において最も露光時間が長い領域の露光時間は5Tである。また、第1の画像G1−1は4つ取得されているため、すべての第1の画像G1−iを加算した場合、加算した画像における最大の露光時間は4Tに相当するものとなる。したがって、すべての第1の画像G1−iおよび第2の画像G2を合成した場合、合成画像の最大の露光時間は5Tに相当するものとなる。このため、画像処理部31は、第1の画像G1−1については露光時間が1Tであるため、明るさを補正しない。   First, the first image G1-1 has an exposure time of 1T for the entire region. Here, the exposure time of the region with the longest exposure time in the second image G2 is 5T. In addition, since four first images G1-1 are acquired, when all the first images G1-i are added, the maximum exposure time in the added images is equivalent to 4T. Therefore, when all the first images G1-i and the second image G2 are combined, the maximum exposure time of the combined image is equivalent to 5T. For this reason, the image processing unit 31 does not correct the brightness of the first image G1-1 because the exposure time is 1T.

次に第1の画像G1−2は、動体領域D1と重なる領域D1′に対応する領域の露光時間が1T、それ以外の露光時間は2Tである。このため、画像処理部31は、第1の画像G1−2における領域D1′に対応する領域以外の領域の明るさが1/2となるように明るさ補正処理を行う。これにより、第1の画像G1−2の全領域の明るさが、露光時間1Tの明るさに相当するものとなる。   Next, in the first image G1-2, the exposure time of the area corresponding to the area D1 ′ overlapping the moving object area D1 is 1T, and the other exposure time is 2T. Therefore, the image processing unit 31 performs the brightness correction process so that the brightness of the area other than the area corresponding to the area D1 ′ in the first image G1-2 is halved. As a result, the brightness of the entire area of the first image G1-2 corresponds to the brightness of the exposure time 1T.

次に第1の画像G1−3は、動体領域D2と重なる領域D2′に対応する領域の露光時間が1T、それ以外の露光時間は3Tである。このため、画像処理部31は、第1の画像G1−3における領域D2′に対応する領域以外の領域の明るさが1/3となるように明るさ補正処理を行う。これにより、第1の画像G1−3の全領域の明るさが、露光時間1Tの明るさに相当するものとなる。   Next, in the first image G1-3, the exposure time of the area corresponding to the area D2 ′ overlapping the moving object area D2 is 1T, and the other exposure time is 3T. For this reason, the image processing unit 31 performs the brightness correction process so that the brightness of the area other than the area corresponding to the area D2 ′ in the first image G1-3 becomes 1/3. Thereby, the brightness of the entire region of the first image G1-3 corresponds to the brightness of the exposure time 1T.

次に第1の画像G1−4は、動体領域D3と重なる領域D3′に対応する領域の露光時間が1T、それ以外の露光時間は4Tである。このため、画像処理部31は、第1の画像G1−4における領域D3′に対応する領域以外の領域の明るさが1/4となるように明るさ補正処理を行う。これにより、第1の画像G1−4の全領域の明るさが、露光時間1Tの明るさに相当するものとなる。   Next, in the first image G1-4, the exposure time of the area corresponding to the area D3 ′ overlapping the moving object area D3 is 1T, and the other exposure time is 4T. For this reason, the image processing unit 31 performs the brightness correction process so that the brightness of the area other than the area corresponding to the area D3 ′ in the first image G1-4 becomes ¼. Thereby, the brightness of the entire region of the first image G1-4 corresponds to the brightness of the exposure time 1T.

最後に第2の画像G2については、動体領域D5の露光時間が1Tに、動体領域D1〜D4および領域D1′〜D4′の露光時間が5Tに相当するものとなるように、動体領域D1〜D5および領域D1′〜D4′の明るさを補正する。具体的には、第2の画像G2における動体領域D1(領域D1′を除く)に相当する領域については、露光時間が4Tとなっているため、明るさが5/4倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D2(領域D2′を除く)に相当する領域については、露光時間が3Tとなっているため、明るさが5/3倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D3(領域D3′を除く)に相当する領域については、露光時間が2Tとなっているため、明るさが5/2倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D4に相当する領域については、露光時間が1Tとなっているため、明るさが5倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D5(領域D4′を除く)に相当する領域については、露光時間が5Tであるため、明るさが1/5倍となるように明るさ補正処理を行う。これにより、動体領域D5の明るさが、露光時間1Tの露光に相当するものとなる。さらに、第2の画像G2における動体領域D1〜D5以外の領域については、露光時間が5Tであるため、明るさ補正処理は行わない。   Finally, for the second image G2, the moving object regions D1 to D1 are set so that the exposure time of the moving object region D5 corresponds to 1T, and the exposure times of the moving object regions D1 to D4 and the regions D1 ′ to D4 ′ correspond to 5T. The brightness of D5 and areas D1 'to D4' is corrected. Specifically, since the exposure time is 4T in the region corresponding to the moving object region D1 (excluding the region D1 ′) in the second image G2, the brightness is increased to 5/4 times. Correction processing is performed. In addition, since the exposure time is 3T in the region corresponding to the moving object region D2 (excluding the region D2 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 5/3 times. I do. In addition, since the exposure time is 2T for the area corresponding to the moving object area D3 (excluding the area D3 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 5/2 times. I do. In addition, since the exposure time is 1T for the region corresponding to the moving object region D4 in the second image G2, the brightness correction process is performed so that the brightness becomes five times. Further, since the exposure time is 5T for the area corresponding to the moving object area D5 (excluding the area D4 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 1/5 times. . As a result, the brightness of the moving object region D5 corresponds to the exposure for the exposure time 1T. Furthermore, since the exposure time is 5T for the areas other than the moving object areas D1 to D5 in the second image G2, the brightness correction process is not performed.

次いで、合成部37が、第2の画像G2に含まれる動体と、と第1の画像G1−iに含まれる動体との位置が一致するようにこれらの画像を重ね合わせることにより合成画像を生成する(ステップST13)。これにより、合成画像の全領域の明るさは、露光時間が5Tの明るさに相当するものとなる。   Next, the combining unit 37 generates a combined image by superimposing these images so that the positions of the moving object included in the second image G2 and the moving object included in the first image G1-i coincide with each other. (Step ST13). As a result, the brightness of the entire area of the composite image is equivalent to a brightness with an exposure time of 5T.

そして、圧縮/伸長処理部32が、画像処理が施された合成画像の画像データから画像ファイルを生成し(ステップST14)、メディア制御部33が画像ファイルを記録メディア34に記録し(ステップST15)、処理を終了する。   Then, the compression / decompression processing unit 32 generates an image file from the image data of the composite image subjected to the image processing (step ST14), and the media control unit 33 records the image file on the recording medium 34 (step ST15). The process is terminated.

このように、第1の実施形態によれば、撮像素子18における動体に対応する動体領域のみから繰り返し電荷が読み出されるため、撮像素子18の全領域から電荷を読み出す場合と比較して、第1の画像Gi−1の取得時には、フレームレートを速くすることができる。このため、第1の画像Gi−1に動体の残像が発生することが少なくなり、その結果、合成画像に含まれる動体を、残像のない高画質なものとすることができる。また、第2の画像G2は、最後の露光のときに一度のみ取得されることから、フレームレートには影響を与えない。また、第2の画像G2は一度のみ取得されるため、撮像素子18の残留ノイズの影響を低減することができる。したがって、合成画像の高画質化を図ることができる。また、第2の画像G2は撮像素子18の全領域から読み出した電荷を用いているため、合成画像の画角が狭くなることもなくなる。   As described above, according to the first embodiment, the charge is repeatedly read out only from the moving object region corresponding to the moving object in the image sensor 18, and therefore, compared to the case where the charge is read out from the entire region of the image sensor 18. When acquiring the image Gi-1, the frame rate can be increased. For this reason, the afterimage of the moving object is less likely to occur in the first image Gi-1, and as a result, the moving object included in the composite image can have high image quality without an afterimage. Further, since the second image G2 is acquired only once at the time of the last exposure, the frame rate is not affected. Further, since the second image G2 is acquired only once, it is possible to reduce the influence of residual noise of the image sensor 18. Therefore, high quality of the composite image can be achieved. In addition, since the second image G2 uses charges read from the entire area of the image sensor 18, the angle of view of the composite image is not reduced.

また、動体の位置およびその移動位置を予測し、動体の位置およびその移動位置に基づいて、動体領域からの電荷の読み出しを行っているため、第1の画像Gi−1を、確実に動体を含むものとすることができる。   In addition, since the position of the moving object and its moving position are predicted, and the charge is read from the moving object region based on the position of the moving object and its moving position, the first image Gi-1 is reliably displayed on the moving object. Can be included.

なお、上記第1の実施形態においては、第1の画像G1−iを取得する際に予測された移動位置にある動体領域のみから電荷を読み出しているが、電荷を読み出す動体領域の次に予測される移動位置の動体領域からも併せて電荷を読み出すようにしてもよい。以下これを第2の実施形態として説明する。図12から図16は第2の実施形態における電荷の読み出しを説明するための図である。   In the first embodiment, the charge is read out only from the moving body region at the movement position predicted when the first image G1-i is acquired. The charge may be read out from the moving body region at the moving position. Hereinafter, this will be described as a second embodiment. FIGS. 12 to 16 are diagrams for explaining charge reading in the second embodiment.

まず、1回目の電荷の読み出し時には、図12に示すように、動体領域D1および動体領域D2から同時に電荷を読み出し、さらに動体領域D2における領域D1′以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−1を取得する。なお、撮像素子18における動体領域D1およびそれ以外の領域、すなわちすべての領域において露光時間は1Tとなる。   First, as shown in FIG. 12, at the time of reading the charge for the first time, the charges are simultaneously read from the moving body region D1 and the moving body region D2, and further, the charges read from the region other than the region D1 ′ in the moving body region D2 (shown by hatching). Is discarded and the first image G1-1 is acquired. The exposure time is 1T in the moving body region D1 and other regions in the image sensor 18, that is, in all regions.

次いで、2回目の電荷の読み出し時には、図13に示すように、動体領域D2および動体領域D3から同時に電荷を読み出し、さらに、動体領域D3における領域D2′以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−2を取得する。この際、動体領域D2からは1回目の電荷の読み出し時に電荷が読み出されているため、動体領域D2の露光時間は1Tとなる。また、動体領域D1(領域D1′を除く)の露光時間は1T、それ以外の領域の露光時間は2Tとなる。   Next, at the time of reading the charge for the second time, as shown in FIG. 13, the charges are simultaneously read from the moving object region D2 and the moving object region D3, and further read from the region other than the region D2 ′ in the moving object region D3 (shown by hatching). The charge is discarded and the first image G1-2 is acquired. At this time, since the charge is read from the moving body region D2 at the time of the first charge reading, the exposure time of the moving body region D2 is 1T. Further, the exposure time of the moving body region D1 (excluding the region D1 ′) is 1T, and the exposure time of the other regions is 2T.

次いで、3回目の電荷の読み出し時には、図14に示すように、動体領域D3および動体領域D4から同時に電荷を読み出し、さらに、動体領域D4における領域D3′以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−3を取得する。この際、動体領域D3からは2回目の電荷の読み出し時に電荷が読み出されているため、動体領域D3の露光時間は1Tとなる。また、動体領域D1(領域D1′を除く)の露光時間は2T、動体領域D2(領域D2′を除く)の露光時間は1T、それ以外の領域の露光時間は3Tとなる。   Next, at the time of reading the charge for the third time, as shown in FIG. 14, the charges are simultaneously read from the moving object region D3 and the moving object region D4, and further read from the region other than the region D3 ′ in the moving object region D4 (shown by hatching). The charge is discarded and the first image G1-3 is acquired. At this time, since the charge is read from the moving body region D3 at the time of the second charge reading, the exposure time of the moving body region D3 is 1T. In addition, the exposure time of the moving object region D1 (excluding the region D1 ′) is 2T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 1T, and the exposure time of other regions is 3T.

次いで、4回目の電荷の読み出し時には、図15に示すように、動体領域D4および動体領域D5から同時に電荷を読み出し、さらに、動体領域D5における領域D4′以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−4を取得する。この際、動体領域D4からは3回目の電荷の読み出し時に電荷が読み出されているため、動体領域D4の露光時間は1Tとなる。また、動体領域D1(領域D1′を除く)の露光時間は3T、動体領域D2(領域D2′を除く)の露光時間は2T、動体領域D3(領域D3′を除く)の露光時間は1T、それ以外の領域の露光時間は4Tとなる。   Next, at the time of reading charges for the fourth time, as shown in FIG. 15, charges are simultaneously read from the moving object region D4 and the moving object region D5, and further read from regions other than the region D4 ′ in the moving object region D5 (shown by hatching). The charge is discarded and the first image G1-4 is acquired. At this time, since the charge is read from the moving body region D4 when the charge is read for the third time, the exposure time of the moving body region D4 is 1T. The exposure time of the moving object region D1 (excluding the region D1 ′) is 3T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 2T, and the exposure time of the moving object region D3 (excluding the region D3 ′) is 1T. The exposure time for other areas is 4T.

5回目の電荷の読み出し時には、図16に示すように、動体領域D5を含む全領域から電荷を読み出して第2の画像G2を取得する。この際、動体領域D5からは4回目の電荷の読み出し時に電荷が読み出されているため、動体領域D5の露光時間は1Tとなる。また、動体領域D1(領域D1′を除く)の露光時間は4T、動体領域D2(領域D2′を除く)の露光時間は3T、動体領域D3(領域D3′を除く)の露光時間は2T、動体領域D4(領域D4′を除く)の露光時間は1T、それ以外の領域の露光時間は5Tとなる。   When the charge is read for the fifth time, as shown in FIG. 16, the second image G2 is acquired by reading the charge from the entire area including the moving object area D5. At this time, since the charge is read from the moving body region D5 at the time of the fourth charge reading, the exposure time of the moving body region D5 is 1T. The exposure time of the moving object region D1 (excluding the region D1 ′) is 4T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 3T, and the exposure time of the moving object region D3 (excluding the region D3 ′) is 2T. The exposure time for the moving object region D4 (excluding the region D4 ′) is 1T, and the exposure time for the other regions is 5T.

なお、第2の実施形態における明るさ補正処理は以下のようにして行う。まず、第2の実施形態においては、すべての第1の画像G1−iの露光時間が1Tである。このため、画像処理部31は、すべての第1の画像G1−iの明るさを補正しない。第2の画像G2については、動体領域D5の露光時間が1Tに、動体領域D1〜D4および領域D1′〜D4′の露光時間が5Tに相当するものとなるように、動体領域D1〜D5および領域D1′〜D4′の明るさを補正する。具体的には、第2の画像G2における動体領域D1に相当する領域(領域D1′を除く)については、露光時間が4Tとなっているため、明るさが5/4倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D2(領域D2′を除く)に相当する領域については、露光時間が3Tとなっているため、明るさが5/3倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D3(領域D3′を除く)に相当する領域については、露光時間が2Tとなっているため、明るさが5/2倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D4(領域D4′を除く)に相当する領域については、露光時間が1Tとなっているため、明るさが5倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D5に相当する領域については、露光時間が1Tであるため明るさ補正処理を行わない。さらに、第2の画像G2における動体領域D1〜D5以外の領域については、露光時間が5Tであるため、明るさ補正処理を行わない。   Note that the brightness correction process in the second embodiment is performed as follows. First, in the second embodiment, the exposure time of all the first images G1-i is 1T. For this reason, the image processing unit 31 does not correct the brightness of all the first images G1-i. For the second image G2, the moving object regions D1 to D5 and the moving object regions D1 to D5 and the exposure times of the moving object regions D1 to D4 and the regions D1 ′ to D4 ′ correspond to 5T. The brightness of the areas D1 ′ to D4 ′ is corrected. Specifically, since the exposure time is 4T in the region corresponding to the moving object region D1 in the second image G2 (excluding the region D1 ′), the brightness is increased to 5/4 times. Correction processing is performed. In addition, since the exposure time is 3T in the region corresponding to the moving object region D2 (excluding the region D2 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 5/3 times. I do. In addition, since the exposure time is 2T for the area corresponding to the moving object area D3 (excluding the area D3 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 5/2 times. I do. In addition, since the exposure time is 1T for the region corresponding to the moving object region D4 (excluding the region D4 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 5 times. . In addition, the brightness correction process is not performed on the area corresponding to the moving object area D5 in the second image G2 because the exposure time is 1T. Furthermore, since the exposure time is 5T for the areas other than the moving object areas D1 to D5 in the second image G2, the brightness correction process is not performed.

このように、第2および第3の実施形態においては、動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域からも電荷を読み出し、次の動体領域から読み出した電荷を破棄して第1の画像G1−iを取得しているため、動体領域の露光時間を同一とすることができる。このため、合成画像の生成時における第1の画像G1−iの明るさを補正しなくてもよくなり、これにより、明るさ補正処理を高速に行うことができる。   As described above, in the second and third embodiments, when one charge is read from the moving body region, the charge is read also from the next moving body region where the charge is read next time, and the charge read from the next moving body region is read. Since the first image G1-i is acquired by discarding, the exposure time of the moving object region can be made the same. For this reason, it is not necessary to correct the brightness of the first image G1-i at the time of generating the composite image, and thus the brightness correction process can be performed at high speed.

なお、上記第2の実施形態においては、読み出した電荷を破棄しているが、読み出した電荷をそのまま用いて合成画像を生成するようにしてもよい。以下、これを第3の実施形態として説明する。   In the second embodiment, the read charges are discarded. However, a synthesized image may be generated using the read charges as they are. Hereinafter, this will be described as a third embodiment.

上記第2の実施形態においては、1回目の読み出し時において、動体領域D1および動体領域D2から同時に電荷を読み出し、さらに動体領域D2における領域D1′以外の領域から読み出した電荷を破棄して第1の画像G1−1を取得しているところを、第3の実施形態においては、動体領域D2における領域D1′以外の領域をもそのまま用いて第1の画像G1−1を取得する。また、2回目の読み出し時において、動体領域D2および動体領域D3から同時に電荷を読み出し、さらに動体領域D3における領域D2′以外の領域から読み出した電荷を破棄することなく、動体領域D3における領域D2′以外の領域をもそのまま用いて第1の画像G1−2を取得する。以下、3回目から5回目までの読み出し時も同様にして電荷を破棄することなく、第1の画像G1−1〜G1−4および第2の画像G2を取得する。   In the second embodiment, at the time of the first reading, the charge is simultaneously read from the moving object region D1 and the moving object region D2, and further, the charge read from the region other than the region D1 ′ in the moving object region D2 is discarded. In the third embodiment, the first image G1-1 is acquired using the area other than the area D1 ′ in the moving body area D2 as it is. Further, at the time of the second reading, the charges are simultaneously read from the moving object region D2 and the moving object region D3, and further, the charges read from the regions other than the region D2 ′ in the moving object region D3 are discarded, and the region D2 ′ in the moving object region D3 is discarded. The first image G1-2 is acquired using the other areas as they are. Thereafter, the first image G1-1 to G1-4 and the second image G2 are acquired without discarding the charge in the same manner during the third to fifth readings.

図17は第3の実施形態において取得された第1の画像G1−1〜G1−4を示す図である。図17に示すように第1の画像G1−1〜G1−4においては、それぞれ次回に電荷を読み出す動体領域に対応する画像が付与されたものとなっている。なお、第1の画像G1−4における動体領域D5に相当する部分については、電荷を破棄するものとする。   FIG. 17 is a diagram illustrating first images G1-1 to G1-4 acquired in the third embodiment. As shown in FIG. 17, in the first images G1-1 to G1-4, an image corresponding to the moving object region from which charges are read next time is given. Note that the charge corresponding to the moving object region D5 in the first image G1-4 is discarded.

なお、第3の実施形態における明るさ補正処理および合成は以下のようにして行う。まず、第3の実施形態においては、すべての第1の画像G1−iにおける動体領域に対応する領域の露光時間が1Tである。このため、画像処理部31は、第1の画像G1−iについては明るさを補正しない。また、すべての第1の画像G1−iにおける動体領域に対応する領域以外の領域については、第1の画像G1−iから切り離し、第2の画像G2の対応する位置に重ね合わせる。これにより、第2の画像G2上の各領域の露光時間は図18に示すものに相当するものとなる。   Note that the brightness correction processing and composition in the third embodiment are performed as follows. First, in the third embodiment, the exposure time of the area corresponding to the moving object area in all the first images G1-i is 1T. For this reason, the image processing unit 31 does not correct the brightness of the first image G1-i. In addition, regions other than the region corresponding to the moving object region in all the first images G1-i are separated from the first image G1-i and overlapped with the corresponding positions in the second image G2. Thereby, the exposure time of each region on the second image G2 corresponds to that shown in FIG.

したがって、第2の画像G2における動体領域D1に相当する領域(領域D1′を除く)、動体領域D2に相当する領域(領域D1′、D2′を除く)、動体領域D3に相当する領域(領域D2′、D3′を除く)、動体領域D4に相当する領域(領域D3′、D4′を除く)については、露光時間が4Tとなっているため、明るさが5/4倍となるように明るさ補正処理を行う。また、第2の画像G2における領域D1′、D2′、D3′に相当する領域については、露光時間が3Tとなっているため、明るさが5/3倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D5に相当する領域(領域D4′を除く)については、露光時間が1Tであるため明るさ補正処理を行わない。領域D4′については、ここに第1の画像G1−iが加算されるため、明るさを1/4倍にする明るさ補正処理を行う。さらに、第2の画像G2における動体領域D1〜D5以外の領域については露光時間が5Tであるため、明るさ補正処理は行わない。   Accordingly, in the second image G2, a region corresponding to the moving object region D1 (excluding the region D1 ′), a region corresponding to the moving object region D2 (excluding the regions D1 ′ and D2 ′), and a region corresponding to the moving object region D3 (region). Since the exposure time is 4T in the area corresponding to the moving object area D4 (except for the areas D3 ′ and D4 ′), the brightness is 5/4 times. Perform brightness correction processing. In addition, since the exposure time is 3T for the areas corresponding to the areas D1 ′, D2 ′, and D3 ′ in the second image G2, the brightness correction process is performed so that the brightness becomes 5/3 times. Do. In addition, the brightness correction processing is not performed on the area corresponding to the moving object area D5 (except the area D4 ′) in the second image G2 because the exposure time is 1T. For the region D4 ′, since the first image G1-i is added here, a brightness correction process for increasing the brightness to ¼ is performed. Furthermore, since the exposure time is 5T for the areas other than the moving object areas D1 to D5 in the second image G2, the brightness correction process is not performed.

このように、第3の実施形態においては、動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域からも電荷を読み出し、次の動体領域から読み出した電荷とともに第1の画像G1−iを取得することにより、動体領域の露光時間を同一とすることができる。このため、合成画像の生成時における第1の画像の明るさを補正しなくてもよくなり、これにより、明るさ補正処理を高速に行うことができる。また、読み出した電荷を有効に利用することができるため、合成画像の生成時における明るさの補正の程度を少なくすることができ、その結果、合成画像の画質をより向上させることができる。   As described above, in the third embodiment, when one charge is read from the moving body region, the charge is also read from the next moving body region where the charge is read next time, and the first reading is performed together with the charge read from the next moving body region. By acquiring the image G1-i, the exposure time of the moving object region can be made the same. For this reason, it is not necessary to correct the brightness of the first image at the time of generating the composite image, whereby the brightness correction process can be performed at high speed. Further, since the read charges can be used effectively, the degree of brightness correction at the time of generating the composite image can be reduced, and as a result, the image quality of the composite image can be further improved.

なお、上記第1から第3の実施形態においては、第2の画像G2における最大の露光時間となる領域の明るさに相当するものとなるように第1の画像G1−iおよび第2の画像G2の明るさを補正しているが、あらかじめ定められた明るさとなるように第1の画像G1−iおよび第2の画像G2の明るさを補正するようにしてもよい。   In the first to third embodiments, the first image G1-i and the second image are set so as to correspond to the brightness of the region having the maximum exposure time in the second image G2. Although the brightness of G2 is corrected, the brightness of the first image G1-i and the second image G2 may be corrected so as to have a predetermined brightness.

また、上記第2および第3の実施形態においては、電荷の読み出しの対象となる動体領域Diおよび次に電荷を読み出す動体領域Di+1から電荷を読み出しているが、この2つの動体領域Di,Di+1の双方を含む領域から電荷を読み出すようにしてもよい。例えば、動体領域D1,D2から電荷を読み出す場合に、図19に示すように動体領域D1,D2に外接する領域A1から電荷を読み出すようにしてもよい。この場合、第2の実施形態においては領域A1における動体領域D1以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−1を取得する。また、第3の実施形態においては、領域A1に対応する画像を第1の画像G1−1として取得する。この場合、とくに電荷を読み出す領域A1を矩形の領域とすることにより、撮像素子18からの電荷の読み出しを簡易に行うことができる。なお、第2の画像の明るさ補正処理は、電荷を読み出した領域の露光時間に応じて、上記第2および第3の実施形態と同様に行えばよい。   In the second and third embodiments, charges are read from the moving object region Di to be read out of charges and the moving object region Di + 1 that reads out charges next, but the two moving object regions Di and Di + 1 You may make it read an electric charge from the area | region containing both. For example, when reading charges from the moving object regions D1 and D2, the charges may be read from a region A1 circumscribing the moving object regions D1 and D2, as shown in FIG. In this case, in the second embodiment, the first image G1-1 is acquired by discarding the charges read from the region A1 other than the moving body region D1 (indicated by hatching). In the third embodiment, an image corresponding to the region A1 is acquired as the first image G1-1. In this case, the charge A can be easily read out from the image sensor 18 by setting the area A1 from which the charge is read out to a rectangular area. Note that the brightness correction processing of the second image may be performed in the same manner as in the second and third embodiments, depending on the exposure time of the area from which the charge has been read.

以上、本発明の実施形態に係るデジタルカメラ1について説明したが、コンピュータを、上記のAE処理部29、動体検出部36および合成部37に対応する手段として機能させ、図6に示すような処理を行わせるプログラムも本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も本発明の実施形態の1つである。   The digital camera 1 according to the embodiment of the present invention has been described above. However, the computer functions as a unit corresponding to the AE processing unit 29, the moving object detection unit 36, and the synthesis unit 37, and the processing as illustrated in FIG. A program for performing the above is also one embodiment of the present invention. A computer-readable recording medium that records such a program is also one embodiment of the present invention.

本発明の実施形態による撮影装置を適用したデジタルカメラの外観を示す図(正面側)The figure which shows the external appearance of the digital camera to which the imaging device by embodiment of this invention is applied (front side) 本発明の実施形態による撮影装置を適用したデジタルカメラの外観を示す図(背面側)The figure which shows the external appearance of the digital camera to which the imaging device by embodiment of this invention is applied (back side) 本発明の実施形態による撮影装置を適用したデジタルカメラの内部構成を示す概略ブロック図1 is a schematic block diagram showing an internal configuration of a digital camera to which a photographing apparatus according to an embodiment of the present invention is applied. 動体の検出を説明するための図Diagram for explaining detection of moving object 移動ベクトルの算出を説明するための図Diagram for explaining movement vector calculation 第1の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 1st Embodiment. 第1の実施形態における1回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the electric charge of the 1st time in 1st Embodiment. 第1の実施形態における2回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the electric charge of the 2nd time in 1st Embodiment. 第1の実施形態における3回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the charge of the 3rd time in 1st Embodiment. 第1の実施形態における4回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the charge of the 4th time in 1st Embodiment. 第1の実施形態における5回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the charge of the 5th time in 1st Embodiment. 第2の実施形態における1回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the electric charge of the 1st time in 2nd Embodiment. 第2の実施形態における2回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the electric charge of the 2nd time in 2nd Embodiment. 第2の実施形態における3回目の電荷の読み出しを説明するための図The figure for demonstrating the read-out of the charge of the 3rd time in 2nd Embodiment. 第2の実施形態における4回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the charge of the 4th time in 2nd Embodiment. 第2の実施形態における5回目の電荷の読み出しを説明するための図The figure for demonstrating the reading of the charge of the 5th time in 2nd Embodiment. 第3の実施形態における第1の画像を示す図The figure which shows the 1st image in 3rd Embodiment. 第3の実施形態における明るさ補正処理を説明するための図The figure for demonstrating the brightness correction process in 3rd Embodiment. 電荷の読み出しの他の例を示す図The figure which shows the other example of the reading of an electric charge

符号の説明Explanation of symbols

1 デジタルカメラ
5 モニタ
9 撮像系
10 撮影レンズ
11 フォーカスレンズ駆動部
23 発光制御部
24 フラッシュ
28 AF処理部
29 AE処理部
36 動体検出部
37 合成部
40 CPU
DESCRIPTION OF SYMBOLS 1 Digital camera 5 Monitor 9 Imaging system 10 Shooting lens 11 Focus lens drive part 23 Light emission control part 24 Flash 28 AF process part 29 AE process part 36 Moving body detection part 37 Synthesis | combination part 40 CPU

Claims (8)

被写体像を光電変換して画像信号を取得する撮像素子と、
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得し、前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得するよう前記撮像素子を制御する撮像制御手段とを備えたことを特徴とする撮影装置。
An image sensor that photoelectrically converts a subject image to obtain an image signal;
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. The plurality of first image signals are acquired, and when the predetermined time is reached, the image sensor is controlled to acquire the second image signal by reading out charges from the entire area of the image sensor. An imaging apparatus comprising: an imaging control means for performing
前記露光開始前に前記撮像素子が取得した画像信号により表される画像に基づいて、前記動体の位置を検出するとともにその移動位置を予測する動体検出手段をさらに備え、
前記撮像制御手段は、前記動体の位置および前記移動位置に基づいて、前記動体領域のみからの前記電荷の読み出しを行うよう前記撮像素子を制御する手段であることを特徴とする請求項1記載の撮影装置。
Based on an image represented by an image signal acquired by the image sensor before the start of exposure, further comprising a moving object detecting means for detecting the position of the moving object and predicting its moving position;
The image pickup control means is means for controlling the image pickup device so as to read out the electric charge only from the moving object region based on the position of the moving object and the moving position. Shooting device.
前記撮像制御手段は、前記動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、該次の動体領域を含む領域から読み出した電荷を破棄して前記第1の画像信号を取得するよう前記撮像素子を制御する手段であることを特徴とする請求項1または2記載の撮影装置。   The imaging control unit reads the charge from the region including the next moving body region where the charge is read next time, and reads the charge read from the region including the next moving body region when reading the charge from the moving body region once. The photographing apparatus according to claim 1, wherein the photographing device is means for controlling the image sensor so as to discard the first image signal. 前記撮像制御手段は、前記動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、該次の動体領域を含む領域から読み出した電荷とともに前記第1の画像信号を取得するよう前記撮像素子を制御する手段であることを特徴とする請求項1または2記載の撮影装置。   The imaging control unit reads the charge from the region including the next moving body region where the charge is read next time, and reads the charge from the region including the next moving body region when reading the charge from the moving body region once. The photographing apparatus according to claim 1, wherein the photographing device is a unit that controls the image pickup device so as to acquire the first image signal. 前記複数の第1の画像信号により表される複数の第1の画像、および前記第2の画像信号により表される第2の画像を合成して合成画像を生成する合成手段をさらに備えたことを特徴とする請求項1または2記載の撮影装置。   The image processing apparatus further includes a combining unit that combines the plurality of first images represented by the plurality of first image signals and the second image represented by the second image signal to generate a combined image. The imaging device according to claim 1, wherein: 前記複数の第1の画像および前記第2の画像における各画素の露光時間に応じて、前記第1の画像および前記第2の画像の明るさを補正する明るさ補正手段をさらに備え、
前記合成手段は、前記明るさ補正が行われた後の前記複数の第1の画像および前記第2の画像を合成して前記合成画像を生成する手段であることを特徴とする請求項5記載の撮影装置。
Brightness correction means for correcting the brightness of the first image and the second image according to the exposure time of each pixel in the plurality of first images and the second image;
6. The means for synthesizing the plurality of first images and the second image after the brightness correction is performed to generate the synthesized image. Shooting device.
被写体像を光電変換して画像信号を取得する撮像素子を備えた撮影装置の制御方法であって、
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得し、
前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得することを特徴とする撮影装置の制御方法。
A method for controlling an imaging apparatus including an image sensor that photoelectrically converts a subject image to acquire an image signal,
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. Obtaining a plurality of first image signals;
When the predetermined time is reached, a second image signal is obtained by reading out charges from the entire area of the image sensor, and a method for controlling the photographing apparatus.
被写体像を光電変換して画像信号を取得する撮像素子を備えた撮影装置の制御方法をコンピュータに実行させるためのプログラムであって、
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得する手順と、
前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得する手順とをコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute a control method of an imaging device including an imaging device that photoelectrically converts a subject image to acquire an image signal,
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. Obtaining a plurality of first image signals;
A program for causing a computer to execute a procedure of acquiring a second image signal by reading out electric charges from all areas in the image sensor when the predetermined time is reached.
JP2008315398A 2008-12-11 2008-12-11 Image capturing apparatus, image capturing apparatus control method, and program Expired - Fee Related JP5184325B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008315398A JP5184325B2 (en) 2008-12-11 2008-12-11 Image capturing apparatus, image capturing apparatus control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008315398A JP5184325B2 (en) 2008-12-11 2008-12-11 Image capturing apparatus, image capturing apparatus control method, and program

Publications (2)

Publication Number Publication Date
JP2010141551A JP2010141551A (en) 2010-06-24
JP5184325B2 true JP5184325B2 (en) 2013-04-17

Family

ID=42351294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008315398A Expired - Fee Related JP5184325B2 (en) 2008-12-11 2008-12-11 Image capturing apparatus, image capturing apparatus control method, and program

Country Status (1)

Country Link
JP (1) JP5184325B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130176463A1 (en) * 2012-01-09 2013-07-11 Nokia Corporation Method and Apparatus for Image Scaling in Photography

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027300A (en) * 2000-07-05 2002-01-25 Minolta Co Ltd Digital camera
JP2006324834A (en) * 2005-05-18 2006-11-30 Hitachi Ltd Device and method for imaging
JP5217213B2 (en) * 2007-03-30 2013-06-19 カシオ計算機株式会社 Imaging apparatus and program

Also Published As

Publication number Publication date
JP2010141551A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
JP4567593B2 (en) Imaging apparatus and imaging method
JP5214476B2 (en) Imaging apparatus, image processing method, and program
JP5347707B2 (en) Imaging apparatus and imaging method
JP3395770B2 (en) Digital still camera
JP5123137B2 (en) Imaging apparatus and imaging method
JP5343588B2 (en) Imaging device
JP2010166304A (en) Photographing apparatus, method of controlling the same, and program
JP2010093679A (en) Imaging apparatus, and imaging control method
JP5138521B2 (en) Imaging apparatus and imaging method
JP5936323B2 (en) Image recording apparatus and control method thereof
JP2007336394A (en) Imaging apparatus and image compositing method
JP2007299339A (en) Image reproducing device, method and program
JP4033456B2 (en) Digital camera
JP4865648B2 (en) Imaging device
JP5948997B2 (en) Imaging apparatus and imaging method
JP4717836B2 (en) Imaging apparatus, method, and program
JP2010026039A (en) Photographing apparatus, and control method and program of photographing apparatus
JP5184325B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
JP5310331B2 (en) Imaging apparatus and imaging method
KR101408359B1 (en) Imaging apparatus and imaging method
JP2010087663A (en) Imaging apparatus and method for controlling flash emission
JP5248928B2 (en) Imaging control apparatus, method thereof, and program
JP2010136239A (en) Photographic apparatus, control method of the photographic apparatus and program
JP3727841B2 (en) Digital still camera
JP5027055B2 (en) Image processing apparatus and method, and program

Legal Events

Date Code Title Description
RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130116

R150 Certificate of patent or registration of utility model

Ref document number: 5184325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees