JP2007060449A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2007060449A
JP2007060449A JP2005245155A JP2005245155A JP2007060449A JP 2007060449 A JP2007060449 A JP 2007060449A JP 2005245155 A JP2005245155 A JP 2005245155A JP 2005245155 A JP2005245155 A JP 2005245155A JP 2007060449 A JP2007060449 A JP 2007060449A
Authority
JP
Japan
Prior art keywords
still image
shooting
moving image
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005245155A
Other languages
Japanese (ja)
Other versions
JP4404823B2 (en
Inventor
Seiji Okada
誠司 岡田
Ryuichiro Tominaga
隆一郎 富永
Masahiro Yokohata
正大 横畠
Yukio Mori
幸夫 森
Yasuhachi Hamamoto
安八 浜本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2005245155A priority Critical patent/JP4404823B2/en
Publication of JP2007060449A publication Critical patent/JP2007060449A/en
Application granted granted Critical
Publication of JP4404823B2 publication Critical patent/JP4404823B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of obtaining appropriate still images and suppressing the quality degradation of moving images due to still image photographing, even when the still image photographing is performed during moving image photographing. <P>SOLUTION: In the imaging apparatus capable of photographing the moving images and the still images, when photographing the still images during the moving image photographing, the still images are photographed after changing exposure setting from the one for the moving image photographing to the one for the still image photographing. A signal processor 20 prepares moving image frame data during the still image photographing by using data for the still images obtained by the still image photographing. For instance, after the reduction of object blurs due to shortening of exposure time for the still image photographing is imparted intentionally to the data for the still images, the moving image frame data are prepared during the still image photographing. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital still camera or a digital video camera.

動画と静止画を同時に撮影し記録できる撮像装置が既に提案されている。この種の撮像装置は、動画の1フレームのみを抜き出して静止画用処理を施すことにより、動画撮影中の静止画を作成していた。或いは、動画撮影を一旦中断して静止画撮影を行い、静止画撮影終了後に動画撮影を再開するようにしていた。   An imaging apparatus capable of simultaneously capturing and recording moving images and still images has been proposed. This type of imaging apparatus creates a still image during moving image shooting by extracting only one frame of the moving image and performing a still image processing. Alternatively, the moving image shooting is temporarily interrupted to perform still image shooting, and the moving image shooting is resumed after the still image shooting is completed.

また、下記特許文献1には、静止画撮影が指示されたときに、動画撮影時の絞りの開口値から閉鎖させるよう絞りを制御し、絞りの閉鎖動作の開始後であって絞りが完全閉鎖する前に、撮像素子の電荷の掃出しを行わせるよう制御する手段を備えた撮像装置が開示されている。   Further, in Patent Document 1 below, when still image shooting is instructed, the aperture is controlled so as to be closed from the aperture value at the time of moving image shooting, and the aperture is completely closed after the start of the closing operation of the aperture. An image pickup apparatus provided with means for controlling the image pickup device to perform charge sweeping is disclosed.

特許第3308716号公報Japanese Patent No. 3308716

動きの激しいシーンを静止画で撮影する場合、本来はシャッタスピードを速めて被写体の動きを止めるように撮影することが望ましい。一方、動画撮影では、動いているものの動きを滑らかに表現するために動画の1フレーム期間を亘って露光されるように撮影することが望ましい。   When shooting a scene with a lot of movement as a still image, it is originally desirable to shoot so as to stop the movement of the subject by increasing the shutter speed. On the other hand, in moving image shooting, it is desirable to perform shooting so as to be exposed over one frame period of a moving image in order to smoothly express the motion of a moving object.

しかしながら、動画の1フレームを抜き出して静止画用処理を施す従来の方式では、動画の1フレーム期間に亘る露光時間が被写体の動きに対して長くなって被写体ぶれ(動体ぶれ)が大きくなり、撮影者の望んでいる被写体の動きの止まった鮮明な静止画を得ることができない。この問題は、動きの速い被写体の静止画を得ようとする場合に顕著となる。また、動画撮影を一旦中断する方式では、動画が途切れて見苦しくなってしまう。尚、上記特許文献1に記載の技術では、上記のような問題を十分に解決することはできない。   However, in the conventional method in which one frame of a moving image is extracted and still image processing is performed, the exposure time over one frame period of the moving image becomes longer with respect to the movement of the subject, and subject blur (moving subject blur) increases. It is impossible to obtain a clear still image in which the movement of the subject desired by the person is stopped. This problem becomes prominent when trying to obtain a still image of a fast-moving subject. Also, in the method of temporarily interrupting the moving image shooting, the moving image is interrupted and becomes unsightly. The technique described in Patent Document 1 cannot sufficiently solve the above problem.

そこで本発明は、動画撮影中に静止画撮影を行った場合でも、適切な静止画を得ることができると共に静止画撮影に起因する動画の品質劣化の抑制を可能とする撮像装置を提供することを目的とする。   Accordingly, the present invention provides an imaging apparatus that can obtain an appropriate still image even when still image shooting is performed during moving image shooting, and that can suppress deterioration in quality of the moving image caused by still image shooting. With the goal.

上記目的を実現するために本発明に係る撮像装置は、入射した光学像を光電変換する撮像素子と、前記撮像素子からの信号を増幅して出力する増幅回路と、前記増幅回路の出力信号から得られる画像データを処理する信号処理部と、前記撮像素子の露光設定を制御するとともに前記光学像の撮影を制御する主制御部と、を備え、動画と静止画を撮影可能な撮像装置において、動画撮影中に静止画の撮影を行う場合、前記主制御部は前記露光設定を動画撮影用から静止画撮影用に変更した上で前記静止画の撮影を行い、前記信号処理部はその静止画の撮影によって得られた画像データである静止画用データを用いてその静止画撮影中の動画フレームデータを作成することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes an imaging element that photoelectrically converts an incident optical image, an amplification circuit that amplifies and outputs a signal from the imaging element, and an output signal of the amplification circuit. In an imaging apparatus that includes a signal processing unit that processes image data obtained, and a main control unit that controls exposure settings of the imaging device and controls the shooting of the optical image, and can capture moving images and still images, When taking a still image during moving image shooting, the main control unit changes the exposure setting from moving image shooting to still image shooting and then takes the still image, and the signal processing unit takes the still image. Moving image frame data during still image shooting is created using still image data which is image data obtained by shooting.

これにより、動画撮影中であっても適切な静止画を得ることが期待できる。また、上記静止画用データを用いて静止画撮影中の動画フレームデータが作成されるため、静止画撮影に起因する動画の品質劣化の抑制が期待できる。   Thereby, it can be expected that an appropriate still image is obtained even during moving image shooting. In addition, since moving image frame data during still image shooting is created using the still image data, it can be expected that quality degradation of moving images due to still image shooting is suppressed.

例えば、動画撮影中に静止画の撮影を行う場合に前記主制御部が制御する前記露光設定には、前記撮像素子の露光時間と、前記撮像素子への単位時間当たりの入射光量を特定する絞りの開口量及び/又は前記増幅回路の増幅度と、が含まれる。   For example, the exposure setting controlled by the main control unit when shooting a still image during moving image shooting includes an aperture that specifies the exposure time of the image sensor and the amount of light incident on the image sensor per unit time. And / or the amplification degree of the amplifier circuit.

また例えば、前記信号処理部は、前記静止画用データに含まれる被写体の動きによる被写体ぶれ量を前記動画撮影用の露光時間と前記静止画撮影用の露光時間との差異に応じて補正し、その補正後の静止画用データに基づいて静止画撮影中の前記動画フレームデータを作成する。   Further, for example, the signal processing unit corrects subject blurring due to movement of the subject included in the still image data according to a difference between the exposure time for moving image shooting and the exposure time for still image shooting, The moving image frame data during still image shooting is created based on the corrected still image data.

これにより、動画に適した被写体ぶれを静止画撮影中の動画フレームデータに付与し、滑らかな動画を得ることが可能となる。   As a result, it is possible to apply a subject blur suitable for a moving image to the moving image frame data during still image shooting to obtain a smooth moving image.

具体的には例えば、前記信号処理部は、前記静止画用データと前記静止画用データを得るための撮影の前後の撮影によって得られた画像データとの差分に基づいて、前記被写体の動きがある被写体ぶれ領域を求める被写体ぶれ領域特定部を備え、前記動画撮影用の露光時間と前記静止画撮影用の露光時間との差異に由来する被写体ぶれの変動分を前記静止画用データ中の前記被写体ぶれ領域に対応するデータに付与することにより、前記被写体ぶれ量の補正を行う   Specifically, for example, the signal processing unit is configured to detect the movement of the subject based on a difference between the still image data and image data obtained by photographing before and after photographing for obtaining the still image data. A subject blur region specifying unit for obtaining a certain subject blur region, and a subject blur fluctuation amount derived from a difference between the exposure time for moving image shooting and the exposure time for still image shooting in the still image data; The subject blur amount is corrected by adding to the data corresponding to the subject blur region.

また例えば、動画撮影中に前記静止画の撮影を行う場合に前記主制御部が制御する前記露光設定には、前記露光時間と前記絞りの開口量が少なくとも含まれ、動画撮影中に前記静止画の撮影を行う場合において、前記絞りの開口量を静止画撮影用に変更するための時間が動画撮影の1フレーム期間以上必要となるとき、前記主制御部は複数のフレーム期間を用いて前記絞りの開口量を静止画撮影用に変更してから前記静止画の撮影を行い、前記信号処理部は前記複数のフレーム期間中に得られた各画像データに含まれる被写体の動きによる各被写体ぶれ量を前記動画撮影用の露光時間と前記複数のフレーム期間中に用いた各露光時間との差異に応じて補正し、これによって前記複数のフレーム期間中の各動画フレームデータを作成する。   Further, for example, the exposure setting controlled by the main control unit when shooting the still image during moving image shooting includes at least the exposure time and the aperture opening amount, and the still image is captured during moving image shooting. When the time required for changing the aperture of the diaphragm for still image shooting is required for one or more frame periods of moving image shooting, the main control unit uses a plurality of frame periods to The image processing unit performs the still image shooting after changing the aperture amount for the still image shooting, and the signal processing unit detects each subject blur amount due to the movement of the subject included in each image data obtained during the plurality of frame periods. Is corrected according to the difference between the exposure time for moving image shooting and the exposure times used during the plurality of frame periods, thereby creating each frame data of the plurality of frame periods.

上記のように構成すれば、絞りの開口量を静止画撮影用に変更するための時間が動画撮影の1フレーム期間以上必要となる場合であっても、適切な静止画の取得及び静止画撮影に起因する動画の品質劣化の抑制が期待できる。   With the above configuration, even when it takes more than one frame period for moving image shooting to change the aperture amount of the aperture for still image shooting, acquisition of appropriate still images and still image shooting are required. It can be expected to suppress the deterioration of the quality of the moving image due to the.

また例えば、動画撮影中の前記静止画の撮影を動画撮影の1フレーム期間より長い期間をかけて行う場合、前記信号処理部は、前記静止画用データと前記静止画用データを得るための撮影の前または後の撮影によって得られた画像データとを加重加算合成することにより、静止画撮影中の前記動画フレームデータを作成し、その加重加算における重み付け係数は加重加算合成の対象となる前記画像データの撮影タイミングと前記静止画用データの撮影タイミングとによって決定される。   Further, for example, when the still image during moving image shooting is performed over a period longer than one frame period of the moving image shooting, the signal processing unit performs shooting for obtaining the still image data and the still image data. The moving image frame data during still image shooting is created by weighted addition synthesis with image data obtained by shooting before or after shooting, and the weighting coefficient in the weighted addition is the image to be subjected to weighted addition synthesis It is determined by the data shooting timing and the still image data shooting timing.

上記の加重加算合成を行って静止画撮影中の動画フレームデータを作成すれば、その動画フレームデータが表す動画に含まれる被写体ぶれ量は、本来あるべき被写体ぶれ量に近似するようになり、動きの滑らかな動画を得ることが可能となる。   If moving image frame data during still image shooting is created by performing the above weighted addition synthesis, the amount of subject blur included in the movie represented by the moving image frame data approximates the amount of subject shake that should be, and motion It is possible to obtain a smooth video.

この際、例えば、前記信号処理部は、加重加算合成の対象となる前記画像データと前記静止画用データとの差分が所定の閾値以上となる部分のみを対象として加重加算合成を行うようにしてもよい。   At this time, for example, the signal processing unit performs weighted addition synthesis only for a portion where the difference between the image data to be subjected to weighted addition synthesis and the still image data is a predetermined threshold value or more. Also good.

また例えば、動画撮影中に前記静止画の撮影を行う場合に前記主制御部が制御する前記露光設定には、前記撮像素子の露光時間と前記増幅回路の増幅度が含まれ、動画撮影中に前記静止画の撮影を行う場合において、前記主制御部による前記露光設定の変更によって前記露光時間を定められた上限値に設定しても露光が不足していると判断されるとき、
前記主制御部は前記増幅度を増加させることによって露光不足を補った上で前記静止画の撮影を行う。
In addition, for example, the exposure setting controlled by the main control unit when shooting the still image during moving image shooting includes the exposure time of the image sensor and the amplification degree of the amplification circuit. In the case of shooting the still image, when it is determined that exposure is insufficient even if the exposure time is set to a predetermined upper limit value by changing the exposure setting by the main control unit,
The main control unit captures the still image while compensating for insufficient exposure by increasing the amplification factor.

また例えば、動画画撮影中に前記静止画の撮影を行う場合において、前記主制御部による前記露光設定の変更によって前記露光時間を定められた上限値に設定しても露光が不足していると判断されるとき、前記主制御部は前記露光時間を前記上限値以下に設定した上で複数の画像の撮影を行い、前記信号処理部は前記複数の画像の撮影によって得られた複数の画像データを合成することにより動画撮影中に撮影されるべき前記静止画を表すデータを作成する。   In addition, for example, when shooting the still image during moving image shooting, exposure is insufficient even if the exposure time is set to a predetermined upper limit value by changing the exposure setting by the main control unit. When the determination is made, the main control unit sets the exposure time to be less than or equal to the upper limit value and takes a plurality of images, and the signal processing unit sets a plurality of image data obtained by shooting the plurality of images. Is used to create data representing the still image to be shot during moving image shooting.

これにより、ノイズの少ない良好な静止画を得ることが可能なる。   As a result, a good still image with less noise can be obtained.

また例えば、前記信号処理部は、前記増幅回路の出力信号に基づいて、撮影した動画及び静止画の夫々の明るさを検出する明るさ検出部と、動画撮影中に前記静止画の撮影が行われる場合において、その静止画の明るさとその静止画の前又は後の動画の明るさとの差が小さくなるように前記静止画用データを補正する明るさ補正部と、を更に備え、その補正後の静止画用データを用いて静止画撮影中の前記動画フレームデータを作成する。   In addition, for example, the signal processing unit includes a brightness detection unit that detects the brightness of each captured moving image and still image based on the output signal of the amplification circuit, and captures the still image during moving image shooting. A brightness correction unit that corrects the still image data so that a difference between the brightness of the still image and the brightness of the moving image before or after the still image is reduced. The moving image frame data during still image shooting is created using the still image data.

これにより、静止画撮影のための露光設定変更に伴う静止画用データとその前又は後ろの動画との明るさの変動が原因で生じる動画の明るさのちらつきが抑制可能となる。   Thereby, it is possible to suppress the flickering of the brightness of the moving image that is caused by the variation in the brightness between the still image data and the moving image before or after the change in the exposure setting for still image shooting.

この際、例えば、前記明るさ補正部は、動画撮影中に前記静止画の撮影が行われる場合、その静止画とその静止画の前又は後の動画内の同じ位置に設定した単一または複数の領域の平均輝度が、前記静止画と前記前又は後の動画との間で一致するように前記静止画用データを補正することにより、前記静止画の明るさと前記前又は後の動画の明るさとの差を小さくする。   At this time, for example, when the still image is shot during moving image shooting, the brightness correction unit is set to a single or plural set at the same position in the moving image before or after the still image and the still image. By correcting the still image data so that the average brightness of the area matches between the still image and the previous or subsequent movie, the brightness of the still image and the brightness of the previous or subsequent movie are corrected. To reduce the difference.

また例えば、動画撮影中に前記静止画の撮影を行う場合に前記主制御部が制御する前記露光設定には、前記露光時間と前記絞りの開口量が少なくとも含まれ、前記信号処理部は、動画と静止画の撮影間の前記絞りの開口量の変更に伴う周辺光量の低下の変動を補正する周辺光量補正部を、前記明るさ補正部の前段に備えるようにしてもよい。   Also, for example, the exposure setting controlled by the main control unit when shooting the still image during moving image shooting includes at least the exposure time and the aperture opening amount, and the signal processing unit A peripheral light amount correction unit that corrects a variation in decrease in the peripheral light amount associated with a change in the aperture amount of the diaphragm between the still image shooting and the still image capturing may be provided in a stage preceding the brightness correction unit.

これにより、動画撮影中に静止画撮影を行った場合に発生しうる、動画の画像周辺部のちらつきを抑制可能となる。   Thereby, it is possible to suppress flickering in the peripheral portion of the moving image, which may occur when still image shooting is performed during moving image shooting.

上述した通り、本発明に係る撮像装置によれば、動画撮影中に静止画撮影を行った場合でも、適切な静止画を得ることができると共に静止画撮影に起因する動画の品質劣化の抑制が可能となる。   As described above, according to the imaging apparatus of the present invention, even when still image shooting is performed during moving image shooting, it is possible to obtain an appropriate still image and to suppress degradation in moving image quality caused by still image shooting. It becomes possible.

<<第1実施形態>>
以下、本発明に係る撮像装置の第1実施形態につき、図面に沿って具体的に説明する。図1は、第1実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルスチルカメラやデジタルビデオカメラなどである。
<< First Embodiment >>
Hereinafter, a first embodiment of an imaging apparatus according to the present invention will be specifically described with reference to the drawings. FIG. 1 is an overall block diagram of an imaging apparatus 1 according to the first embodiment. The imaging device 1 is, for example, a digital still camera or a digital video camera.

撮像装置1は、光学系11と、絞り12と、撮像素子13と、前処理部14と、ドライバ17と、タイミングジェネレータ18と、主制御部19と、信号処理部20と、フレームメモリバッファ40と、外部メモリ41と、操作部42と、を有して構成される。撮像装置1は、動画と静止画の双方を(同時に)撮影可能な撮像装置である。   The imaging apparatus 1 includes an optical system 11, an aperture 12, an imaging device 13, a preprocessing unit 14, a driver 17, a timing generator 18, a main control unit 19, a signal processing unit 20, and a frame memory buffer 40. And an external memory 41 and an operation unit 42. The imaging device 1 is an imaging device capable of capturing both a moving image and a still image (simultaneously).

光学系11は、例えば複数枚のレンズから構成され、撮像対象からの入射光は該レンズ及び絞り12を介して撮像素子13に入射する。ドライバ17は、主制御部19からの制御信号に基づいて光学系11を制御し、光学系11のズーム倍率や焦点距離を制御する。また、ドライバ17は、主制御部19からの制御信号に基づいて絞り12の開口量(開口部の大きさ)を制御する。光学系11に入射する光学像が同じである場合、絞り12の開口量が大きくなるに従って、撮像素子13への単位時間当たりの入射光量は増大する。   The optical system 11 is composed of, for example, a plurality of lenses, and incident light from an imaging target is incident on the image sensor 13 via the lens and the diaphragm 12. The driver 17 controls the optical system 11 based on a control signal from the main control unit 19 and controls the zoom magnification and focal length of the optical system 11. The driver 17 controls the opening amount (size of the opening) of the diaphragm 12 based on a control signal from the main control unit 19. When the optical images incident on the optical system 11 are the same, the amount of incident light per unit time on the image sensor 13 increases as the aperture of the diaphragm 12 increases.

撮像素子13は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる。撮像素子13は、光学系11及び絞り12を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号を前処理部14に出力する。より具体的には、撮像素子13は、マトリクス状に二次元配列された複数の画素(受光画素;不図示)を備え、各撮影において、各画素は露光時間に応じた電荷量の信号電荷を蓄える。各画素は、蓄えた信号電荷の電荷量に比例した大きさを有する電気信号を後段の前処理部14に順次出力する。光学系11に入射する光学像が同じであり且つ絞り12の開口量が同じである場合、撮像素子13からの電気信号の大きさ(強度)は上記露光時間に比例して増大する。   The image sensor 13 is composed of, for example, a CCD (Charge Coupled Devices), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like. The image sensor 13 photoelectrically converts an optical image incident through the optical system 11 and the diaphragm 12 and outputs an electrical signal obtained by the photoelectric conversion to the preprocessing unit 14. More specifically, the imaging device 13 includes a plurality of pixels (light receiving pixels; not shown) that are two-dimensionally arranged in a matrix, and in each shooting, each pixel receives a signal charge having a charge amount corresponding to the exposure time. store. Each pixel sequentially outputs an electrical signal having a magnitude proportional to the amount of stored signal charge to the pre-processing unit 14 at the subsequent stage. When the optical images incident on the optical system 11 are the same and the aperture amount of the diaphragm 12 is the same, the magnitude (intensity) of the electrical signal from the image sensor 13 increases in proportion to the exposure time.

撮像素子13には、電子シャッタ機能が備えられており、上記露光時間は、タイミングジェネレータ18からの電子シャッタ制御信号によって制御される。主制御部19は、タイミングジェネレータ18の動作を制御するものであるため、主制御部19とタイミングジェネレータ18は、上記露光時間を制御する露光時間制御部として機能する。上記露光時間によって、電子シャッタ制御におけるシャッタスピードが特定される。   The image sensor 13 has an electronic shutter function, and the exposure time is controlled by an electronic shutter control signal from the timing generator 18. Since the main control unit 19 controls the operation of the timing generator 18, the main control unit 19 and the timing generator 18 function as an exposure time control unit that controls the exposure time. The shutter speed in the electronic shutter control is specified by the exposure time.

前処理部14は、増幅回路15とA/D変換器(アナログ−デジタル変換器)16等から構成される。増幅回路15は、撮像素子13の出力信号であるアナログ信号を指定された増幅度で増幅して出力する。A/D変換器16は、タイミングジェネレータ18からの信号に従って増幅回路15の出力信号をデジタル信号に変換する。前処理部14は、このデジタル信号に必要に応じて更に適切な処理を施し、撮影した画像を表す画像データを出力する。前処理部14が出力する画像データは信号処理部20に与えられる。   The preprocessing unit 14 includes an amplifier circuit 15 and an A / D converter (analog-digital converter) 16. The amplifier circuit 15 amplifies an analog signal, which is an output signal of the image sensor 13, with a specified amplification level and outputs the amplified signal. The A / D converter 16 converts the output signal of the amplifier circuit 15 into a digital signal according to the signal from the timing generator 18. The preprocessing unit 14 performs further appropriate processing on the digital signal as necessary, and outputs image data representing the captured image. The image data output from the preprocessing unit 14 is given to the signal processing unit 20.

増幅回路15における上記増幅度は、通常、所謂オートゲインコントロールに従って制御される。しかしながら、本発明の特徴的な点として、該増幅度はタイミングジェネレータ18を介し主制御部19によっても制御される。その制御手法については、後に詳説する。   The amplification degree in the amplifier circuit 15 is normally controlled according to so-called auto gain control. However, as a characteristic point of the present invention, the amplification degree is also controlled by the main control unit 19 via the timing generator 18. The control method will be described in detail later.

タイミングジェネレータ18は、撮影のタイミングに従って、撮像素子13及び前処理部14の各動作のタイミングを制御する。具体的には、例えば、撮像素子13からの出力信号を読み出すタイミング(撮像素子13からの出力信号を前処理部14に与えるタイミング)や、前処理部14によるデータの出力タイミングを制御する。   The timing generator 18 controls the timing of each operation of the image sensor 13 and the preprocessing unit 14 in accordance with the shooting timing. Specifically, for example, the timing for reading the output signal from the image sensor 13 (the timing for giving the output signal from the image sensor 13 to the preprocessing unit 14) and the data output timing by the preprocessing unit 14 are controlled.

信号処理部20は、画素数変換部21と、動き検出部22と、動画処理部23と、動画圧縮部24と、静止画処理部25と、静止画圧縮部26と、を有して構成される。前処理部14が出力する画像データは、画素数変換部21、動き検出部22及び静止画処理部25に与えられる。以下、前処理部14が出力する画像データを、特に原画像データと呼ぶ。   The signal processing unit 20 includes a pixel number conversion unit 21, a motion detection unit 22, a moving image processing unit 23, a moving image compression unit 24, a still image processing unit 25, and a still image compression unit 26. Is done. The image data output from the preprocessing unit 14 is given to the pixel number conversion unit 21, the motion detection unit 22, and the still image processing unit 25. Hereinafter, the image data output by the preprocessing unit 14 is particularly referred to as original image data.

画素数変換部21は、前処理部14からの原画像データを入力データとして受ける。画素数変換部21は、入力データとして受けた原画像データに対して切り出し処理、フィルタ処理や間引き処理等を施すことにより、原画像データの画像サイズを縮小する。この縮小によって得られた画像データは、動画処理部23に与えられる。動画処理部23は、画素数変換部21からの画像データに必要な映像処理を施す。この映像処理には、例えば、輝度信号及び色差信号の生成、ガンマ補正、輪郭強調処理等が含まれる。動画処理部23は、この映像処理を経て得られた画像データを動画圧縮部24に出力する。動画圧縮部24は、動画処理部23からの画像データにMPEG(Moving Picture Experts Group)等の所定の圧縮方式を用いた圧縮を施し、その圧縮後の画像データを外部メモリ41に出力する。   The pixel number conversion unit 21 receives the original image data from the preprocessing unit 14 as input data. The pixel number conversion unit 21 reduces the image size of the original image data by performing cutout processing, filter processing, thinning processing, and the like on the original image data received as input data. Image data obtained by this reduction is given to the moving image processing unit 23. The moving image processing unit 23 performs necessary video processing on the image data from the pixel number conversion unit 21. This video processing includes, for example, generation of luminance signals and color difference signals, gamma correction, contour enhancement processing, and the like. The moving image processing unit 23 outputs the image data obtained through this video processing to the moving image compression unit 24. The moving image compression unit 24 compresses the image data from the moving image processing unit 23 using a predetermined compression method such as MPEG (Moving Picture Experts Group), and outputs the compressed image data to the external memory 41.

静止画処理部25は、前処理部14からの原画像データを入力データとして受ける。静止画処理部25は、入力データとして受けた原画像データに必要な映像処理を施す。この映像処理には、例えば、輝度信号及び色差信号の生成、ガンマ補正、輪郭強調処理等が含まれる。静止画処理部25は、この映像処理を経て得られた画像データを静止画圧縮部26に出力する。静止画圧縮部26は、静止画処理部25からの画像データにJPEG(Joint Photographic Experts Group)等の所定の圧縮方式を用いた圧縮を施し、その圧縮後の画像データを外部メモリ41に出力する。   The still image processing unit 25 receives the original image data from the preprocessing unit 14 as input data. The still image processing unit 25 performs necessary video processing on the original image data received as input data. This video processing includes, for example, generation of luminance signals and color difference signals, gamma correction, contour enhancement processing, and the like. The still image processing unit 25 outputs the image data obtained through this video processing to the still image compression unit 26. The still image compression unit 26 compresses the image data from the still image processing unit 25 using a predetermined compression method such as JPEG (Joint Photographic Experts Group), and outputs the compressed image data to the external memory 41. .

動き検出部22は、前処理部14からの原画像データを入力データとして受ける。動き検出部22は、動画撮影中に次々と前処理部14から送られてくる原画像データに基づき、周知の代表点マッチング法等を用いて被写体の動きベクトルを検出する。動画撮影中において、画素数変換部21や動画処理部23は動き検出部22が検出した動きベクトルを参照し、必要な処理(例えば、所謂手ぶれ補正)を行う。   The motion detection unit 22 receives the original image data from the preprocessing unit 14 as input data. The motion detection unit 22 detects a motion vector of the subject using a known representative point matching method or the like based on the original image data sent from the preprocessing unit 14 one after another during moving image shooting. During moving image shooting, the pixel number conversion unit 21 and the moving image processing unit 23 refer to the motion vector detected by the motion detection unit 22 and perform necessary processing (for example, so-called camera shake correction).

フレームメモリバッファ40は、DRAM(Dynamic Random Access Memory)等の半導体メモリから成り、データの読み書きが可能となっている。信号処理部20を構成する各部位は、一時的に記録しておくべきデータをフレームメモリバッファ40に書き込むとともに参照すべきデータをフレームメモリバッファ40から読み出す。外部メモリ41は、半導体メモリやメモリカード等の記録媒体である。   The frame memory buffer 40 is composed of a semiconductor memory such as a DRAM (Dynamic Random Access Memory) and can read and write data. Each part constituting the signal processing unit 20 writes data to be temporarily recorded in the frame memory buffer 40 and reads data to be referred to from the frame memory buffer 40. The external memory 41 is a recording medium such as a semiconductor memory or a memory card.

主制御部19は、CPU(Central Processing Unit)等から成り、撮像装置1内の各部位の動作を統括的に制御する。入力キー(不図示)等から構成された操作部42を使用者が操作することにより、その操作内容を表す信号が主制御部19に伝達される。その信号に応じて主制御部19がドライバ17、タイミングジェネレータ18及び信号処理部20等を制御することにより、静止画の撮影及び記録や動画の撮影及び記録が行われる。   The main control unit 19 includes a CPU (Central Processing Unit) and the like, and comprehensively controls the operation of each part in the imaging apparatus 1. When the user operates the operation unit 42 constituted by input keys (not shown) or the like, a signal indicating the operation content is transmitted to the main control unit 19. The main control unit 19 controls the driver 17, the timing generator 18, the signal processing unit 20, and the like in accordance with the signal, so that still image shooting and recording and moving image shooting and recording are performed.

操作部42への操作に応じて動画撮影を行う場合、主制御部19は、ドライバ17及びタイミングジェネレータ18を制御して撮像素子13の露光設定(撮像装置1の露光設定)を動画撮影用にする。動画撮影用の露光設定は、動画の撮影に適した(望ましくは、最適な)露光設定となっている。動画撮影中、所定のフレームレートで(即ち、所定の間隔をおいて)次々と原画像データが前処理部14から出力される。撮影した動画を表すこれらの原画像データは、画素数変換部21、動画処理部23及び動画圧縮部24の所定の処理を経つつ、次々と外部メモリ41に送られ、外部メモリ41に記録される。これにより、動画の撮影及び撮影した動画の記録が行われる。   When performing moving image shooting in response to an operation on the operation unit 42, the main control unit 19 controls the driver 17 and the timing generator 18 to set the exposure setting of the image sensor 13 (exposure setting of the imaging device 1) for moving image shooting. To do. The exposure setting for moving image shooting is an exposure setting suitable (preferably optimum) for shooting a moving image. During moving image shooting, original image data is output from the preprocessing unit 14 one after another at a predetermined frame rate (that is, at predetermined intervals). The original image data representing the captured moving image is sequentially sent to the external memory 41 through the predetermined processing of the pixel number conversion unit 21, the moving image processing unit 23, and the moving image compression unit 24, and is recorded in the external memory 41. The As a result, the moving image is shot and the shot moving image is recorded.

操作部42への操作に応じて静止画撮影を行う場合、主制御部19は、ドライバ17及びタイミングジェネレータ18を制御して撮像素子13の露光設定(撮像装置1の露光設定)を静止画撮影用にする。静止画撮影用の露光設定は、静止画の撮影に適した(望ましくは、最適な)露光設定となっている。静止画の撮影によって得られた原画像データは、静止画処理部25及び静止画圧縮部26の所定の処理を経て外部メモリ41に送られ、外部メモリ41に記録される。これにより、静止画の撮影及び撮影した静止画の記録が行われる。   When taking a still image in response to an operation on the operation unit 42, the main control unit 19 controls the driver 17 and the timing generator 18 to set the exposure setting of the image sensor 13 (exposure setting of the imaging device 1). Use it for. The exposure setting for still image shooting is an exposure setting suitable (preferably optimum) for shooting a still image. Original image data obtained by taking a still image is sent to the external memory 41 through predetermined processing of the still image processing unit 25 and the still image compression unit 26, and is recorded in the external memory 41. As a result, a still image is shot and a recorded still image is recorded.

動きの速い被写体の一瞬の動きを静止画として撮影する場合、露光時間を短くして(シャッタスピードを速くして)撮影を行う。露光時間が被写体の動きに対して十分に短い場合は、図2の画像61に示す如く、所謂「被写体ぶれ」(動体ぶれ)のない鮮明な画像が得られる。他方、動画撮影において全てのフレームを高速シャッタで撮影すると、動画フレームの1コマ1コマが動きのない鮮明な画像となり、動きが不自然で滑らかさに欠ける動画となってしまう。言い換えると、動いている部分の連続性が表現できなくなってしまう。   When shooting an instantaneous movement of a fast-moving subject as a still image, shooting is performed with a shorter exposure time (faster shutter speed). When the exposure time is sufficiently short relative to the movement of the subject, a clear image without so-called “subject blur” (moving subject blur) can be obtained as shown in an image 61 in FIG. On the other hand, if all frames are shot with a high-speed shutter in moving image shooting, each frame of the moving image frame becomes a clear image without movement, resulting in a moving image with unnatural and lack of smoothness. In other words, the continuity of the moving part cannot be expressed.

そこで、動画撮影においては、被写体の動きを滑らかに再現するために露光時間をできるだけ長くして撮影を行う。例えば、動画撮影のフレームレートが60フレーム/秒の場合、露光時間を1/60秒にできるだけ近づけて撮影を行うようにする。そうすると、図2の画像60に示す如く、露光時間に対して動きが速い部分に所謂「被写体ぶれ」(動体ぶれ)が生じることになり、これによって動きの滑らかな動画が得られる。   Therefore, in moving image shooting, shooting is performed with the exposure time as long as possible in order to smoothly reproduce the movement of the subject. For example, when the frame rate of moving image shooting is 60 frames / second, shooting is performed with an exposure time as close as possible to 1/60 seconds. Then, as shown in an image 60 in FIG. 2, a so-called “subject blur” (moving subject blur) occurs in a portion where the motion is fast with respect to the exposure time, thereby obtaining a moving image with smooth motion.

このように、「被写体ぶれ」は撮像素子13を構成する各画素に信号電荷を蓄えていく露光期間(この露光期間の長さは上記露光時間に等しい)に被写体が動くことで起きるぶれであるが、動画撮影においてはこの「被写体ぶれ」を積極的に取り入れることにより、被写体の動きを滑らかに再現することができる。   As described above, “subject blur” is a blur that occurs when the subject moves during an exposure period in which signal charges are accumulated in each pixel constituting the image sensor 13 (the length of the exposure period is equal to the exposure time). However, by actively incorporating this “subject blur” in moving image shooting, the motion of the subject can be reproduced smoothly.

撮像装置1は、この「被写体ぶれ」の大小(或いは有無)を調整することによって、動画撮影中に静止画撮影した場合の撮影画像の品質向上を実現するものであり、以下、本発明の特徴的な部分について説明をする。   The imaging apparatus 1 realizes improvement of the quality of a captured image when a still image is captured during moving image shooting by adjusting the size (or presence / absence) of the “subject blur”. I will explain the relevant parts.

[第1動作例]
まず、撮像装置1の動作の第1動作例を説明する。第1動作例は、例えば、運動会などの動きの速いシーンの動画撮影中に静止画撮影を行うことを想定している。図3は、第1動作例の制御概念を示す図であり、動画撮影中に静止画撮影を行った場合における、絞り12の開口量と、撮像素子13の電荷蓄積量と、露光時間と、前処理部14から読み出された原画像データと、動画処理部23が出力する画像データとの関係を示す図である。尚、動画を表す動画処理部23の出力データを、以下、「動画フレームデータ」と呼ぶ。また、以下の記述において、文章の煩雑化を避けるため、画素数変換部21、動画圧縮部24及び静止画処理部25及び静止画圧縮部26による処理を無視したかのような表現を用いる場合がある。
[First operation example]
First, a first operation example of the operation of the imaging device 1 will be described. In the first operation example, for example, it is assumed that still image shooting is performed during moving image shooting of a fast-moving scene such as an athletic meet. FIG. 3 is a diagram illustrating a control concept of the first operation example. When still image shooting is performed during moving image shooting, the aperture amount of the diaphragm 12, the charge accumulation amount of the image sensor 13, the exposure time, It is a figure which shows the relationship between the original image data read from the pre-processing part 14, and the image data which the moving image process part 23 outputs. The output data of the moving image processing unit 23 representing moving images is hereinafter referred to as “moving image frame data”. Also, in the following description, in order to avoid complication of sentences, an expression as if processing by the pixel number conversion unit 21, the moving image compression unit 24, the still image processing unit 25, and the still image compression unit 26 is ignored is used. There is.

動画撮影は、フレームFL1、FL2、FL3、FL4、FL5、FL6、FL7の順番で行われるものとする。そして、動画撮影中において、操作部42に対する静止画撮影の操作に応じてフレームFL4に相当する期間に静止画の撮影を行う場合を想定する。このため、動画撮影のフレームFL4は実際には存在しないと考えることもできるが、便宜上、動画撮影のフレームFL4は存在すると考える。この場合、フレームFL1〜FL3及びFL5〜FL7における露光設定は動画撮影用に設定され、フレームFL4における露光設定のみ静止画撮影用に設定される。   It is assumed that moving image shooting is performed in the order of frames FL1, FL2, FL3, FL4, FL5, FL6, and FL7. In addition, it is assumed that during moving image shooting, a still image is shot during a period corresponding to the frame FL4 in accordance with a still image shooting operation on the operation unit 42. For this reason, it can be considered that the moving image shooting frame FL4 does not actually exist, but for the sake of convenience, the moving image shooting frame FL4 is considered to exist. In this case, the exposure settings in the frames FL1 to FL3 and FL5 to FL7 are set for moving image shooting, and only the exposure settings in the frame FL4 are set for still image shooting.

具体的には、静止画撮影時の露光時間を静止画撮影に適した露光時間にするべく、フレームFL4における露光時間をフレームFL1〜FL3及びFL5〜FL7における露光時間よりも短くする一方で、露光時間の短縮による露光不足を補償すべく、フレームFL4における絞り12の開口量をフレームFL1〜FL3及びFL5〜FL7におけるそれらよりも大きくする。この露光時間と絞り12の開口量の調整によって、フレームFL1〜FL7における電荷蓄積量は適正レベル63に均一化される。つまり、静止画の明るさが動画の明るさと(略)同じになる。ここで、「電荷蓄積量」は、撮像素子13を構成する全ての画素の電荷蓄積量の平均でも良いし、撮像素子13の撮像面の中央部に位置する画素の電荷蓄積量の平均でも良い。また、撮像素子13の撮像面の複数領域に位置する画素の電荷蓄積量の平均でも良い。また、これらの平均を重み付け平均としても構わない。   Specifically, in order to make the exposure time at the time of still image shooting suitable for still image shooting, the exposure time at the frame FL4 is made shorter than the exposure times at the frames FL1 to FL3 and FL5 to FL7, while the exposure is performed. In order to compensate for the underexposure due to the shortening of time, the opening amount of the diaphragm 12 in the frame FL4 is made larger than those in the frames FL1 to FL3 and FL5 to FL7. By adjusting the exposure time and the opening amount of the diaphragm 12, the charge accumulation amount in the frames FL1 to FL7 is made uniform to an appropriate level 63. That is, the brightness of the still image is (substantially) the same as that of the moving image. Here, the “charge accumulation amount” may be the average of the charge accumulation amounts of all the pixels constituting the image sensor 13 or the average of the charge accumulation amounts of the pixels located at the center of the imaging surface of the image sensor 13. . Further, the average charge accumulation amount of pixels located in a plurality of regions on the imaging surface of the image sensor 13 may be used. These averages may be used as weighted averages.

また、絞り12の開口量の調整を行う代わりに増幅回路15の増幅度を調整し、これによってフレームFL1〜FL7における電荷蓄積量を適正レベル63に均一化してもよい。この場合、フレームFL4における増幅回路15の増幅度は、フレームFL1〜FL3及びFL5〜FL7におけるそれらよりも大きくされる。   Further, instead of adjusting the aperture amount of the diaphragm 12, the amplification degree of the amplifier circuit 15 may be adjusted, and thereby the charge accumulation amount in the frames FL1 to FL7 may be equalized to the appropriate level 63. In this case, the amplification degree of the amplifier circuit 15 in the frame FL4 is made larger than those in the frames FL1 to FL3 and FL5 to FL7.

また、露光時間、絞り12の開口量及び増幅回路15の増幅度の調整を全て行い、これによってフレームFL1〜FL7における電荷蓄積量を適正レベル63に均一化してもよい。例えば、静止画撮影時の露光時間を静止画撮影に適した露光時間にするべく、フレームFL4における露光時間をフレームFL1〜FL3及びFL5〜FL7における露光時間よりも短くする一方で、露光時間の短縮による露光不足を補償すべく、フレームFL4における絞り12の開口量及び増幅回路15の増幅度をフレームFL1〜FL3及びFL5〜FL7におけるそれらよりも大きくする。   Further, the exposure time, the opening amount of the diaphragm 12 and the amplification degree of the amplifier circuit 15 may all be adjusted, and thereby the charge accumulation amount in the frames FL1 to FL7 may be made uniform to the appropriate level 63. For example, in order to make the exposure time at the time of still image shooting suitable for still image shooting, the exposure time at the frame FL4 is made shorter than the exposure times at the frames FL1 to FL3 and FL5 to FL7, while the exposure time is shortened. In order to compensate for the underexposure due to the above, the opening amount of the diaphragm 12 in the frame FL4 and the amplification degree of the amplifier circuit 15 are made larger than those in the frames FL1 to FL3 and FL5 to FL7.

このように、動画撮影中に静止画の撮影を行う場合に主制御部19によって調整される露光設定には、露光時間と、絞り12の開口量及び増幅回路15の増幅度の内の少なくとも一方と、が含まれる。   As described above, the exposure setting adjusted by the main control unit 19 when shooting a still image during moving image shooting includes at least one of the exposure time, the aperture amount of the diaphragm 12 and the amplification degree of the amplifier circuit 15. And are included.

上記のような撮影によって得られた全ての原画像データは、信号処理部20に送られる。フレームFL1〜FL3及びFL5〜FL7については、各原画像データに基づいた各動画フレームデータが画像処理部23によって得られ、それらの動画フレームデータは所定の処理を経て動画を表すデータとして外部メモリ41に格納される。フレームFL4にて撮影された静止画に対応する原画像データは、「静止画用データ」として扱われ、静止画処理部25及び静止画圧縮部26による処理を経て静止画を表すデータとして外部メモリ41に格納される。また、静止画撮影中のフレームFL4に対応する動画フレームデータは、上記静止画用データを用いて作成され、動画を表すデータとして外部メモリ41に格納される。このため、動画撮影中に静止画撮影を行っても、動画が一瞬止まったりコマ落ちしたりすることはない。   All the original image data obtained by the above photographing are sent to the signal processing unit 20. With respect to the frames FL1 to FL3 and FL5 to FL7, each moving image frame data based on each original image data is obtained by the image processing unit 23, and the moving image frame data undergoes a predetermined process and is represented as data representing a moving image in the external memory 41. Stored in The original image data corresponding to the still image captured by the frame FL4 is treated as “still image data”, and is processed by the still image processing unit 25 and the still image compression unit 26 as data representing a still image from the external memory. 41. The moving image frame data corresponding to the frame FL4 during still image shooting is created using the still image data, and stored in the external memory 41 as data representing the moving image. For this reason, even if still image shooting is performed during moving image shooting, the moving image does not stop for a moment or drop frames.

静止画用データを用いて動画フレームデータを生成する場合において、被写体の動きが遅いときや動画撮影用の露光時間と静止画撮影用の露光時間との差が小さいときは、上記静止画用データをそのまま動画フレームデータとして採用しても、上記静止画用データとその前後の動画フレームとの被写体ぶれ量の差が小さいため、動画の動きに不自然さが感じられることはない。しかしながら、上記の被写体ぶれ量の差が大きい場合、上記静止画用データをそのまま動画フレームデータとして採用すると、そのフレームだけ画像が鮮明に見えるため、ちらつきのような不自然さが生じる場合がある。   When moving image frame data is generated using still image data, if the movement of the subject is slow or the difference between the exposure time for moving image shooting and the exposure time for still image shooting is small, the still image data Even if it is adopted as moving image frame data as it is, since the difference in subject blur between the still image data and the preceding and subsequent moving image frames is small, there is no sense of unnatural motion in the moving image. However, when the difference in the amount of subject blur is large, if the still image data is used as it is as moving image frame data, the image looks clear only by that frame, and flickering or unnaturalness may occur.

このような不自然さを抑制すべく、動画処理部23は、静止画用データを用いて動画フレームデータを生成する際、静止画用データに含まれる(フレームFL4にて撮影した静止画に含まれる)被写体の動きによる被写体ぶれ量を露光時間の差異に応じて補正し、これによって静止画撮影中の動画フレームデータを作成するようにしている。   In order to suppress such unnaturalness, the moving image processing unit 23 includes the still image data (included in the still image captured in the frame FL4) when generating the moving image frame data using the still image data. The amount of subject blur due to subject movement is corrected according to the difference in exposure time, thereby creating moving image frame data during still image shooting.

動画処理部23による、静止画用データを用いた静止画撮影中の動画フレームデータの作成手法を図4〜図10を用いて説明する。図4は、静止画用データから動画フレームデータを作成することに関連する部位のみを表した動画処理部23の内部構成図である。また、図4〜図10を用いた具体例の説明において、説明の簡略化上、画素数変換部21の存在は無視する。即ち、前処理部14からの原画像データが動画処理部23に直接与えられるものとする。   A method of creating moving image frame data during still image shooting using still image data by the moving image processing unit 23 will be described with reference to FIGS. FIG. 4 is an internal configuration diagram of the moving image processing unit 23 showing only a part related to creation of moving image frame data from still image data. In the description of the specific examples using FIGS. 4 to 10, the presence of the pixel number conversion unit 21 is ignored for the sake of simplification. That is, it is assumed that the original image data from the preprocessing unit 14 is directly given to the moving image processing unit 23.

今、フレームレートを60フレーム/秒とし、図5に示す如く、フレームFL2、FL3及びFL5等における動画撮影用の露光時間をT、フレームFL4における静止画撮影用の露光時間をtとする。露光時間T及びtは、夫々1/60秒及び1/180秒とし、フレームFL4の露光期間の中間時点はフレームFL4のフレーム期間の中間時点と一致するものとする。そして、図6に示す如く、背景が全て黒の画像中に1画素分の大きさを有する輝点Pが、一定輝度を保ちつつ右方向に一定速度で移動している状況を想定する。この輝点Pは、露光時間Tが経過する間に3画素分、右方向に移動しているものとする。そして、フレームFL2〜FL5の間に輝点Pが通る、右方向に連続する画素群を考える。この画素群は、図7に示す如く、合計12個の画素(n+k)から成り(但し、nは自然数であり、kは0〜11の整数)、kの数が大きい画素ほど右側に配置されているものとする。   Assume that the frame rate is 60 frames / second, the exposure time for moving image shooting in frames FL2, FL3, and FL5 is T, and the exposure time for still image shooting in frame FL4 is t, as shown in FIG. The exposure times T and t are 1/60 seconds and 1/180 seconds, respectively, and the intermediate time point of the exposure period of the frame FL4 coincides with the intermediate time point of the frame period of the frame FL4. Then, as shown in FIG. 6, a situation is assumed in which a bright spot P having a size of one pixel in an image whose background is all black is moving at a constant speed in the right direction while maintaining a constant luminance. It is assumed that the bright spot P moves rightward by 3 pixels while the exposure time T elapses. Then, consider a pixel group that continues in the right direction through which the bright spot P passes between the frames FL2 to FL5. This pixel group is composed of a total of 12 pixels (n + k) as shown in FIG. 7 (where n is a natural number and k is an integer from 0 to 11), and the pixel having a larger number of k is arranged on the right side. It shall be.

上記の想定の下において、フレームFL2、FL3、FL4及びFL5における原画像データを画像として表現した場合、それらは、夫々図8の画像70、71、72及び73のようになる。   Under the above assumption, when the original image data in the frames FL2, FL3, FL4, and FL5 is expressed as an image, they are as images 70, 71, 72, and 73 in FIG. 8, respectively.

画像70においては、輝点Pの右方向の移動に伴い、画素n〜画素(n+2)に対応する画素データのみが「10」となり、他の画素に対応する画素データは全て「0」となっている。同様に、画像71においては、画素(n+3)〜画素(n+5)に対応する画素データのみが「10」となり、他の画素に対応する画素データは全て「0」となっている。同様に、画像73においては、画素(n+9)〜画素(n+11)に対応する画素データのみが「10」となり、他の画素に対応する画素データは全て「0」となっている。このように、フレームFL2、FL3及びFL5に対応する画像70、71及び73においては、1画素分の大きさを有する輝点Pが3画素間でぼやけて存在しているかのように見える。つまり、被写体ぶれが生じている。   In the image 70, as the bright spot P moves in the right direction, only the pixel data corresponding to the pixels n to (n + 2) is “10”, and the pixel data corresponding to the other pixels is all “0”. ing. Similarly, in the image 71, only the pixel data corresponding to the pixels (n + 3) to the pixel (n + 5) is “10”, and the pixel data corresponding to the other pixels are all “0”. Similarly, in the image 73, only the pixel data corresponding to the pixel (n + 9) to the pixel (n + 11) is “10”, and the pixel data corresponding to the other pixels is all “0”. Thus, in the images 70, 71, and 73 corresponding to the frames FL2, FL3, and FL5, it appears as if the bright spot P having the size of one pixel is blurred between the three pixels. That is, subject blurring occurs.

尚、各画素データを、露光時間中に蓄積した電荷量に比例した値を有するデータ(即ち、輝度に比例するデータ)と仮定している。従って、輝点Pに対応する入射光を受けていない部分の画素についての画素データは、全て「0」となっている。全ての画素についての画素データをまとめて呼んだものが「画像データ」である。   Each pixel data is assumed to be data having a value proportional to the amount of charge accumulated during the exposure time (that is, data proportional to luminance). Accordingly, the pixel data for the pixels of the portion that does not receive incident light corresponding to the bright spot P are all “0”. “Image data” refers to pixel data for all pixels collectively.

フレームFL4に対応する画像72においては、露光時間が他のフレームの1/3であり且つ絞り12の開口量(及び/又は増幅回路15の増幅度)が大きくなっていることに起因して、画素(n+7)に対応する画素データのみが「30」となり、他の画素に対応する画素データは全て「0」となっている。このように、フレームFL4における原画像データを画像として表現した画像72においては、被写体ぶれが生じていない。   In the image 72 corresponding to the frame FL4, the exposure time is 1/3 of the other frames and the aperture amount of the diaphragm 12 (and / or the amplification degree of the amplifier circuit 15) is large. Only the pixel data corresponding to the pixel (n + 7) is “30”, and the pixel data corresponding to the other pixels are all “0”. Thus, no subject blur occurs in the image 72 representing the original image data in the frame FL4 as an image.

動画処理部23は、動画と静止画間の被写体ぶれの差異が小さくなるように、フレームFL4の静止画の撮影にて得られた画像データ(即ち、静止画用データ)に補正処理を施し、フレームFL4に対応する動画フレームデータを作成する。動画処理部23は(図4参照)、今回の撮影によって得られた画像データとその撮影の直前及び直後の撮影によって得られた画像データとの差分を演算して出力する差分演算部31と、差分演算部31の出力データに基づいて被写体ぶれが生じている領域或いは被写体ぶれが生じるべき領域を特定する被写体ぶれ領域特定部32と、露光時間に関する情報及び動きベクトルに関する情報に基づきつつ、被写体ぶれ領域特定部32によって特定された領域(被写体ぶれ領域)にぼかし処理を施すぼかし処理部33を含んで構成される。   The moving image processing unit 23 performs correction processing on the image data (that is, still image data) obtained by shooting the still image of the frame FL4 so that the subject blur difference between the moving image and the still image is reduced. Movie frame data corresponding to the frame FL4 is created. The moving image processing unit 23 (see FIG. 4) includes a difference calculation unit 31 that calculates and outputs a difference between the image data obtained by the current shooting and the image data obtained by the shooting immediately before and after the shooting, Based on the output data of the difference calculation unit 31, the subject blur region specifying unit 32 for specifying the region where the subject blur occurs or the region where the subject blur should occur, and the subject blur while based on the information on the exposure time and the information on the motion vector. A blur processing unit 33 that performs blur processing on the region (subject blur region) specified by the region specifying unit 32 is included.

上記の具体例に沿って動画処理部23の動作を説明する。繰り返すが、説明の簡略化上、画素数変換部21の存在は無視する。即ち、前処理部14からの原画像データが動画処理部23に直接与えられるものとして説明を行う。差分演算部31は、フレームFL4の撮影によって得られた原画像データ(即ち、静止画用データ)と、フレームFL3及びFL5の撮影によって得られた原画像データとの差分を演算し、その差分値を出力する。具体的には、フレームFL4の撮影によって得られた原画像データから、フレームFL3及びFL5の撮影によって得られた原画像データを差し引く。勿論、この差分演算は、同一の画素に対応する画素データ同士の間で行われる。これにより、画素n〜(n+11)に対応する差分値は、図9に示す如く、それぞれ0、0、0、−10、−10、−10、0、30、0、−10、−10、−10となる。   The operation of the moving image processing unit 23 will be described along the above specific example. Again, for simplicity of explanation, the presence of the pixel number conversion unit 21 is ignored. That is, the description will be made assuming that the original image data from the preprocessing unit 14 is directly given to the moving image processing unit 23. The difference calculation unit 31 calculates the difference between the original image data (that is, still image data) obtained by shooting the frame FL4 and the original image data obtained by shooting the frames FL3 and FL5, and the difference value Is output. Specifically, the original image data obtained by photographing the frames FL3 and FL5 is subtracted from the original image data obtained by photographing the frame FL4. Of course, this difference calculation is performed between pixel data corresponding to the same pixel. Thereby, the difference values corresponding to the pixels n to (n + 11) are respectively 0, 0, 0, −10, −10, −10, 0, 30, 0, −10, −10, as shown in FIG. -10.

被写体ぶれ領域特定部32は、各画素に対応する差分値の大きさと予め定められた閾値とを比較し、被写体ぶれ領域(即ち、被写体ぶれが生じている領域或いは被写体ぶれが生じるべき領域)を特定する。例えば、閾値を「5」と設定した場合、差分値の大きさが5以上となる画素(n+3)〜(n+5)、(n+7)及び(n+9)〜(n+11)が被写体ぶれ領域とされる。   The subject blur area specifying unit 32 compares the magnitude of the difference value corresponding to each pixel with a predetermined threshold value, and determines the subject blur area (that is, the area where the subject blur occurs or the area where the subject blur should occur). Identify. For example, when the threshold is set to “5”, pixels (n + 3) to (n + 5), (n + 7), and (n + 9) to (n + 11) having a difference value of 5 or more are set as subject blur areas.

ぼかし処理部33は、動画撮影用の露光時間Tと静止画撮影用の露光時間tとの差異に応じて、フレームFL4の撮影によって得られた原画像データ(即ち、静止画用データ)にぼかし処理を施す。この際、フレームFL4の静止画の撮影タイミング近辺の動きベクトルが参照される。例えば、フレームFL2からFL3の間の動きベクトルとフレームFL5からFL6の間の動きベクトルの平均の動きベクトルが参照される。フレームFL2からFL3の間の動きベクトルとフレームFL5からFL6の間の動きベクトルの向き及び大きさは、双方「右向き」及び「3画素分」であるため、その平均の動きベクトルの向き及び大きさは、「右向き」及び「3画素分」となる。   The blur processing unit 33 blurs the original image data (that is, still image data) obtained by shooting the frame FL4 according to the difference between the exposure time T for moving image shooting and the exposure time t for still image shooting. Apply processing. At this time, a motion vector near the shooting timing of the still image of the frame FL4 is referred to. For example, the average motion vector of the motion vector between the frames FL2 to FL3 and the motion vector between the frames FL5 to FL6 is referred to. Since the direction and magnitude of the motion vector between the frames FL2 and FL3 and the motion vector between the frames FL5 and FL6 are both “rightward” and “3 pixels”, the direction and magnitude of the average motion vector Are “rightward” and “3 pixels”.

この場合、露光時間がTであったならば向き及び大きさが「右向き」及び「3画素分」となっていた移動は、露光時間を静止画撮影用のtにしたことに起因して、静止画用データでは、(3画素)×t/Tの移動、即ち、右向きの1画素分の移動として捉えられている。つまり、2画素分(なぜならば、3−1=2)の被写体ぶれが静止画用データには表れていない。この静止画用データに含まれる被写体ぶれ量(静止画用データにて表される画像に含まれる被写体ぶれの量)は、ゼロであると言うことができる。   In this case, if the exposure time is T, the movement in which the orientation and size are “rightward” and “3 pixels” is caused by setting the exposure time to t for still image shooting. In the still image data, it is regarded as a movement of (3 pixels) × t / T, that is, a movement of one pixel in the right direction. That is, the subject blur of 2 pixels (because 3-1 = 2) does not appear in the still image data. It can be said that the amount of subject blur included in the still image data (the amount of subject blur included in the image represented by the still image data) is zero.

これを考慮し、ぼかし処理部33は、不足している2画素分の被写体ぶれを意図的に静止画用データに付加するぼかし処理を行う。つまり、被写体ぶれ領域と特定された画素の周辺画素を用いて画素データの平均化を行う。この平均化に用いられる「周辺画素」は、上記平均の動きベクトルの向き及び大きさに応じて設定される。つまり、今の場合、被写体ぶれ領域と特定された各画素における画素データは、隣接する左右の2画素の画素データとの間で平均化される。   In consideration of this, the blurring processing unit 33 performs blurring processing for intentionally adding subject blurring for two pixels to still image data. That is, the pixel data is averaged using the peripheral pixels of the pixel specified as the subject blur region. The “peripheral pixels” used for the averaging are set according to the direction and size of the average motion vector. In other words, in this case, the pixel data in each pixel specified as the subject blur region is averaged between the pixel data of the two adjacent pixels on the left and right.

これにより、画素(n+7)に対応する画素データのみが「30」であって且つ他の画素に対応する画素データが全て「0」となっていたぼかし処理前の静止画用データは、図10に示す如くぼかし処理後において、画素(n+6)〜(n+8)に対応する画素データのみが「10」となり且つ他の画素に対応する画素データが全て「0」となる。このぼかし処理後の静止画用データに含まれる被写体ぶれ量(ぼかし処理後の静止画用データにて表される画像に含まれる被写体ぶれの量)は、ぼかし処理前のそれよりも大きく、数値として例えば「2」と表現することができる。   Thereby, only the pixel data corresponding to the pixel (n + 7) is “30” and the pixel data corresponding to the other pixels are all “0”. As shown in FIG. 4, after the blurring process, only the pixel data corresponding to the pixels (n + 6) to (n + 8) is “10”, and the pixel data corresponding to the other pixels are all “0”. The amount of subject blur included in the still image data after the blurring process (the amount of subject blur included in the image represented by the still image data after the blurring process) is larger than that before the blurring process. For example, it can be expressed as “2”.

このように、ぼかし処理部33は、露光時間をTからtに短くしたことに由来する被写体ぶれの減少分を意図的に静止画用データ中の被写体ぶれ領域に対応するデータに付与する。つまり、被写体ぶれ領域に対応する画像が露光時間Tとtとの差異に応じてぼかされるように、被写体ぶれ領域に対応するデータを補正する。そして、この補正を施した後の画像データを、フレームFL4に対応する静止画撮影中の動画フレームデータとして出力する。これにより、静止画撮影のタイミングで動画が一瞬ちらついたりすることがなくなり、滑らかな動画を生成することが可能となる。   As described above, the blurring processing unit 33 intentionally gives the data corresponding to the subject blur region in the still image data the reduced amount of subject blur caused by shortening the exposure time from T to t. That is, the data corresponding to the subject blur area is corrected so that the image corresponding to the subject blur area is blurred according to the difference between the exposure times T and t. Then, the image data after this correction is output as moving image frame data during still image shooting corresponding to the frame FL4. Thereby, the moving image does not flicker for a moment at the timing of still image shooting, and a smooth moving image can be generated.

尚、ぼかし処理における上記平均化において、適宜重み付け係数を付与してもよい。また、差分演算の対象となる画素データとして輝度に比例するデータを例示したが、各画素に対応する色差信号値や各画素に対応するR(赤)、G(緑)又はB(青)信号値等を、画素データとして採用しても構わない。また、ぼかし処理部33による上記のぼかし処理は一例であって、被写体ぶれ領域に対応する画像が露光時間Tとtとの差異に応じてぼかされるのであれば、どのような手法を採用しても構わない。   In the averaging process in the blurring process, a weighting coefficient may be appropriately added. In addition, although data proportional to the luminance is exemplified as the pixel data to be subjected to the difference calculation, the color difference signal value corresponding to each pixel and the R (red), G (green) or B (blue) signal corresponding to each pixel A value or the like may be adopted as pixel data. Further, the above blur processing by the blur processing unit 33 is an example, and any method is adopted as long as the image corresponding to the subject blur region is blurred according to the difference between the exposure times T and t. It doesn't matter.

また、動画及び静止画の各撮影において、露光期間のちょうど中間のタイミングを、その撮影の撮影タイミング(基準タイミング)と呼ぶとすると、上述の第1動作例においては、図11に示す如く、隣り合う撮影タイミングの間隔は常に一定となっている。尚、図11及び図12において、黒い三角印は動画及び静止画の撮影タイミングを表している。これにより、各フレーム画像間の平均時間間隔(撮影タイミング間隔)が一定となり、より滑らかな動画を得ることができる。このような制御は、フレーム期間との関係において露光期間終了のタイミングを一定にすることを要求されない高速読み出しが可能な撮像素子を用いた場合に適用できる。撮像素子13として、一般的なCCD等を用いる場合は、信号読み出しスピードと制御の制約から、各フレームにおいてフレーム期間との関係における露光期間終了のタイミングを一定にする。例えば、図12に示す如く、各フレームにおいて、フレーム期間終了のタイミングと露光期間終了のタイミングとが常に一致するように制御する。この場合、隣り合う撮影タイミングの間隔は変動しうる。   In addition, in the shooting of moving images and still images, if the timing just in the middle of the exposure period is called the shooting timing (reference timing) of the shooting, in the above first operation example, as shown in FIG. The interval between suitable shooting timings is always constant. In FIG. 11 and FIG. 12, black triangle marks indicate shooting timings of moving images and still images. Thereby, the average time interval (shooting timing interval) between the frame images is constant, and a smoother moving image can be obtained. Such control can be applied when an image sensor capable of high-speed reading that is not required to make the exposure period end timing constant in relation to the frame period is used. When a general CCD or the like is used as the image sensor 13, the exposure period end timing in relation to the frame period is made constant in each frame due to signal read speed and control restrictions. For example, as shown in FIG. 12, in each frame, control is performed so that the end timing of the frame period and the end timing of the exposure period always coincide. In this case, the interval between adjacent shooting timings can vary.

[第2動作例]
次に、撮像装置1の動作の第2動作例を説明する。第2動作例も、第1動作例と同様、例えば、運動会などの動きの速いシーンの動画撮影中に静止画撮影を行うことを想定している。但し、絞り12の開口量を動画撮影用から静止画撮影用に変更するための時間が動画撮影の複数フレーム期間以上必要となる場合を想定している。
[Second operation example]
Next, a second operation example of the operation of the imaging device 1 will be described. Similar to the first operation example, the second operation example assumes that still image shooting is performed during moving image shooting of a fast-moving scene such as an athletic meet. However, it is assumed that the time required to change the aperture of the aperture 12 from moving image shooting to still image shooting requires a plurality of frame periods for moving image shooting.

動画撮影中のシャッタスピードより速いシャッタスピードで静止画撮影を行うとき、絞り12の開口量を変化させずに増幅回路15の増幅度を増大させることによって画像の明るさを一定に保つことも可能である。しかしながら、増幅度の増大によって明るさを確保する場合、同時にノイズも増大することになる。このため、動画撮影中のシャッタスピードより速いシャッタスピードで静止画撮影を行うときにおいては、画像の明るさを一定に保つべく、シャッタスピードの変化に応じて絞り12を大きく開けることが望ましい。しかしながら、動画撮影のフレームレートが比較的高い場合、絞り12の開口量を動画撮影用から静止画撮影用に変更するために、動画の1フレーム期間以上の時間を必要とする場合もある。第2動作例は、このような状況を想定している。   When taking a still image at a shutter speed faster than the shutter speed during movie shooting, it is also possible to keep the brightness of the image constant by increasing the amplification degree of the amplification circuit 15 without changing the aperture amount of the aperture 12. It is. However, when the brightness is secured by increasing the amplification degree, the noise also increases at the same time. For this reason, when still image shooting is performed at a shutter speed faster than the shutter speed during moving image shooting, it is desirable to widen the aperture 12 in accordance with the change in shutter speed in order to keep the brightness of the image constant. However, when the frame rate for moving image shooting is relatively high, it may take more than one frame period of the moving image to change the aperture of the aperture 12 from moving image shooting to still image shooting. The second operation example assumes such a situation.

図13は、第2動作例の制御概念を示す図であり、動画撮影中に静止画撮影を行った場合における、絞り12の開口量と、撮像素子13の電荷蓄積量と、露光時間と、前処理部14から読み出された原画像データと、動画処理部23が出力する画像データ(動画フレームデータ)との関係を示す図である。   FIG. 13 is a diagram illustrating a control concept of the second operation example, and in the case where still image shooting is performed during moving image shooting, the aperture amount of the diaphragm 12, the charge accumulation amount of the image sensor 13, the exposure time, It is a figure which shows the relationship between the original image data read from the pre-processing part 14, and the image data (moving image frame data) which the moving image process part 23 outputs.

動画撮影は、フレームFL11、FL12、FL13、FL14、FL15、FL16、FL17の順番で行われるものとする。そして、動画撮影中において、操作部42に対する静止画撮影の操作に応じてフレームFL14に相当する期間に静止画の撮影を行う場合を想定する。このため、動画撮影のフレームFL14は実際には存在しないと考えることもできるが、便宜上、動画撮影のフレームFL14は存在すると考える。第2動作例においては、絞り12の開口量が動画撮影用から静止画撮影用まで変化するために動画撮影の3フレーム期間に相当する時間が必要となることを想定している。同様に、絞り12の開口量が静止画撮影用から動画撮影用まで変化するために動画撮影の3フレーム期間に相当する時間が必要となるものとする。   Movie shooting is performed in the order of frames FL11, FL12, FL13, FL14, FL15, FL16, and FL17. Then, it is assumed that during moving image shooting, a still image is shot during a period corresponding to the frame FL14 in accordance with a still image shooting operation on the operation unit 42. For this reason, although it can be considered that the moving image shooting frame FL14 does not actually exist, for the sake of convenience, it is considered that the moving image shooting frame FL14 exists. In the second operation example, it is assumed that a time corresponding to three frame periods of moving image shooting is required because the opening amount of the diaphragm 12 changes from moving image shooting to still image shooting. Similarly, it is assumed that a time corresponding to three frame periods of moving image shooting is required because the opening amount of the diaphragm 12 changes from still image shooting to moving image shooting.

この場合、フレームFL11及びFL17における露光設定は動画撮影用に設定され、フレームFL14における露光設定のみ静止画撮影用に設定される。そして、フレームFL12、FL13、FL15及びFL16における露光設定は動画撮影用と静止画撮影用の間に設定されることになる。   In this case, the exposure settings in the frames FL11 and FL17 are set for moving image shooting, and only the exposure settings in the frame FL14 are set for still image shooting. The exposure settings in the frames FL12, FL13, FL15, and FL16 are set between moving image shooting and still image shooting.

具体的には、フレームFL11、FL12、FL13、FL14の順番で絞り12の開口量を徐々に大きくし、フレームFL14、FL15、FL16、FL17の順番で絞り12の開口量を徐々に小さくする。一方で、絞り12の開口量の増大による露光量の増大を打ち消すようにフレームFL11、FL12、FL13、FL14の順番で露光時間を徐々に小さくし、絞り12の開口量の減少による露光量の減少を打ち消すようにフレームFL14、FL15、FL16、FL17の順番で露光時間を徐々に大きくする。この露光時間と絞り12の開口量の調整によって、フレームFL11〜FL17における電荷蓄積量は適正レベル63に均一化される。つまり、フレームFL11〜FL17の撮影にて得られる画像の明るさが全て(略)同じになる。   Specifically, the opening amount of the diaphragm 12 is gradually increased in the order of the frames FL11, FL12, FL13, and FL14, and the opening amount of the diaphragm 12 is gradually decreased in the order of the frames FL14, FL15, FL16, and FL17. On the other hand, the exposure time is gradually shortened in the order of the frames FL11, FL12, FL13, and FL14 so as to cancel the increase in the exposure amount due to the increase in the aperture amount of the aperture stop 12, and the exposure amount is decreased due to the decrease in the aperture amount of the aperture stop 12. The exposure time is gradually increased in the order of the frames FL14, FL15, FL16, and FL17 so as to cancel out. By adjusting the exposure time and the opening amount of the diaphragm 12, the charge accumulation amount in the frames FL11 to FL17 is made uniform to an appropriate level 63. That is, the brightness of the images obtained by photographing the frames FL11 to FL17 are all (substantially) the same.

尚、上記のような制御で画像の明るさを全て同じにするのが理想ではあるが、機械的に動作する絞り12の開口量の制御精度の制約等から、それらの明るさを完全に一定に保つことは難しい。そこで、後段の信号処理において、最終的にそれらの明るさが一定になるように増幅処理等を加えればよい。この処理の具体例については、第2及び第3実施形態で後述する。   Although it is ideal that the brightness of the image is all the same by the control as described above, the brightness is completely constant due to the restriction of the control accuracy of the aperture amount of the diaphragm 12 that operates mechanically. Difficult to keep in. Therefore, in the subsequent signal processing, amplification processing or the like may be added so that the brightness of the signal finally becomes constant. Specific examples of this processing will be described later in the second and third embodiments.

実際の静止画撮影は、絞り12の開口量が完全に変化し終わったタイミング、即ち、フレームFL14に相当する期間で行われる。静止画撮影後、絞り12の開口量は動画撮影用に戻される。   Actual still image shooting is performed at the timing when the opening amount of the diaphragm 12 has completely changed, that is, in a period corresponding to the frame FL14. After still image shooting, the aperture of the diaphragm 12 is returned to movie shooting.

上記のような撮影によって得られた全ての原画像データは、信号処理部20に送られる。フレームFL11及びFL17については、各原画像データに基づいた各動画フレームデータが画像処理部23によって得られ、それらの動画フレームデータは所定の処理を経て動画を表すデータとして外部メモリ41に格納される。フレームFL14にて撮影された静止画に対応する原画像データは、「静止画用データ」として扱われ、静止画処理部25及び静止画圧縮部26による処理を経て静止画を表すデータとして外部メモリ41に格納される。   All the original image data obtained by the above photographing are sent to the signal processing unit 20. For the frames FL11 and FL17, each moving image frame data based on each original image data is obtained by the image processing unit 23, and the moving image frame data is stored in the external memory 41 as data representing a moving image through a predetermined process. . The original image data corresponding to the still image captured by the frame FL14 is treated as “still image data”, and is processed by the still image processing unit 25 and the still image compression unit 26 as data representing a still image from an external memory. 41.

また、静止画撮影中のフレームFL14に対応する動画フレームデータは、上記静止画用データを用いて作成され、動画を表すデータとして外部メモリ41に格納される。静止画用データを用いてフレームFL14に対応する動画フレームデータを生成する際、静止画用データに含まれる(フレームFL14にて撮影した静止画)に含まれる被写体の動きによる被写体ぶれ量を露光時間の差異に応じて補正し、これによって静止画撮影中の動画フレームデータを作成するようにしている。動画処理部23による、静止画用データを用いた静止画撮影中の動画フレームデータの作成手法は、第1動作例で説明したものと同様である。   The moving image frame data corresponding to the frame FL14 during still image shooting is created using the still image data and stored in the external memory 41 as data representing the moving image. When the moving image frame data corresponding to the frame FL14 is generated using the still image data, the subject blur amount due to the movement of the subject included in the still image data (the still image captured in the frame FL14) is determined as the exposure time. Thus, the moving image frame data during still image shooting is created. The method of creating moving image frame data during still image shooting using still image data by the moving image processing unit 23 is the same as that described in the first operation example.

また、フレームFL12、FL13、FL15及びFL16における露光時間は、動画撮影用の露光時間より短いため、フレームFL12、FL13、FL15及びFL16の撮影によって得られた原画像データを画像として表した場合に、それらの画像に含まれる被写体ぶれ量は、露光時間を動画撮影用に設定した場合よりも小さくなる。そこで、フレームFL12、FL13、FL15及びFL16の撮影によって得られた各原画像データについても被写体ぶれ量の補正を行い、その補正を経て得られた各画像データをフレームFL12、FL13、FL15及びFL16の各動画フレームデータとする。フレームFL12、FL13、FL15及びFL16の各動画フレームデータは、それらのフレームに対応する動画を表すデータとして外部メモリ41に格納される。これにより、それらのフレームに対応する動画がちらついたりすることがなく、滑らかな動画を得ることができる。   Further, since the exposure time in the frames FL12, FL13, FL15 and FL16 is shorter than the exposure time for moving image shooting, when the original image data obtained by shooting the frames FL12, FL13, FL15 and FL16 is represented as an image, The amount of subject blur included in these images is smaller than when the exposure time is set for moving image shooting. Therefore, the subject shake amount is also corrected for each original image data obtained by photographing the frames FL12, FL13, FL15, and FL16, and each image data obtained through the correction is used for the frames FL12, FL13, FL15, and FL16. Each moving image frame data is used. Each moving image frame data of the frames FL12, FL13, FL15 and FL16 is stored in the external memory 41 as data representing moving images corresponding to these frames. Thereby, the moving image corresponding to those frames does not flicker, and a smooth moving image can be obtained.

フレームFL12、FL13、FL15及びFL16に対応する被写体ぶれ量の補正手法は、基本的にフレームFL14に対応する被写体ぶれ量の補正手法と同じであり、その補正処理を行う動画処理部23の内部構成は図4に示したものと同じである。図4を参照し、例としてフレームFL12に着目して、この被写体ぶれ量の補正手法を説明する。但し、説明の簡略化上、画素数変換部21の存在は無視する。即ち、前処理部14からの原画像データが動画処理部23に直接与えられるものとして説明を行う。   The subject blur amount correction method corresponding to the frames FL12, FL13, FL15, and FL16 is basically the same as the subject blur amount correction method corresponding to the frame FL14, and the internal configuration of the moving image processing unit 23 that performs the correction process. Is the same as that shown in FIG. With reference to FIG. 4, focusing on the frame FL12 as an example, this subject blur amount correction method will be described. However, for simplification of description, the presence of the pixel number conversion unit 21 is ignored. That is, the description will be made assuming that the original image data from the preprocessing unit 14 is directly given to the moving image processing unit 23.

差分演算部31は、フレームFL12の撮影によって得られた原画像データと、フレームFL11及びFL13の撮影によって得られた原画像データとの差分を演算し、その差分値を出力する。具体的には、フレームFL12の撮影によって得られた原画像データから、フレームFL11及びFL13の撮影によって得られた原画像データを差し引く。被写体ぶれ領域特定部32は、各画素に対応する差分値の大きさと予め定められた閾値とを比較し、被写体ぶれ領域を特定する。   The difference calculation unit 31 calculates a difference between the original image data obtained by photographing the frame FL12 and the original image data obtained by photographing the frames FL11 and FL13, and outputs the difference value. Specifically, the original image data obtained by photographing the frames FL11 and FL13 is subtracted from the original image data obtained by photographing the frame FL12. The subject blur area specifying unit 32 compares the magnitude of the difference value corresponding to each pixel with a predetermined threshold value, and specifies the subject blur area.

ぼかし処理部33は、動画撮影用の露光時間と着目しているフレーム(即ち、フレームFL12)における露光時間との差異に応じて、フレームFL12の撮影によって得られた原画像データにぼかし処理を施す。この際、第1動作例にて説明したのと同様に、フレームFL12の動画の撮影タイミング近辺の動きベクトルが参照される。   The blur processing unit 33 blurs the original image data obtained by shooting the frame FL12 according to the difference between the exposure time for moving image shooting and the exposure time in the frame of interest (ie, the frame FL12). . At this time, as described in the first operation example, a motion vector near the shooting timing of the moving image of the frame FL12 is referred to.

例えば、動画撮影用の露光時間及びフレームFL12における露光時間がそれぞれ1/60秒及び1/120秒である場合、1/120秒(なぜならば、1/60−1/120=1/120)の露光時間分の被写体ぶれを、フレームFL12の撮影によって得られた原画像データに意図的に付与する(或いは追加する)。つまり、フレームFL12における露光時間を1/60秒としていたならば生じていたと推定される被写体ぶれ量がフレームFL12に対応する動画フレームデータに含まれるように、ぼかし処理を行う。このぼかし処理を経たデータは、フレームFL12に対応する動画フレームデータとして出力され、所定の処理を経て外部メモリ41に格納される。   For example, when the exposure time for moving image shooting and the exposure time in the frame FL12 are 1/60 seconds and 1/120 seconds, respectively, 1/120 seconds (because 1 / 60-1 / 120 = 1/120) Subject blur for the exposure time is intentionally added (or added) to the original image data obtained by photographing the frame FL12. That is, the blurring process is performed so that the subject blur amount estimated to have occurred if the exposure time in the frame FL12 was 1/60 seconds is included in the moving image frame data corresponding to the frame FL12. The data subjected to the blurring process is output as moving image frame data corresponding to the frame FL12, and is stored in the external memory 41 through a predetermined process.

フレームFL12に着目して被写体ぶれ量の補正手法を説明したが、フレームFL13、FL15及びFL16についても、同様の手法で被写体ぶれ量の補正が行われる。   Although the subject blur amount correction method has been described focusing on the frame FL12, the subject blur amount is corrected by the same method for the frames FL13, FL15, and FL16.

[第3動作例]
次に、撮像装置1の動作の第3動作例を説明する。第3動作例は、例えば、室内などの暗いシーンの動画撮影中に静止画撮影を行うことを想定している。
[Third operation example]
Next, a third operation example of the operation of the imaging device 1 will be described. In the third operation example, it is assumed that still image shooting is performed during moving image shooting of a dark scene such as a room.

暗いシーンの動画撮影においては、動画撮影の1フレーム期間の全てを用いて露光を行っても露光量が適正レベルに達しない場合がある。この場合、一般的には信号処理における増幅度を増大させることで明るい画像を生成する。しかしながら、そのような増幅度の増大によってノイズも一緒に増大してしまう。これに着目し、第3動作例では、暗いシーンの動画撮影中に静止画撮影を行う場合、ノイズの増大を抑制すべく、露光時間を動画の1フレーム期間よりも長くすることで上記増幅度の過度の増大を抑制する。   In moving image shooting of dark scenes, the exposure amount may not reach an appropriate level even if exposure is performed using the entire frame period of moving image shooting. In this case, generally, a bright image is generated by increasing the degree of amplification in signal processing. However, such an increase in amplification increases noise as well. Focusing on this, in the third operation example, when still image shooting is performed during moving image shooting of a dark scene, in order to suppress an increase in noise, the above-described amplification degree is set by making the exposure time longer than one frame period of the moving image. Suppresses excessive increase of

動画撮影中に1フレーム期間より長い期間をかけて静止画を撮影する場合、静止画の露光時間に応じた分の動画フレームの欠如を補填する必要がある。動画フレームの欠如を補填するために、その直前の動画フレームを繰り返し表示したり、黒フレームを挿入したりしていたのでは、動画が見苦しくなる。これを考慮し、第3動作例では、静止画の撮影によって得られた画像データと該静止画の前後の撮影によって得られた画像データとを用いて、静止画撮影に起因して欠如する動画フレームを生成する。以下、この手法について詳説する。   When a still image is shot over a period longer than one frame during movie shooting, it is necessary to compensate for the lack of movie frames corresponding to the exposure time of the still image. In order to make up for the lack of a moving image frame, if the immediately preceding moving image frame is repeatedly displayed or a black frame is inserted, the moving image becomes unsightly. In consideration of this, in the third operation example, a moving image that is missing due to still image shooting using image data obtained by shooting a still image and image data obtained by shooting before and after the still image. Generate a frame. Hereinafter, this method will be described in detail.

図14は、第3動作例の制御概念を示す図であり、動画撮影中に静止画撮影を行った場合における、絞り12の開口量と、撮像素子13の電荷蓄積量と、露光時間と、増幅回路15におけるゲインアップ量と、前処理部14から読み出された原画像データと、動画処理部23が出力する画像データ(動画フレームデータ)との関係を示す図である。   FIG. 14 is a diagram illustrating a control concept of the third operation example, and when a still image is shot during moving image shooting, the aperture amount of the diaphragm 12, the charge accumulation amount of the image sensor 13, the exposure time, FIG. 4 is a diagram illustrating a relationship among a gain increase amount in an amplifier circuit 15, original image data read from a preprocessing unit 14, and image data (moving image frame data) output by a moving image processing unit 23.

途中で静止画撮影がなかったならば動画撮影は、フレームFL21、FL22、FL23、FL24、FL25、FL26、FL27の順番で行われるものとする。そして、動画撮影中において、操作部42に対する静止画撮影の操作に応じてフレームFL23及びFL24に相当する期間に静止画の撮影を行う場合を想定する。このため、動画撮影のフレームFL23及びFL24は実際には存在しないと考えることもできるが、便宜上、動画撮影のフレームFL23及びFL24は存在すると考える。尚、図14において、t1は、フレームFL21、FL22、FL25、FL26及びFL27の動画撮影の露光時間を表しており、t1×2(即ち、t1の2倍)は、フレームFL23及びFL24を用いた静止画撮影の露光時間を表している。   If there is no still image shooting on the way, moving image shooting is performed in the order of frames FL21, FL22, FL23, FL24, FL25, FL26, FL27. Then, it is assumed that during moving image shooting, a still image is shot during a period corresponding to the frames FL23 and FL24 in accordance with a still image shooting operation on the operation unit 42. For this reason, although it can be considered that the frames FL23 and FL24 for moving image shooting do not actually exist, it is considered that the frames FL23 and FL24 for moving image shooting exist for convenience. In FIG. 14, t1 represents the exposure time for moving image shooting of the frames FL21, FL22, FL25, FL26, and FL27, and t1 × 2 (that is, twice t1) used the frames FL23 and FL24. It represents the exposure time for still image shooting.

図14に示す例では、動画撮影において、絞り12の開口量を最大にし且つ1フレーム期間中露光しても、露光量が適正レベル63に達しない。このため、動画撮影では、信号処理において2倍のゲインアップを行っている。即ち、フレームFL21、FL22、FL25、FL26及びFL27の動画撮影において、増幅回路15の増幅度は基準ゲインの2倍とされている。一方において、静止画はFL23及びFL24の略2フレーム期間分の露光時間にて撮影を行っており、信号処理においてゲインアップを行わずとも露光量が適正レベル63に達している。即ち、フレームFL23及びFL24に相当する期間を用いた静止画撮影において、増幅回路15の増幅度は基準ゲインの1倍とされている。このため、ノイズの少ない良好な静止画を得ることが可能となる。尚、フレームFL21〜FL27における絞り12の開口量は、例えば一定(最大の開口量)に維持されている。   In the example shown in FIG. 14, the exposure amount does not reach the appropriate level 63 even when the aperture of the diaphragm 12 is maximized and exposure is performed for one frame period in moving image shooting. For this reason, in moving image shooting, the gain is doubled in signal processing. That is, in the moving image shooting of the frames FL21, FL22, FL25, FL26, and FL27, the amplification degree of the amplifier circuit 15 is set to twice the reference gain. On the other hand, a still image is taken with an exposure time of approximately two frame periods of FL23 and FL24, and the exposure amount reaches an appropriate level 63 without gain increase in signal processing. That is, in still image shooting using a period corresponding to the frames FL23 and FL24, the amplification degree of the amplifier circuit 15 is set to be one time the reference gain. For this reason, it is possible to obtain a good still image with less noise. Note that the opening amount of the diaphragm 12 in the frames FL21 to FL27 is maintained, for example, constant (maximum opening amount).

上記のような撮影によって得られた全ての原画像データは、信号処理部20に送られる。フレームFL21、FL22、FL25、FL26及びFL27については、各原画像データに基づいた各動画フレームデータが画像処理部23によって得られ、それらの動画フレームデータは所定の処理を経て動画を表すデータとして外部メモリ41に格納される。フレームFL23及びFL24に相当する期間を用いて撮影された静止画に対応する原画像データは、「静止画用データ」として扱われ、静止画処理部25及び静止画圧縮部26による処理を経て静止画を表すデータとして外部メモリ41に格納される。   All the original image data obtained by the above photographing are sent to the signal processing unit 20. For the frames FL21, FL22, FL25, FL26, and FL27, each moving image frame data based on each original image data is obtained by the image processing unit 23, and these moving image frame data are externally processed as data representing a moving image through predetermined processing. Stored in the memory 41. Original image data corresponding to a still image shot using a period corresponding to the frames FL23 and FL24 is treated as “still image data”, and is processed through the processing by the still image processing unit 25 and the still image compression unit 26. The data representing the image is stored in the external memory 41.

フレームFL23及びFL24に相当する期間を用いて静止画の撮影を行うと、フレームFL23に対応すべき動画フレーム(動画フレームデータ)が欠如することになる。一方において、上記静止画用データには、欠如している動画フレームの情報が含まれている。従って、動画のフレームレートが被写体の動きに対して十分に大きい場合は、静止画用データにて表される画像を2フレーム連続して動画として表示しても動きが一瞬止まるように認識されることはなく、動画の滑らかさは損なわれない。しかしながら、動画のフレームレートが被写体の動きに対して十分に大きいと言えない場合においては、静止画用データにて表される画像を2フレーム連続して表示すると、動きが一瞬止まって見えてしまう。   When a still image is shot using a period corresponding to the frames FL23 and FL24, a moving image frame (moving image frame data) that should correspond to the frame FL23 is lost. On the other hand, the still image data includes information on a missing moving image frame. Therefore, when the frame rate of the moving image is sufficiently large relative to the movement of the subject, even if the image represented by the still image data is displayed as a moving image for two consecutive frames, the movement is recognized to stop for a moment. And the smoothness of the video is not compromised. However, in the case where the frame rate of the moving image cannot be said to be sufficiently large with respect to the movement of the subject, if the image represented by the still image data is displayed continuously for two frames, the movement appears to stop for a moment. .

そこで、第3動作例においては、動画のフレームレートに依らず滑らかな動画を得るために、フレームFL23及びFL24に相当する期間を用いて撮影された静止画を表す原画像データ(即ち、静止画用データ)と、フレームFL22及びFL25を用いて撮影された画像を表す2つの原画像データを使って、静止画撮影中の動画フレームデータを生成する。滑らかな動きの再生を実現する動画を得るためには、本来動画に含まれるべき被写体ぶれに近い被写体ぶれを、生成する動画フレームデータに付与し、且つ同じ画像が連続して表示されないようにすればよい。   Therefore, in the third operation example, in order to obtain a smooth moving image regardless of the frame rate of the moving image, original image data (that is, a still image) representing a still image shot using a period corresponding to the frames FL23 and FL24. Data) and two original image data representing an image shot using the frames FL22 and FL25, to generate moving image frame data during still image shooting. In order to obtain a video that achieves smooth motion reproduction, subject blur that is close to the subject blur that should originally be included in the video is added to the generated video frame data, and the same image is not continuously displayed. That's fine.

このような主旨に基づいた、フレームFL23及びFL24に対応する動画フレームデータの作成手法の一例を、図15を用いて説明する。但し、説明の簡略化上、画素数変換部21の存在は無視する。即ち、前処理部14からの原画像データが動画処理部23に直接与えられるものとして説明を行う。また、図15を用いた説明においては、図14の図示と若干異なるが、フレームFL22及びFL25における露光時間の長さはそれぞれ動画撮影の1フレーム期間の長さと一致しているものとし、且つ、フレームFL23及びFL24を用いた静止画の撮影の露光時間は動画撮影の2フレーム期間の長さと一致しているものとする。   An example of a method of creating moving image frame data corresponding to the frames FL23 and FL24 based on the main point will be described with reference to FIG. However, for simplification of description, the presence of the pixel number conversion unit 21 is ignored. That is, the description will be made assuming that the original image data from the preprocessing unit 14 is directly given to the moving image processing unit 23. Further, in the description using FIG. 15, although slightly different from the illustration of FIG. 14, the length of the exposure time in the frames FL22 and FL25 is assumed to be equal to the length of one frame period of the moving image shooting, and It is assumed that the exposure time for still image shooting using the frames FL23 and FL24 coincides with the length of two frame periods for moving image shooting.

そして、動画及び静止画の各撮影において、露光期間のちょうど中間のタイミングを、その撮影の撮影タイミング(基準タイミング)と呼ぶことにする。フレームFL22及びFL25における動画の撮影タイミングを夫々α22及びα25とし、フレームFL23及びFL24を用いた静止画の撮影タイミングをβ1とする。また、その静止画の撮影がなかったならばフレームFL23及びFL24において撮影されていた動画の撮影タイミングを、夫々α23及びα24とする。 In each shooting of moving images and still images, the timing just in the middle of the exposure period is referred to as shooting timing (reference timing) of the shooting. The moving image shooting timings in the frames FL22 and FL25 are α 22 and α 25 , respectively, and the still image shooting timings using the frames FL23 and FL24 are β 1 . If the still image is not shot, the shooting timings of the moving images shot in the frames FL23 and FL24 are α 23 and α 24 , respectively.

フレームFL23に対応する動画フレームデータは、フレームFL23及びFL24を用いて撮影された静止画を表す原画像データ(即ち、上記静止画用データ)と、フレームFL22の撮影によって得られた原画像データとを加重加算合成することにより作成される。この加重加算合成における重み付け係数は、撮影タイミングα22、α23及びβ1に基づいて決定される。即ち、フレームFL23及びFL24を用いて撮影した静止画用データを構成する画素データの夫々に2/3を乗じたものに、フレームFL22に対応する原画像データを構成する画素データの夫々に1/3を乗じたものを加算し、この加算によって得られる画像データをフレームFL23に対応する動画フレームデータとする。勿論、画素データの上記加算は、同一の画素に対応する画素データ同士の間で行われる。 The moving image frame data corresponding to the frame FL23 includes original image data representing a still image captured using the frames FL23 and FL24 (that is, the still image data), and original image data obtained by capturing the frame FL22. Is created by weighted addition synthesis. The weighting coefficient in this weighted addition synthesis is determined based on the imaging timings α 22 , α 23 and β 1 . That is, 1/3 of each pixel data constituting the original image data corresponding to the frame FL22 is obtained by multiplying each of the pixel data constituting the still image data photographed using the frames FL23 and FL24 by 2/3. The product of 3 is added, and the image data obtained by this addition is used as moving image frame data corresponding to the frame FL23. Of course, the addition of the pixel data is performed between the pixel data corresponding to the same pixel.

上記の重み付け係数としての「2/3」は、「撮影タイミングα22とα23間の時間の長さ」を「撮影タイミングα22とβ1間の時間の長さ」で割ることにより算出される。上記の重み付け係数としての「1/3」は、「撮影タイミングα23とβ1間の時間の長さ」を「撮影タイミングα22とβ1間の時間の長さ」で割ることにより算出される。フレームFL23における画像情報は、静止画用データ側により多く含まれているため、上記のように重み付け係数を決定することで、より滑らかな動画を再現可能となる。 “2/3” as the weighting coefficient is calculated by dividing “the length of time between the shooting timings α 22 and α 23 ” by “the length of time between the shooting timings α 22 and β 1 ”. The “1/3” as the weighting factor is calculated by dividing “the length of time between the shooting timings α 23 and β 1 ” by “the length of time between the shooting timings α 22 and β 1 ”. The Since more image information in the frame FL23 is included on the still image data side, a smoother moving image can be reproduced by determining the weighting coefficient as described above.

例えば、上記静止画用データに対応する或る画素nの画素データを「60」とし且つフレームFL22に対応する該画素nの画素データを「30」とした場合、フレームFL23に対応する動画フレームデータを構成する該画素nについての画素データは、60×2/3+30×1/3=50より、「50」となる。   For example, when pixel data of a certain pixel n corresponding to the still image data is “60” and pixel data of the pixel n corresponding to the frame FL22 is “30”, moving image frame data corresponding to the frame FL23 The pixel data for the pixel n that constitutes “50” is “50” because 60 × 2/3 + 30 × 1/3 = 50.

同様に、フレームFL24に対応する動画フレームデータは、フレームFL23及びFL24を用いて撮影された静止画を表す原画像データ(即ち、上記静止画用データ)と、フレームFL25の撮影によって得られた原画像データとを加重加算合成することにより作成される。この加重加算合成における重み付け係数は、撮影タイミングβ1、α24及びα25に基づいて決定される。即ち、フレームFL23及びFL24を用いて撮影した静止画用データを構成する画素データの夫々に2/3を乗じたものに、フレームFL25に対応する原画像データを構成する画素データの夫々に1/3を乗じたものを加算し、この加算によって得られる画像データを、フレームFL24に対応する動画フレームデータとする。勿論、画素データの上記加算は、同一の画素に対応する画素データ同士の間で行われる。 Similarly, the moving image frame data corresponding to the frame FL24 includes original image data representing a still image captured using the frames FL23 and FL24 (that is, the still image data) and an original obtained by capturing the frame FL25. It is created by weighted addition synthesis with image data. The weighting coefficient in this weighted addition synthesis is determined based on the photographing timings β 1 , α 24 and α 25 . That is, 1/3 of each of the pixel data constituting the original image data corresponding to the frame FL25 is obtained by multiplying each of the pixel data constituting the still image data photographed using the frames FL23 and FL24 by 2/3. The product of 3 is added, and the image data obtained by this addition is used as moving image frame data corresponding to the frame FL24. Of course, the addition of the pixel data is performed between the pixel data corresponding to the same pixel.

上記の重み付け係数としての「2/3」は、「撮影タイミングα24とα25間の時間の長さ」を「撮影タイミングβ1とα25間の時間の長さ」で割ることにより算出される。上記の重み付け係数としての「1/3」は、「撮影タイミングβ1とα24間の時間の長さ」を「撮影タイミングβ1とα25間の時間の長さ」で割ることにより算出される。フレームFL24における画像情報は、静止画用データ側により多く含まれているため、上記のように重み付け係数を決定することで、より滑らかな動画を再現可能となる。 “2/3” as the above weighting coefficient is calculated by dividing “the length of time between imaging timings α 24 and α 25 ” by “the length of time between imaging timings β 1 and α 25 ”. The “1/3” as the above weighting coefficient is calculated by dividing “the length of time between shooting timings β 1 and α 24 ” by “the length of time between shooting timings β 1 and α 25 ”. The Since more image information in the frame FL24 is included on the still image data side, a smoother moving image can be reproduced by determining the weighting coefficient as described above.

上記の加重加算合成を行って静止画撮影中の動画フレームデータを作成すれば、それらの動画フレームデータが表す動画に含まれる被写体ぶれ量は、本来あるべき被写体ぶれ量に近似するようになる。即ち、静止画用データを基準に被写体ぶれ量が調整された動画フレームデータが作成されることになり、動きの滑らかな動画を得ることができる。   If moving image frame data during still image shooting is created by performing the above-described weighted addition synthesis, the amount of subject blur included in the moving image represented by the moving image frame data approximates the amount of subject blur that should originally exist. That is, moving image frame data in which the subject blur amount is adjusted based on still image data is created, and a moving image with smooth motion can be obtained.

また、静止画撮影の露光時間が1フレーム期間より長く必要となるときの静止画の撮影タイミングは、図16に示す如く、その前後の動画フレームの撮影タイミング間のちょうど中間に位置するように制御されることが望ましい。これにより、各フレーム画像間の平均時間間隔(撮影タイミング間隔)が一定となり、より滑らかな動画を得ることができるからである。図15に示した例も、これに従っている。即ち、静止画の撮影タイミングβ1は、その前後の動画フレームの撮影タイミングα22とα25との間のちょうど中間に位置するように制御されている。尚、図16及び図17において、黒い三角印は動画及び静止画の撮影タイミングを表しており、白い三角印は静止画用データを用いて生成される動画フレームの撮影タイミングを表している。信号読み出しスピード等の制約から、フレーム期間の最後に撮像素子13からデータを読み出す場合は、図17のようになり、静止画の撮影タイミングを、その前後の動画フレームの撮影タイミング間のちょうど中間に位置させることができない場合がある。 Further, as shown in FIG. 16, the still image shooting timing when the exposure time of still image shooting is required longer than one frame period is controlled so as to be positioned exactly between the shooting timings of the preceding and subsequent moving image frames. It is desirable that This is because the average time interval (shooting timing interval) between the frame images is constant, and a smoother moving image can be obtained. The example shown in FIG. 15 also follows this. In other words, the still image shooting timing β 1 is controlled so as to be positioned exactly between the shooting timings α 22 and α 25 of the preceding and subsequent moving image frames. In FIG. 16 and FIG. 17, black triangle marks represent shooting timings of moving images and still images, and white triangle marks represent shooting timings of moving image frames generated using still image data. When data is read from the image sensor 13 at the end of the frame period due to restrictions such as the signal readout speed, the shooting timing of the still image is set to exactly the middle between the shooting timings of the preceding and subsequent video frames as shown in FIG. It may not be possible to position.

また、上記の加重加算合成は、画像データを構成する画素データの全てについて行っても良いし(即ち、画面全体で行っても良いし)、差分の大きい部分のみを対象として行っても良い。   Further, the above weighted addition synthesis may be performed on all of the pixel data constituting the image data (that is, may be performed on the entire screen), or may be performed on only a portion having a large difference.

差分の大きい部分のみを対象として加重加算合成を行う場合の動作を、図15を参照して示した上記条件の下で説明する。例えば、図18に示す如く、フレームFL22の撮影によって得られた原画像データを構成する、画素n、(n+1)及び(n+2)に対応する画素データが、夫々「10」、「10」及び「10」であり、且つ、フレームFL23及びFL24の撮影にて得られた原画像データ(即ち、上記静止画用データ)を構成する、画素n、(n+1)及び(n+2)に対応する画素データが、夫々「7」、「15」及び「40」であったとする。そして、予め「8」の閾値が定められているとする。   An operation in the case of performing weighted addition synthesis only for a portion with a large difference will be described under the above-described conditions shown with reference to FIG. For example, as shown in FIG. 18, the pixel data corresponding to the pixels n, (n + 1) and (n + 2) constituting the original image data obtained by photographing the frame FL22 are “10”, “10” and “10”, respectively. 10 ”and the pixel data corresponding to the pixels n, (n + 1) and (n + 2) constituting the original image data (that is, the still image data) obtained by photographing the frames FL23 and FL24 are Suppose that they are “7”, “15” and “40”, respectively. It is assumed that a threshold value of “8” is set in advance.

動画処理部23は、同一の画素についての画素データ同士の差分を上記閾値と比較し、閾値以上の差分を与える画素データのみを対象として、上記の加重加算合成を行うようにする。上記の例の場合、画素n、(n+1)及び(n+2)に対応する画素データの内、画素(n+2)に対応する画素データのみが加重加算合成の対象となる。そうすると、フレームFL23に対応する動画フレームデータにおいて、画素(n+2)に対応する画素データは上記加重加算合成により「30」となる。   The moving image processing unit 23 compares the difference between pixel data for the same pixel with the threshold value, and performs the above-described weighted addition synthesis only for pixel data that gives a difference equal to or greater than the threshold value. In the case of the above example, only the pixel data corresponding to the pixel (n + 2) among the pixel data corresponding to the pixels n, (n + 1) and (n + 2) is subjected to weighted addition synthesis. Then, in the moving image frame data corresponding to the frame FL23, the pixel data corresponding to the pixel (n + 2) becomes “30” by the weighted addition synthesis.

加重加算合成の対象とならない画素の画素データには、例えば、静止画用データの画素データがそのまま流用される。作成される動画フレームデータに対応する撮影タイミングα23は、撮影タイミングα22よりも撮影タイミングβ1に近いからである。但し、加重加算合成の対象とならない画素の画素データとして、フレームFL22に対応する原画像データの画素データをそのまま流用するようにしても構わない。 For example, pixel data of still image data is used as it is as pixel data of pixels not subject to weighted addition synthesis. This is because the shooting timing α 23 corresponding to the created moving image frame data is closer to the shooting timing β 1 than the shooting timing α 22 . However, the pixel data of the original image data corresponding to the frame FL22 may be used as it is as the pixel data of the pixels that are not the object of the weighted addition synthesis.

尚、上記の例では静止画撮影の露光時間が2フレーム期間となっているが、その露光時間が2フレーム期間より大きくなった場合も、同様の考え方を用いて静止画撮影中の動画フレームデータを作成することができる。但し、動画撮影中の静止画撮影の露光時間が長くなると、合成によって生成される動画フレームデータが増加するため、再生される動画に不自然さが生じうる。   In the above example, the exposure time for still image shooting is 2 frame periods. However, when the exposure time is longer than 2 frame periods, the moving image frame data during still image shooting is also used using the same concept. Can be created. However, if the exposure time for still image shooting during moving image shooting becomes longer, the moving image frame data generated by the synthesis increases, so that the reproduced moving image may be unnatural.

そこで、動画撮影中に行われる静止画撮影の露光時間に上限値(例えば3フレーム期間)を設けるようにしてもよい。そして、静止画撮影の露光時間を上限値にまでのばしても露光が不足していると判断されるとき(即ち、露光量が定められた適正レベルに達しないとき)、信号処理においてゲインアップを施せばよい。即ち、増幅回路15の増幅度を基準ゲインより増加させることによって露光不足を補った上で、静止画の撮影を行えばよい。   Therefore, an upper limit value (for example, 3 frame periods) may be provided for the exposure time of still image shooting performed during moving image shooting. When it is determined that the exposure is insufficient even when the exposure time of still image shooting is extended to the upper limit (that is, when the exposure amount does not reach the predetermined appropriate level), the gain is increased in the signal processing. Just give it. That is, a still image may be taken after compensating for the underexposure by increasing the amplification degree of the amplifier circuit 15 above the reference gain.

露光が不足しているか否かは増幅回路15の出力信号の大きさから判断できる。増幅回路15の増幅度を或る定められた値にした状態において、増幅回路15の出力信号の大きさが所定の規定値に達すれば露光の不足はなく、その大きさが該規定値に達しなければ露光は不足している。   Whether the exposure is insufficient or not can be determined from the magnitude of the output signal of the amplifier circuit 15. In a state where the amplification degree of the amplifier circuit 15 is set to a predetermined value, if the magnitude of the output signal of the amplifier circuit 15 reaches a predetermined specified value, there is no shortage of exposure, and the magnitude reaches the specified value. If not, exposure is insufficient.

また、動画撮影中に行われる静止画撮影の露光時間に上限値を定める場合、ゲインアップで露光不足を補うのではなく、複数の静止画生成用の画像を連続して撮影し、それらの画像を加算合成(多重露光合成)することによって、最適露光の静止画を得るようにしてもよい。この手法を、第4動作例として後述する。   Also, when an upper limit is set for the exposure time of still image shooting performed during movie shooting, a plurality of still image generation images are continuously shot instead of compensating for insufficient exposure by increasing the gain. May be added and combined (multiple exposure combining) to obtain a still image with optimum exposure. This technique will be described later as a fourth operation example.

[第4動作例]
図19は、第4動作例の制御概念を示す図であり、動画撮影中に静止画撮影を行った場合における、絞り12の開口量と、撮像素子13の電荷蓄積量と、露光時間と、増幅回路15におけるゲインアップ量と、前処理部14から読み出された原画像データと、動画処理部23が出力する画像データ(動画フレームデータ)との関係を示す図である。尚、第4動作例においても、説明の簡略化上、画素数変換部21の存在は無視する。即ち、前処理部14からの原画像データが動画処理部23に直接与えられるものとして説明を行う。
[Fourth operation example]
FIG. 19 is a diagram illustrating a control concept of the fourth operation example. When still image shooting is performed during moving image shooting, the aperture amount of the diaphragm 12, the charge accumulation amount of the image sensor 13, the exposure time, FIG. 4 is a diagram illustrating a relationship among a gain increase amount in an amplifier circuit 15, original image data read from a preprocessing unit 14, and image data (moving image frame data) output by a moving image processing unit 23. In the fourth operation example, the presence of the pixel number conversion unit 21 is ignored for the sake of simplicity. That is, the description will be made assuming that the original image data from the preprocessing unit 14 is directly given to the moving image processing unit 23.

途中で静止画撮影がなかったならば動画撮影は、フレームFL31、FL32、FL33、FL34、FL35、FL36、FL37の順番で行われるものとする。そして、動画撮影中において、操作部42に対する静止画撮影の操作に応じ、フレームFL33〜FL36に相当する期間を用いて静止画の撮影を行う場合を想定する。このため、動画撮影のフレームFL33〜FL36は実際には存在しないと考えることもできるが、便宜上、動画撮影のフレームFL33〜FL36は存在すると考える。尚、図19において、t1は、フレームFL31、FL32及びFL37の動画撮影の露光時間を表しており、t1×2(即ち、t1の2倍)は、フレームFL33及びFL34を用いた第1の静止画用撮影の露光時間と、フレームFL35及びFL36を用いた第2の静止画用撮影の露光時間を表している。   If there is no still image shooting on the way, moving image shooting is performed in the order of frames FL31, FL32, FL33, FL34, FL35, FL36, and FL37. Then, it is assumed that during moving image shooting, a still image is shot using a period corresponding to the frames FL33 to FL36 in accordance with a still image shooting operation on the operation unit 42. For this reason, it can be considered that the moving image shooting frames FL33 to FL36 do not actually exist, but for the sake of convenience, the moving image shooting frames FL33 to FL36 are considered to exist. In FIG. 19, t1 represents the exposure time of moving image shooting of the frames FL31, FL32, and FL37, and t1 × 2 (that is, twice t1) represents the first stationary state using the frames FL33 and FL34. The exposure time for image shooting and the exposure time for second still image shooting using the frames FL35 and FL36 are shown.

第4動作例は、動画撮影中に行われる静止画撮影の露光時間に上限値(例えば、2フレーム期間)が設けられており、且つ、静止画撮影の露光時間をその上限値にまでのばしても露光が不足していると判断される(即ち、露光量が定められた適正レベル63に達しない)場合を想定している。動画撮影において、絞り12の開口量を最大にし且つ1フレーム期間中露光しても露光量が適正レベル63に達しないため、信号処理において4倍のゲインアップを行っている。即ち、フレームFL31、FL32及びFL37の動画撮影において、増幅回路15の増幅度は基準ゲインの4倍とされている。   In the fourth operation example, an upper limit value (for example, two frame periods) is provided for the exposure time of still image shooting performed during moving image shooting, and the exposure time for still image shooting is extended to the upper limit value. Also, it is assumed that the exposure is determined to be insufficient (that is, the exposure amount does not reach the predetermined appropriate level 63). In moving image shooting, since the exposure amount does not reach the appropriate level 63 even when the aperture of the aperture 12 is maximized and exposure is performed for one frame period, the gain is increased four times in signal processing. That is, in moving image shooting of the frames FL31, FL32, and FL37, the amplification degree of the amplification circuit 15 is set to four times the reference gain.

動画撮影中の1つの静止画の撮影は、合計4つのフレームFL33〜FL36を用いて行われる。この例の場合、露光時間を上記の上限値にまでのばしても露光量が適正レベル63に達しない。このため、まず、フレームFL34及びFL34を用いて第1の静止画用撮影(第1の合成用撮影)を行い、更に続けてフレームFL35及びFL36を用いて第2の静止画用撮影(第2の合成用撮影)を行う。   The shooting of one still image during moving image shooting is performed using a total of four frames FL33 to FL36. In this example, the exposure amount does not reach the appropriate level 63 even if the exposure time is extended to the above upper limit value. For this reason, first, the first still image shooting (first combining shooting) is performed using the frames FL34 and FL34, and then the second still image shooting (second shooting is performed using the frames FL35 and FL36. Shooting for compositing).

第1及び第2の静止画用撮影は、夫々、ぼぼ2フレーム期間分の露光時間にて行われているものの、各露光量は適正レベル63のほぼ半分となっている。また、第1及び第2の静止画用撮影では、信号処理においてゲインアップは行われていない(つまり、増幅回路15の増幅度は基準ゲインの1倍とされている)。このため、第1及び第2の静止画用撮影から得られる画像データを用いて1つの静止画を生成するようにすれば、ノイズの少ない良好な静止画を得ることが可能となる。尚、フレームFL31〜FL37における絞り12の開口量は、一定(最大の開口量)に維持されている。   Although the first and second still image shootings are performed with exposure times corresponding to approximately two frame periods, each exposure amount is almost half of the appropriate level 63. Further, in the first and second still image shootings, the gain is not increased in the signal processing (that is, the amplification degree of the amplifier circuit 15 is set to one time the reference gain). Therefore, if one still image is generated using the image data obtained from the first and second still image shootings, a good still image with less noise can be obtained. Note that the opening amount of the diaphragm 12 in the frames FL31 to FL37 is maintained constant (maximum opening amount).

上記のような撮影によって得られた全ての原画像データは、信号処理部20に送られる。フレームFL31、FL32及びFL37については、各原画像データに基づいた各動画フレームデータが画像処理部23によって得られ、それらの動画フレームデータは所定の処理を経て動画を表すデータとして外部メモリ41に格納される。   All the original image data obtained by the above photographing are sent to the signal processing unit 20. For the frames FL31, FL32, and FL37, each moving image frame data based on each original image data is obtained by the image processing unit 23, and the moving image frame data is stored in the external memory 41 as data representing a moving image through a predetermined process. Is done.

静止画処理部25は、第1の静止画用撮影によって得られた第1の静止画用データ(第1の原画像データ)と第2の静止画用撮影によって得られた第2の静止画用データ(原画像データ)とを加算合成(多重露光合成)して、1つの静止画を表す画像データを生成する。この加算合成によって得られた画像データは、所定の処理を経て静止画を表すデータとして外部メモリ41に格納される。勿論、上記加算合成は、同一の画素に対応する画素データ同士の間で行われる。   The still image processing unit 25 includes the first still image data (first original image data) obtained by the first still image photographing and the second still image obtained by the second still image photographing. The image data representing one still image is generated by adding and synthesizing the data (original image data) (multiple exposure composition). The image data obtained by the addition synthesis is stored in the external memory 41 as data representing a still image through a predetermined process. Of course, the addition synthesis is performed between pixel data corresponding to the same pixel.

フレームFL33、FL34、FL35及びFL36に対応する動画フレームデータは、それぞれ、第3動作例と同様の手法にて作成され、所定の処理を経て動画を表すデータとして外部メモリ41に格納される。具体的には、フレームFL33に対応する動画フレームデータは、フレームFL32に対応する原画像データと第1の静止画用データとの加重加算合成によって作成され、フレームFL34及びFL35に対応する動画フレームデータは、それぞれ、第1の静止画用データと第2の静止画用データとの加重加算合成によって作成され、フレームFL36に対応する動画フレームデータは、第2の静止画用データとフレームFL37に対応する原画像データとの加重加算合成によって作成される。尚、第1の静止画用データと第2の静止画用データの露光量は適正レベル63のほぼ半分となっているため、加重加算合成前に信号処理において2倍のゲインアップを行っておく。   The moving image frame data corresponding to the frames FL33, FL34, FL35, and FL36 is created by the same method as that in the third operation example, and is stored in the external memory 41 as data representing the moving image through a predetermined process. Specifically, the moving image frame data corresponding to the frame FL33 is created by weighted addition synthesis of the original image data corresponding to the frame FL32 and the first still image data, and the moving image frame data corresponding to the frames FL34 and FL35. Are generated by weighted addition synthesis of the first still image data and the second still image data, and the moving image frame data corresponding to the frame FL36 corresponds to the second still image data and the frame FL37. It is created by weighted addition synthesis with original image data. Since the exposure amounts of the first still image data and the second still image data are almost half of the appropriate level 63, the gain is doubled in the signal processing before the weighted addition synthesis. .

図19に示す内容とは若干異なるが、図20に示す如く、第1及び第2の静止画用撮影の露光時間が動画撮影の2フレーム期間の長さと一致している場合を考えると、例えば、フレームFL34に対応する動画フレームデータは、ゲインアップを行った後の第1の静止画用データを構成する画素データの夫々に3/4を乗じたものに、ゲインアップを行った後の第2の静止画用データを構成する画素データの夫々に1/4を乗じたものを加算することによって作成される。勿論、この加算は、同一の画素に対応する画素データ同士の間で行われる。   Although slightly different from the content shown in FIG. 19, considering the case where the exposure time of the first and second still image shooting matches the length of the two frame periods of moving image shooting as shown in FIG. , The moving image frame data corresponding to the frame FL34 is obtained by multiplying each of the pixel data constituting the first still image data after the gain increase by 3/4 to the first frame after the gain increase. 2 is created by adding the pixel data constituting the still image data of 2 multiplied by ¼. Of course, this addition is performed between pixel data corresponding to the same pixel.

第1及び第2の静止画用撮影における撮影タイミングをβ2及びβ3とし、静止画の撮影がなかったならばフレームFL34において撮影されていた動画の撮影タイミングをα34とした場合、上記の重み付け係数としての「3/4」は、「撮影タイミングα34とβ3間の時間の長さ」を「撮影タイミングβ2とβ3間の時間の長さ」で割ることにより算出され、上記の重み付け係数としての「1/4」は、「撮影タイミングβ2とα34間の時間の長さ」を「撮影タイミングβ2とβ3間の時間の長さ」で割ることにより算出される。 If the shooting timings for the first and second still image shootings are β 2 and β 3, and the shooting timing of the moving image that was shot in the frame FL 34 if no still image shooting was taken is α 34 , “3/4” as a weighting coefficient is calculated by dividing “the length of time between the imaging timings α 34 and β 3 ” by “the length of time between the imaging timings β 2 and β 3 ”. Is calculated by dividing “the length of time between the imaging timings β 2 and α 34 ” by “the length of time between the imaging timings β 2 and β 3 ”. .

<<第2実施形態>>
動画撮影中に静止画撮影を行うために絞り等の露光設定を変える場合、理想的には撮影された画像の明るさが一定に保たれるようにその露光設定を変更する。しかし、実際には機械的に動作する絞りの制御精度や、露光時間の設定精度、増幅度の設定精度の制約等に起因して、静止画用データによって表される静止画とその前後の動画の明るさが同じにならない場合がある。この場合、明るさに関する補正を何ら施すことなくその静止画用データを用いて動画フレームデータを作成すると、動画の明るさにちらつきが生じうる。以下に説明する第2実施形態は、この問題を解決するために第1実施形態を改良したものである。
<< Second Embodiment >>
When changing the exposure setting such as an aperture to capture a still image during moving image shooting, ideally, the exposure setting is changed so that the brightness of the captured image is kept constant. However, in reality, the still image represented by the still image data and the moving images before and after it are limited due to the control accuracy of the mechanically operated aperture, the exposure time setting accuracy, the amplification accuracy setting accuracy, etc. May not be the same brightness. In this case, if moving image frame data is created using the still image data without any correction regarding brightness, flicker may occur in the moving image brightness. The second embodiment described below is an improvement of the first embodiment in order to solve this problem.

図21は、第2実施形態に係る撮像装置1aの全体ブロック図である。撮像装置1aは、図1の撮像装置1と同様のデジタルスチルカメラ等であり、撮像装置1と同様、動画と静止画の双方を(同時に)撮影可能なように構成されている。図21において、図1と同一の部分には同一の符号を付し、同一の部分の重複する説明を省略する。撮像装置1aは、図1の撮像装置1に明るさ検出部(輝度検出部)27及び明るさ補正部(輝度補正部)28を追加した構成となっている。明るさ検出部27及び明るさ補正部28を追加した点と、この追加に伴い信号処理部を表す符号が20から20aに変更されている点を除き、撮像装置1と撮像装置1aは一致している。図1の信号処理部20に、明るさ検出部27及び明るさ補正部28を追加したものが図21の信号処理部20aになっている。   FIG. 21 is an overall block diagram of the imaging apparatus 1a according to the second embodiment. The image pickup apparatus 1a is a digital still camera or the like similar to the image pickup apparatus 1 of FIG. 1, and is configured to be able to take both a moving image and a still image (simultaneously) as with the image pickup apparatus 1. In FIG. 21, the same parts as those in FIG. 1 are denoted by the same reference numerals, and the description of the same parts is omitted. The imaging device 1a has a configuration in which a brightness detection unit (luminance detection unit) 27 and a brightness correction unit (luminance correction unit) 28 are added to the imaging device 1 of FIG. The imaging device 1 and the imaging device 1a are identical except that the brightness detection unit 27 and the brightness correction unit 28 are added and that the code representing the signal processing unit is changed from 20 to 20a with the addition. ing. A signal processing unit 20a in FIG. 21 is obtained by adding a brightness detection unit 27 and a brightness correction unit 28 to the signal processing unit 20 in FIG.

明るさ補正部28は、前処理部14と画素数変換部21の間に設けられている。第2実施形態において、前処理部14が出力する原画像データは、明るさ検出部27と明るさ補正部28に与えられており、明るさ補正部28の出力データは、画素数変換部21、動き検出部22及び静止画処理部25に与えられている。このため、第2実施形態における画素数変換部21、動き検出部22及び静止画処理部25は、明るさ補正部28の出力データを入力データとして受け、第1実施形態と同じ動作を行う。   The brightness correction unit 28 is provided between the preprocessing unit 14 and the pixel number conversion unit 21. In the second embodiment, the original image data output by the preprocessing unit 14 is given to the brightness detection unit 27 and the brightness correction unit 28, and the output data of the brightness correction unit 28 is the pixel number conversion unit 21. The motion detection unit 22 and the still image processing unit 25 are provided. For this reason, the pixel number conversion unit 21, the motion detection unit 22, and the still image processing unit 25 in the second embodiment receive the output data of the brightness correction unit 28 as input data, and perform the same operation as in the first embodiment.

明るさ検出部27は、前処理部14から次々と送られてくる原画像データによって表される画像の平均輝度を、各原画像データに基づいて求める。そして、求めた各原画像データに対応する平均輝度を、明るさ補正部28に伝達する。この平均輝度は、各原画像データによって表される画像の明るさを示している。   The brightness detection unit 27 obtains the average luminance of the image represented by the original image data sent from the preprocessing unit 14 one after another based on each original image data. Then, the average brightness corresponding to each obtained original image data is transmitted to the brightness correction unit 28. This average luminance indicates the brightness of the image represented by each original image data.

ここで、明るさ検出部27によって検出され、明るさ補正部28に伝達される平均輝度は、画像全体の平均輝度であってよいし、画像中央部の任意の大きさの領域の平均輝度であってもよい。また、画像内に設定された複数の領域の平均輝度であってもよい。また、画像内に複数の領域を定めると共に定めた各領域の平均輝度を求め、その各領域の平均輝度を加重加算したものを、明るさ補正部28に伝達される最終的な平均輝度としてもよい。   Here, the average brightness detected by the brightness detection unit 27 and transmitted to the brightness correction unit 28 may be the average brightness of the entire image, or the average brightness of an area of an arbitrary size in the center of the image. There may be. Further, the average luminance of a plurality of areas set in the image may be used. In addition, a plurality of areas in the image are determined and the average brightness of each determined area is obtained, and the average brightness of each area is weighted and added to obtain the final average brightness transmitted to the brightness correction unit 28. Good.

上述したように、明るさ補正部28に伝達する平均輝度として様々な種類の平均輝度を採用可能であるが、画像内のどの部分を対象として平均輝度を求めるかは、全ての撮影の中で同じにしておく必要がある。即ち、明るさ検出部27は、画像(静止画及び動画)内の同じ位置に設定した単一または複数の領域の平均輝度を求めて明るさ補正部28に伝達する。尚、「画像全体」は単一の領域と捉えることができる。   As described above, various types of average luminance can be adopted as the average luminance transmitted to the brightness correction unit 28. However, which part of the image the average luminance is to be obtained is determined in all shooting. Must be the same. That is, the brightness detection unit 27 calculates the average luminance of a single region or a plurality of regions set at the same position in the image (still image and moving image) and transmits the average luminance to the brightness correction unit 28. The “entire image” can be regarded as a single region.

明るさ補正部28は、与えられた平均輝度を参照しつつ、前処理部14から次々と送られてくる原画像データに明るさ補正を施し、その明るさ補正後の画像データを画素数変換部21、動き検出部22及び静止画処理部25に出力する。   The brightness correction unit 28 performs brightness correction on the original image data sent one after another from the preprocessing unit 14 while referring to the given average luminance, and converts the number of pixels of the image data after the brightness correction. Output to the unit 21, the motion detection unit 22, and the still image processing unit 25.

説明の具体化のため図3に示した例に従いつつ、動画撮影中に静止画撮影を行う場合の動作を考える。静止画撮影の直前のフレーム、即ちフレームFL3に対応する原画像データによって表される画像の平均輝度、及びフレームFL4の撮影による原画像データ(静止画用データ)によって表される画像の平均輝度が、それぞれ「11」及び「10」であったとする。   For the sake of concrete explanation, an operation in the case of taking a still image during moving image shooting will be considered while following the example shown in FIG. The average luminance of the image represented by the original image data corresponding to the frame immediately before the still image shooting, that is, the frame FL3, and the average luminance of the image represented by the original image data (still image data) obtained by shooting the frame FL4. Suppose that they are “11” and “10”, respectively.

この場合、明るさ補正部28は、「11」を目標平均輝度L1として取り扱うと共に「10」を補正対象平均輝度L2として取り扱い、目標平均輝度を補正対象平均輝度で割った値を明るさ補正値G(今の場合、1.1)とする。そして、明るさ補正部28は、明るさ補正後の静止画用データによって表される画像の平均輝度が、明るさ補正前の静止画用データによって表される画像の平均輝度のG倍(今の場合、1.1倍)になるように、与えられた静止画用データを補正(明るさ補正)する。例えば、静止画用データを構成する各画素データの数値が輝度に比例する数値である場合は、静止画用データを構成する各画素データの数値を均一に1.1倍すればよい。一方、明るさ補正部28は、動画撮影に対応する原画像データに対しては明るさ補正を施さない。但し、動画及び静止画の全てに対応する原画像データの信号レベルを、一律に同じだけ増幅することは可能である。   In this case, the brightness correction unit 28 treats “11” as the target average brightness L1, treats “10” as the correction target average brightness L2, and calculates a brightness correction value by dividing the target average brightness by the correction target average brightness. G (1.1 in this case). Then, the brightness correction unit 28 sets the average brightness of the image represented by the still image data after the brightness correction to G times the average brightness of the image represented by the still image data before the brightness correction (now In this case, the given still image data is corrected (brightness correction) so as to be 1.1 times. For example, when the numerical value of each pixel data constituting the still image data is a numerical value proportional to the luminance, the numerical value of each pixel data constituting the still image data may be uniformly multiplied by 1.1. On the other hand, the brightness correction unit 28 does not perform brightness correction on the original image data corresponding to moving image shooting. However, it is possible to uniformly amplify the signal level of the original image data corresponding to all of the moving image and the still image.

明るさ補正部28より後段の各部位(動画処理部23等)は、この明るさ補正後の静止画用データを用い、第1実施形態の第1動作例〜第4動作例と同じ動作を経て、外部メモリ41に格納すべき動画フレームデータ等を作成する。   Each part (moving image processing unit 23 and the like) subsequent to the brightness correction unit 28 uses the still image data after the brightness correction, and performs the same operation as the first to fourth operation examples of the first embodiment. Then, moving image frame data to be stored in the external memory 41 is created.

これにより、静止画の明るさとその静止画の直前の動画の明るさとが同じ(略同じ)になるように静止画用データが補正(明るさ補正)される。動画撮影中の動画フレームデータはその補正(明るさ補正)後の静止画用データに基づいて作成されることになるため、絞りの制御精度の制約等に起因して起こりうる動画の明るさのちらつきは抑制される。   Thereby, the still image data is corrected (brightness correction) so that the brightness of the still image is the same (substantially the same) as that of the moving image immediately before the still image. Movie frame data during movie shooting is created based on the still image data after the correction (brightness correction), so that the brightness of the movie that can occur due to restrictions on aperture control accuracy, etc. Flicker is suppressed.

また、フレームメモリバッファ40を利用しつつ、静止画撮影の直後のフレーム、即ちフレームFL5に対応する原画像データによって表される画像の平均輝度を、目標平均輝度L1として取り扱うようにしても良い。この場合は、静止画の明るさとその静止画の直後の動画の明るさとが同じ(略同じ)になるように静止画用データが補正(明るさ補正)されることになる。   In addition, while using the frame memory buffer 40, the average luminance of the image immediately after the still image shooting, that is, the image represented by the original image data corresponding to the frame FL5 may be handled as the target average luminance L1. In this case, the still image data is corrected (brightness correction) so that the brightness of the still image and the brightness of the moving image immediately after the still image are the same (substantially the same).

また、静止画撮影の直前のフレーム(即ちフレームFL3)に対応する原画像データによって表される画像の平均輝度(例えば、「11」)と、静止画撮影の直後のフレーム(即ちフレームFL5)に対応する原画像データによって表される画像の平均輝度(例えば、「13」)との平均輝度(例えば、(11+13)/2=12)を、目標平均輝度L1として取り扱うようにしても良い。この場合は、静止画の明るさとその静止画の直後及び直後の動画の明るさの平均とが同じ(略同じ)になるように静止画用データが補正(明るさ補正)されることになる。   In addition, the average luminance (for example, “11”) of the image represented by the original image data corresponding to the frame immediately before the still image shooting (that is, the frame FL3) and the frame immediately after the still image shooting (that is, the frame FL5). The average luminance (for example, (11 + 13) / 2 = 12) with the average luminance (for example, “13”) of the image represented by the corresponding original image data may be handled as the target average luminance L1. In this case, the still image data is corrected (brightness correction) so that the brightness of the still image and the average of the brightness of the moving image immediately after and immediately after the still image are the same (substantially the same). .

尚、明るさ補正部28を、画素数変換部21の後段に配置させるようにしても良い。即ち、明るさ補正部28による明るさ補正を、画素数変換部21による画素数変換後に行うようにしても良い。   Note that the brightness correction unit 28 may be arranged at the subsequent stage of the pixel number conversion unit 21. That is, the brightness correction by the brightness correction unit 28 may be performed after the pixel number conversion by the pixel number conversion unit 21.

<<第3実施形態>>
ここで、動画撮影中に静止画撮影する場合における周辺光量の低下の影響を考察する。図22に示す如く、撮像素子13の撮像面における対角線をz軸にとり、撮像面の中心をCとする(中心Cはz軸上にある)。この場合において、均一輝度の光を光学系11を構成するレンズに与えたとき、そのレンズが理想的なものである場合は撮像素子13を構成する各画素の受光量は全て同じになる。しかしながら、図23に示す如く、実際は、中心Cに位置する画素の受光量を最大として、撮像面の周辺部に位置する画素の受光量は中心Cにおけるそれよりも小さくなる。この周辺部における受光量の低下が「周辺光量の低下」である。
<< Third Embodiment >>
Here, the influence of the decrease in the amount of peripheral light when taking a still image during moving image shooting will be considered. As shown in FIG. 22, the diagonal line on the imaging surface of the imaging element 13 is taken as the z axis, and the center of the imaging surface is taken as C (the center C is on the z axis). In this case, when light of uniform luminance is applied to the lens constituting the optical system 11, if the lens is ideal, the amount of light received by each pixel constituting the image sensor 13 is the same. However, as shown in FIG. 23, in actuality, the amount of light received by the pixel located at the center C is maximized, and the amount of light received by the pixels located at the periphery of the imaging surface is smaller than that at the center C. This decrease in the amount of received light at the peripheral portion is “a decrease in the amount of peripheral light”.

また、この周辺光量の低下の程度は絞り12が開放に近いほど(絞り12の開口量が大きいほど)大きくなる。従って、図3で示した例のように、動画撮影中に静止画撮影を行う際にだけ絞り12の開口量を大きくすると、静止画撮影時とその前後の動画撮影との間で周辺光量の低下の程度が変化することになる。この周辺光量の低下の程度の変化を考慮せずに、静止画用データから静止画撮影中の動画フレームデータを生成すると、動画の画像周辺部が静止画撮影時点でちらつく可能性がある。   In addition, the degree of decrease in the amount of peripheral light increases as the diaphragm 12 is closer to the open position (the larger the opening amount of the diaphragm 12). Therefore, as in the example shown in FIG. 3, if the aperture of the aperture 12 is increased only when still image shooting is performed during moving image shooting, the amount of peripheral light is reduced between the still image shooting and the previous and next moving image shooting. The degree of decline will change. If moving image frame data during still image shooting is generated from still image data without considering the change in the degree of decrease in the peripheral light amount, the peripheral portion of the moving image may flicker at the time of still image shooting.

このような周辺光量の低下による影響をも除去する実施形態として、第3実施形態を説明する。図24は、第3実施形態に係る撮像装置1bの全体ブロック図である。撮像装置1bは、図1の撮像装置1と同様のデジタルスチルカメラ等であり、撮像装置1と同様、動画と静止画の双方を(同時に)撮影可能なように構成されている。。図24において、図1及び図21と同一の部分には同一の符号を付し、同一の部分の重複する説明を省略する。撮像装置1bは、図21の撮像装置1aに周辺光量補正部29を追加した構成となっている。周辺光量補正部29を追加した点と、この追加に伴い信号処理部を表す符号が20aから20bに変更されている点を除き、図21の撮像装置1aと図24の撮像装置1bは一致している。図21の信号処理部20aに、周辺光量補正部29を追加したものが図24の信号処理部20bになっている。   A third embodiment will be described as an embodiment that also eliminates the influence of such a decrease in the amount of peripheral light. FIG. 24 is an overall block diagram of the imaging apparatus 1b according to the third embodiment. The imaging device 1b is a digital still camera or the like similar to the imaging device 1 of FIG. 1, and is configured to be able to capture both a moving image and a still image (simultaneously), like the imaging device 1. . In FIG. 24, the same portions as those in FIGS. 1 and 21 are denoted by the same reference numerals, and redundant description of the same portions is omitted. The imaging device 1b has a configuration in which a peripheral light amount correction unit 29 is added to the imaging device 1a of FIG. The imaging device 1a in FIG. 21 and the imaging device 1b in FIG. 24 are identical except that the peripheral light amount correction unit 29 is added and the code representing the signal processing unit is changed from 20a to 20b in accordance with the addition. ing. A signal processing unit 20b in FIG. 24 is obtained by adding a peripheral light amount correction unit 29 to the signal processing unit 20a in FIG.

周辺光量補正部29は、前処理部14と明るさ補正部28の間に設けられている。第3実施形態において、前処理部14が出力する原画像データは周辺光量補正部29に与えられており、周辺光量補正部29の出力データは、明るさ検出部27と明るさ補正部28に与えられている。明るさ補正部28の出力データは、第2実施形態と同じく、画素数変換部21、動き検出部22及び静止画処理部25に与えられている。このため、第3実施形態における画素数変換部21、動き検出部22及び静止画処理部25は、第2実施形態と同じく、明るさ補正部28の出力データを入力データとして受け、第1実施形態と同じ動作を行う。   The peripheral light amount correction unit 29 is provided between the preprocessing unit 14 and the brightness correction unit 28. In the third embodiment, the original image data output by the preprocessing unit 14 is given to the peripheral light amount correction unit 29, and the output data of the peripheral light amount correction unit 29 is sent to the brightness detection unit 27 and the brightness correction unit 28. Is given. The output data of the brightness correction unit 28 is given to the pixel number conversion unit 21, the motion detection unit 22, and the still image processing unit 25, as in the second embodiment. For this reason, the pixel number conversion unit 21, the motion detection unit 22, and the still image processing unit 25 in the third embodiment receive the output data of the brightness correction unit 28 as input data, as in the second embodiment, and the first embodiment Performs the same operation as the form.

周辺光量補正部29は、主制御部19からの絞り12の開口量を特定する情報を参照しつつ、前処理部14から次々と送られてくる原画像データに周辺光量補正を施し、その周辺光量補正後の画像データを明るさ検出部27と明るさ補正部28に出力する。この周辺光量補正は、動画撮影中に静止画撮影を行う場合において、動画と静止画の撮影間の絞り12の開口量の変更に伴う周辺光量の低下の変動をキャンセルするように行われる。   The peripheral light amount correction unit 29 performs peripheral light amount correction on the original image data sent one after another from the preprocessing unit 14 while referring to information specifying the aperture amount of the diaphragm 12 from the main control unit 19, and The image data after the light amount correction is output to the brightness detection unit 27 and the brightness correction unit 28. This peripheral light amount correction is performed so as to cancel the fluctuation of the decrease in the peripheral light amount due to the change of the aperture amount of the diaphragm 12 between the moving image and the still image shooting when the still image shooting is performed during the moving image shooting.

周辺光量補正部29は、例えば、静止画、動画を問わず全ての原画像データを対象として、周辺光量の低下の影響が周辺光量補正部29の出力データ中に完全に存在しなくなるように、上記周辺光量補正を行う。即ち、全ての原画像データを対象として、周辺光量の低下に起因する撮像面の周辺部における受光量の低下を打ち消すように、周辺光量補正を行う。例えば、絞り12の或る開口量に対して、周辺部の受光量が中心Cの0.8倍の受光量になることが分かっている場合、全ての原画像データを対象として、その周辺部に対応する画素データを1/0.8倍する。   For example, the peripheral light amount correction unit 29 targets all original image data regardless of a still image or a moving image so that the influence of the decrease in the peripheral light amount does not completely exist in the output data of the peripheral light amount correction unit 29. The peripheral light amount correction is performed. That is, for all the original image data, the peripheral light amount correction is performed so as to cancel the decrease in the amount of received light in the peripheral portion of the imaging surface due to the decrease in the peripheral light amount. For example, when it is known that the amount of light received at the peripheral portion is 0.8 times the amount of light received at the center C with respect to a certain opening amount of the diaphragm 12, all the original image data is processed as a target. Is multiplied by 1 / 0.8.

また、例えば、周辺光量の低下が最も少なくなる状態(例えば、絞り12の開口量が最小の状態)を基準状態とし、各撮影における周辺光量の低下の影響がその基準状態の周辺光量の低下の影響と同等になるように、周辺光量補正を行ってもよい。この場合における周辺光量補正も静止画、動画を問わず全ての原画像データを対象として行われる。尚、「周辺光量の低下の影響」とは、周辺光量の低下に起因して起こる再生画像周辺部の輝度の低下を意味する。   Further, for example, a state in which the decrease in the amount of peripheral light is the smallest (for example, a state in which the aperture of the diaphragm 12 is minimum) is set as the reference state, and the influence of the decrease in the amount of peripheral light in each photographing is the decrease in the amount of peripheral light in the reference state. Peripheral light amount correction may be performed so as to be equivalent to the influence. In this case, the peripheral light amount correction is also performed on all original image data regardless of a still image or a moving image. Note that “the influence of a decrease in the amount of peripheral light” means a decrease in the luminance at the periphery of the reproduced image caused by the decrease in the amount of peripheral light.

また、例えば、静止画撮影の周辺のタイミングの動画撮影(例えば、静止画撮影の直前又は直後の動画フレーム)の状態を基準状態とし、静止画撮影における周辺光量の低下の影響がその基準状態の周辺光量の低下の影響と同等になるように、周辺光量補正を行ってもよい。この場合、周辺光量補正は、静止画撮影に対応する原画像データ(即ち、静止画用データ)のみを対象として行われることになる。   In addition, for example, the state of the moving image shooting at the timing around the still image shooting (for example, the moving image frame immediately before or after the still image shooting) is set as the reference state, and the influence of the decrease in the peripheral light amount in the still image shooting is the reference state. The peripheral light amount correction may be performed so as to be equivalent to the influence of the decrease in the peripheral light amount. In this case, the peripheral light amount correction is performed only on the original image data (that is, still image data) corresponding to still image shooting.

周辺光量補正後の原画像データを入力データとして受けた明るさ検出部27及び明るさ補正部28の動作は、第2実施形態におけるものと同様である。即ち、第3実施形態における明るさ検出部27及び明るさ補正部28の動作は、第2実施形態における「原画像データ」、「静止画用データ」の記載を、「周辺光量補正後の原画像データ」、「周辺光量補正後の静止画用データ」と読み替えたものとなる。   The operations of the brightness detection unit 27 and the brightness correction unit 28 that have received the original image data after the peripheral light amount correction as input data are the same as those in the second embodiment. In other words, the operations of the brightness detection unit 27 and the brightness correction unit 28 in the third embodiment are the same as the descriptions of “original image data” and “still image data” in the second embodiment. “Image data” and “Still image data after peripheral light amount correction”.

上記のように周辺光量補正を行うことにより、動画と静止画の撮影間の絞り12の開口量の変更に伴う周辺光量の低下の変動がキャンセルされ、動画撮影中に静止画撮影を行った場合に動画の画像周辺部がちらつくといったことが抑制される。   When the peripheral light amount correction is performed as described above, the variation in the decrease in the peripheral light amount due to the change in the aperture amount of the aperture 12 between the moving image and the still image shooting is canceled, and the still image shooting is performed during the moving image shooting. In addition, it is possible to prevent the peripheral portion of the moving image from flickering.

また、周辺光量補正部29と明るさ補正部28を、画素数変換部21の後段に配置させるようにしても良い。即ち、周辺光量補正部29による周辺光量補正と明るさ補正部28による明るさ補正を、画素数変換部21による画素数変換後に行うようにしても良い。また、絞り12の開口量に対してどのような周辺光量補正を施すべきかは、絞り12の特性等に基づいて予め設定されている。   Further, the peripheral light amount correction unit 29 and the brightness correction unit 28 may be arranged at the subsequent stage of the pixel number conversion unit 21. That is, the peripheral light amount correction by the peripheral light amount correction unit 29 and the brightness correction by the brightness correction unit 28 may be performed after the pixel number conversion by the pixel number conversion unit 21. Further, what kind of peripheral light amount correction should be applied to the aperture amount of the diaphragm 12 is preset based on the characteristics of the diaphragm 12 and the like.

尚、第1〜第3実施形態によれば、動画撮影中に静止画を撮影する場合であっても、静止画のシーンセレクト機能(撮影シーンに最適化されたプログラム自動露出機能)が使えるようになる。   According to the first to third embodiments, a still image scene selection function (program automatic exposure function optimized for a shooting scene) can be used even when a still image is shot during moving image shooting. become.

本発明は、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置に好適である。また、本発明は、監視カメラにも好適である。また、デジタルスチルカメラやデジタルビデオカメラの機能を備えた携帯電話機やコンピュータ機器にも好適である。   The present invention is suitable for an imaging apparatus such as a digital still camera or a digital video camera. The present invention is also suitable for a surveillance camera. Further, it is also suitable for a mobile phone or a computer device having the functions of a digital still camera or a digital video camera.

本発明の第1実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to a first embodiment of the present invention. 露光時間との関係における被写体ぶれを説明するための図である。It is a figure for demonstrating subject blurring in relation to exposure time. 図1の撮像装置の第1動作例の制御概念を示す図である。It is a figure which shows the control concept of the 1st operation example of the imaging device of FIG. 図1の動画処理部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the moving image process part of FIG. 図1の動画処理部による、静止画用データを用いた静止画撮影中の動画フレームデータの作成手法を説明するための図である。It is a figure for demonstrating the production method of the moving image frame data in the still image imaging | photography using the data for still images by the moving image processing part of FIG. 図1の動画処理部による、静止画用データを用いた静止画撮影中の動画フレームデータの作成手法を説明するための図である。It is a figure for demonstrating the production method of the moving image frame data in the still image imaging | photography using the data for still images by the moving image processing part of FIG. 図1の動画処理部による、静止画用データを用いた静止画撮影中の動画フレームデータの作成手法を説明するための図である。It is a figure for demonstrating the production method of the moving image frame data in the still image imaging | photography using the data for still images by the moving image processing part of FIG. 図1の動画処理部による、静止画用データを用いた静止画撮影中の動画フレームデータの作成手法を説明するための図である。It is a figure for demonstrating the production method of the moving image frame data in the still image imaging | photography using the data for still images by the moving image processing part of FIG. 図1の動画処理部による、静止画用データを用いた静止画撮影中の動画フレームデータの作成手法を説明するための図である。It is a figure for demonstrating the production method of the moving image frame data in the still image imaging | photography using the data for still images by the moving image processing part of FIG. 図1の動画処理部による、静止画用データを用いた静止画撮影中の動画フレームデータの作成手法を説明するための図である。It is a figure for demonstrating the production method of the moving image frame data in the still image imaging | photography using the data for still images by the moving image processing part of FIG. 図3の第1動作例に適用可能な、各撮影の撮影タイミングの一例を示す図である。FIG. 4 is a diagram illustrating an example of shooting timing of each shooting applicable to the first operation example of FIG. 3. 図3の第1動作例に適用可能な、各撮影の撮影タイミングの他の例を示す図である。It is a figure which shows the other example of the imaging timing of each imaging | photography applicable to the 1st operation example of FIG. 図1の撮像装置の第2動作例の制御概念を示す図である。It is a figure which shows the control concept of the 2nd operation example of the imaging device of FIG. 図1の撮像装置の第3動作例の制御概念を示す図である。It is a figure which shows the control concept of the 3rd operation example of the imaging device of FIG. 図1の動画処理部による加重加算合成の原理を説明するための図である。It is a figure for demonstrating the principle of the weighted addition composition by the moving image process part of FIG. 図14の第3動作例に適用可能な、各撮影の撮影タイミングの一例を示す図である。It is a figure which shows an example of the imaging timing of each imaging | photography applicable to the 3rd operation example of FIG. 図14の第3動作例に適用可能な、各撮影の撮影タイミングの他の例を示す図である。FIG. 15 is a diagram illustrating another example of the photographing timing of each photographing that can be applied to the third operation example of FIG. 14. 図14の第3動作例に適用可能な加重加算合成の一手法を説明するための図である。FIG. 15 is a diagram for explaining a technique of weighted addition synthesis applicable to the third operation example of FIG. 14. 図1の撮像装置の第4動作例の制御概念を示す図である。It is a figure which shows the control concept of the 4th operation example of the imaging device of FIG. 図19の第4動作例に係る加重加算合成の原理を説明するための図である。It is a figure for demonstrating the principle of the weighted addition composition which concerns on the 4th operation example of FIG. 本発明の第2実施形態に係る撮像装置の全体ブロック図である。It is a whole block diagram of the imaging device concerning a 2nd embodiment of the present invention. 図21の撮像素子の撮像面とz軸方向との関係を示す図である。It is a figure which shows the relationship between the imaging surface of the imaging device of FIG. 21, and a z-axis direction. 周辺光量の低下を表す図である。It is a figure showing the fall of a peripheral light quantity. 本発明の第3実施形態に係る撮像装置の全体ブロック図である。It is a whole block diagram of the imaging device concerning a 3rd embodiment of the present invention.

符号の説明Explanation of symbols

1、1a、1b 撮像装置
11 光学系
12 絞り
13 撮像素子
14 前処理部
15 増幅回路
16 A/D変換器
17 ドライバ
18 タイミングジェネレータ
19 主制御部
20、20a、20b 信号処理部
21 画素数変換部
22 動き検出部
23 動画処理部
24 動画圧縮部
25 静止画処理部
26 静止画圧縮部
27 明るさ検出部
28 明るさ補正部
29 周辺光量補正部
31 差分演算部
32 被写体ぶれ領域特定部
33 ぼかし処理部
40 フレームメモリバッファ
41 外部メモリ
42 操作部
DESCRIPTION OF SYMBOLS 1, 1a, 1b Image pick-up device 11 Optical system 12 Aperture 13 Image pick-up element 14 Preprocessing part 15 Amplifying circuit 16 A / D converter 17 Driver 18 Timing generator 19 Main control part 20, 20a, 20b Signal processing part 21 Pixel number conversion part 22 motion detection unit 23 moving image processing unit 24 moving image compression unit 25 still image processing unit 26 still image compression unit 27 brightness detection unit 28 brightness correction unit 29 peripheral light amount correction unit 31 difference calculation unit 32 subject blur region specifying unit 33 blur processing 40 Frame memory buffer 41 External memory 42 Operation unit

Claims (12)

入射した光学像を光電変換する撮像素子と、
前記撮像素子からの信号を増幅して出力する増幅回路と、
前記増幅回路の出力信号から得られる画像データを処理する信号処理部と、
前記撮像素子の露光設定を制御するとともに前記光学像の撮影を制御する主制御部と、を備え、動画と静止画を撮影可能な撮像装置において、
動画撮影中に静止画の撮影を行う場合、前記主制御部は前記露光設定を動画撮影用から静止画撮影用に変更した上で前記静止画の撮影を行い、前記信号処理部はその静止画の撮影によって得られた画像データである静止画用データを用いてその静止画撮影中の動画フレームデータを作成する
ことを特徴とする撮像装置。
An image sensor that photoelectrically converts an incident optical image;
An amplification circuit that amplifies and outputs a signal from the image sensor;
A signal processing unit for processing image data obtained from the output signal of the amplifier circuit;
A main control unit that controls exposure settings of the image sensor and controls photographing of the optical image, and an imaging device capable of photographing moving images and still images;
When taking a still image during moving image shooting, the main control unit changes the exposure setting from moving image shooting to still image shooting and then takes the still image, and the signal processing unit takes the still image. An image pickup apparatus that creates moving image frame data during still image shooting using still image data that is image data obtained by shooting.
動画撮影中に静止画の撮影を行う場合に前記主制御部が制御する前記露光設定には、前記撮像素子の露光時間と、前記撮像素子への単位時間当たりの入射光量を特定する絞りの開口量及び/又は前記増幅回路の増幅度と、が含まれる
ことを特徴とする請求項1に記載の撮像装置。
The exposure setting controlled by the main control unit when shooting a still image during moving image shooting includes an exposure time of the image sensor and an aperture opening that specifies the amount of incident light per unit time to the image sensor. The imaging apparatus according to claim 1, further comprising: an amount and / or an amplification degree of the amplifier circuit.
前記信号処理部は、前記静止画用データに含まれる被写体の動きによる被写体ぶれ量を前記動画撮影用の露光時間と前記静止画撮影用の露光時間との差異に応じて補正し、その補正後の静止画用データに基づいて静止画撮影中の前記動画フレームデータを作成する
ことを特徴とする請求項2に記載の撮像装置。
The signal processing unit corrects subject blurring due to movement of the subject included in the still image data according to a difference between the exposure time for moving image shooting and the exposure time for still image shooting, and after the correction The imaging apparatus according to claim 2, wherein the moving image frame data during still image shooting is created based on the still image data.
前記信号処理部は、前記静止画用データと前記静止画用データを得るための撮影の前後の撮影によって得られた画像データとの差分に基づいて、前記被写体の動きがある被写体ぶれ領域を求める被写体ぶれ領域特定部を備え、前記動画撮影用の露光時間と前記静止画撮影用の露光時間との差異に由来する被写体ぶれの変動分を前記静止画用データ中の前記被写体ぶれ領域に対応するデータに付与することにより、前記被写体ぶれ量の補正を行う
ことを特徴とする請求項3に記載の撮像装置。
The signal processing unit obtains a subject blur area where the subject moves based on a difference between the still image data and image data obtained by photographing before and after photographing for obtaining the still image data. A subject blur area specifying unit is provided, and fluctuations in subject blur resulting from the difference between the exposure time for moving image shooting and the exposure time for still image shooting correspond to the subject blur region in the still image data. The imaging apparatus according to claim 3, wherein the subject blur amount is corrected by adding the data.
動画撮影中に前記静止画の撮影を行う場合に前記主制御部が制御する前記露光設定には、前記露光時間と前記絞りの開口量が少なくとも含まれ、
動画撮影中に前記静止画の撮影を行う場合において、前記絞りの開口量を静止画撮影用に変更するための時間が動画撮影の1フレーム期間以上必要となるとき、
前記主制御部は複数のフレーム期間を用いて前記絞りの開口量を静止画撮影用に変更してから前記静止画の撮影を行い、前記信号処理部は前記複数のフレーム期間中に得られた各画像データに含まれる被写体の動きによる各被写体ぶれ量を前記動画撮影用の露光時間と前記複数のフレーム期間中に用いた各露光時間との差異に応じて補正し、これによって前記複数のフレーム期間中の各動画フレームデータを作成する
ことを特徴とする請求項2に記載の撮像装置。
The exposure setting controlled by the main controller when shooting the still image during moving image shooting includes at least the exposure time and the aperture amount of the diaphragm,
When shooting the still image during moving image shooting, when it takes more than one frame period for moving image shooting to change the aperture of the aperture for still image shooting,
The main control unit uses the plurality of frame periods to change the aperture amount of the diaphragm for still image shooting and then shoots the still image, and the signal processing unit is obtained during the plurality of frame periods. Each subject blur amount due to the movement of the subject included in each image data is corrected according to the difference between the exposure time for moving image shooting and each exposure time used during the plurality of frame periods, and thereby the plurality of frames The imaging apparatus according to claim 2, wherein each moving image frame data during the period is created.
動画撮影中の前記静止画の撮影を動画撮影の1フレーム期間より長い期間をかけて行う場合、
前記信号処理部は、前記静止画用データと前記静止画用データを得るための撮影の前または後の撮影によって得られた画像データとを加重加算合成することにより、静止画撮影中の前記動画フレームデータを作成し、
その加重加算における重み付け係数は加重加算合成の対象となる前記画像データの撮影タイミングと前記静止画用データの撮影タイミングとによって決定される
ことを特徴とする請求項2または請求項3に記載の撮像装置。
When shooting the still image during movie shooting over a period longer than one frame period of movie shooting,
The signal processing unit is configured to perform weighted addition synthesis of the still image data and the image data obtained by shooting before or after shooting for obtaining the still image data, thereby moving the moving image during still image shooting. Create frame data,
4. The imaging according to claim 2, wherein the weighting coefficient in the weighted addition is determined by a shooting timing of the image data to be subjected to weighted addition synthesis and a shooting timing of the still image data. apparatus.
前記信号処理部は、加重加算合成の対象となる前記画像データと前記静止画用データとの差分が所定の閾値以上となる部分のみを対象として加重加算合成を行う
ことを特徴とする請求項6に記載の撮像装置。
The signal processing unit performs weighted addition synthesis only on a portion where a difference between the image data to be subjected to weighted addition synthesis and the still image data is a predetermined threshold value or more. The imaging device described in 1.
動画撮影中に前記静止画の撮影を行う場合に前記主制御部が制御する前記露光設定には、前記撮像素子の露光時間と前記増幅回路の増幅度が含まれ、
動画撮影中に前記静止画の撮影を行う場合において、前記主制御部による前記露光設定の変更によって前記露光時間を定められた上限値に設定しても露光が不足していると判断されるとき、
前記主制御部は前記増幅度を増加させることによって露光不足を補った上で前記静止画の撮影を行う
ことを特徴とする請求項1〜請求項7の何れかに記載の撮像装置。
The exposure setting controlled by the main controller when shooting the still image during moving image shooting includes an exposure time of the image sensor and an amplification degree of the amplifier circuit,
When shooting the still image during moving image shooting, when it is determined that the exposure is insufficient even if the exposure time is set to a predetermined upper limit by changing the exposure setting by the main control unit ,
The imaging apparatus according to claim 1, wherein the main control unit captures the still image after compensating for insufficient exposure by increasing the amplification degree.
動画画撮影中に前記静止画の撮影を行う場合において、前記主制御部による前記露光設定の変更によって前記露光時間を定められた上限値に設定しても露光が不足していると判断されるとき、
前記主制御部は前記露光時間を前記上限値以下に設定した上で複数の画像の撮影を行い、前記信号処理部は前記複数の画像の撮影によって得られた複数の画像データを合成することにより動画撮影中に撮影されるべき前記静止画を表すデータを作成する
ことを特徴とする請求項1〜請求項7の何れかに記載の撮像装置。
When shooting the still image during moving image shooting, it is determined that the exposure is insufficient even if the exposure time is set to a predetermined upper limit value by changing the exposure setting by the main control unit. When
The main control unit captures a plurality of images after setting the exposure time to be equal to or less than the upper limit value, and the signal processing unit combines a plurality of image data obtained by capturing the plurality of images. 8. The imaging apparatus according to claim 1, wherein data representing the still image to be shot during moving image shooting is created.
前記信号処理部は、前記増幅回路の出力信号に基づいて、撮影した動画及び静止画の夫々の明るさを検出する明るさ検出部と、動画撮影中に前記静止画の撮影が行われる場合において、その静止画の明るさとその静止画の前又は後の動画の明るさとの差が小さくなるように前記静止画用データを補正する明るさ補正部と、を更に備え、その補正後の静止画用データを用いて静止画撮影中の前記動画フレームデータを作成する
ことを特徴とする請求項1〜請求項9の何れかに記載の撮像装置。
The signal processing unit includes a brightness detection unit that detects the brightness of each captured moving image and still image based on an output signal of the amplification circuit, and when the still image is captured during moving image capturing. A brightness correction unit that corrects the still image data so that the difference between the brightness of the still image and the brightness of the moving image before or after the still image is reduced, and the still image after the correction The image pickup apparatus according to any one of claims 1 to 9, wherein the moving image frame data during still image shooting is created using image data.
前記明るさ補正部は、動画撮影中に前記静止画の撮影が行われる場合、その静止画とその静止画の前又は後の動画内の同じ位置に設定した単一または複数の領域の平均輝度が、前記静止画と前記前又は後の動画との間で一致するように前記静止画用データを補正することにより、前記静止画の明るさと前記前又は後の動画の明るさとの差を小さくする
ことを特徴とする請求項10に記載の撮像装置。
When the still image is shot during moving image shooting, the brightness correction unit is configured to calculate the average luminance of a single region or a plurality of regions set at the same position in the moving image before or after the still image and the still image. However, by correcting the still image data so as to match between the still image and the previous or subsequent moving image, the difference between the brightness of the still image and the previous or subsequent moving image is reduced. The imaging apparatus according to claim 10.
動画撮影中に前記静止画の撮影を行う場合に前記主制御部が制御する前記露光設定には、前記露光時間と前記絞りの開口量が少なくとも含まれ、
前記信号処理部は、動画と静止画の撮影間の前記絞りの開口量の変更に伴う周辺光量の低下の変動を補正する周辺光量補正部を、前記明るさ補正部の前段に備えている
ことを特徴とする請求項10または請求項11に記載の撮像装置。
The exposure setting controlled by the main controller when shooting the still image during moving image shooting includes at least the exposure time and the aperture amount of the diaphragm,
The signal processing unit includes a peripheral light amount correction unit that corrects a variation in decrease in peripheral light amount due to a change in the aperture amount between the moving image and the still image before the brightness correction unit. The imaging apparatus according to claim 10 or 11, wherein
JP2005245155A 2005-08-26 2005-08-26 Imaging device Expired - Fee Related JP4404823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005245155A JP4404823B2 (en) 2005-08-26 2005-08-26 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005245155A JP4404823B2 (en) 2005-08-26 2005-08-26 Imaging device

Publications (2)

Publication Number Publication Date
JP2007060449A true JP2007060449A (en) 2007-03-08
JP4404823B2 JP4404823B2 (en) 2010-01-27

Family

ID=37923505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005245155A Expired - Fee Related JP4404823B2 (en) 2005-08-26 2005-08-26 Imaging device

Country Status (1)

Country Link
JP (1) JP4404823B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301286A (en) * 2007-05-31 2008-12-11 Canon Inc Imaging apparatus and control method thereof
JP2009060167A (en) * 2007-08-29 2009-03-19 Sanyo Electric Co Ltd Image pickup apparatus
JP2009284027A (en) * 2008-05-19 2009-12-03 Canon Inc Imaging apparatus, and control method thereof
WO2010116731A1 (en) * 2009-04-08 2010-10-14 パナソニック株式会社 Image pickup device, reproduction device, image pickup method and reproduction method
JP2011039795A (en) * 2009-08-11 2011-02-24 Hoya Corp Moving image enhancing system and method
JP2011097288A (en) * 2009-10-28 2011-05-12 Nikon Corp Imaging apparatus
WO2011065000A1 (en) * 2009-11-26 2011-06-03 株式会社ニコン Electronic camera
US7995104B2 (en) 2008-02-15 2011-08-09 Casio Computer Co., Ltd. Image pick-up apparatus, image data processing apparatus, and recording medium
US8018497B2 (en) 2007-10-26 2011-09-13 Casio Computer Co., Ltd. Image pick-up apparatus having still image advancing/retreating manipulation function, and method and non-transitory computer readable medium therefor
CN102209201A (en) * 2010-03-30 2011-10-05 奥林巴斯映像株式会社 Image pickup apparatus, image pickup system, and image pickup method
JP2011259375A (en) * 2010-06-11 2011-12-22 Olympus Imaging Corp Imaging device, imaging system, and imaging method
US8094203B2 (en) 2007-02-02 2012-01-10 Casio Computer Co., Ltd. Imaging apparatus having moving image shooting function
JP2013005136A (en) * 2011-06-15 2013-01-07 Olympus Imaging Corp Imaging device
US8411172B2 (en) 2007-08-29 2013-04-02 Sanyo Electric Co., Ltd. Imaging device and image processing apparatus
JP2016021767A (en) * 2015-09-03 2016-02-04 オリンパス株式会社 Imaging apparatus and imaging method
JP2017055320A (en) * 2015-09-11 2017-03-16 キヤノン株式会社 Imaging apparatus, imaging system and control method for imaging apparatus
JP2017216656A (en) * 2016-06-02 2017-12-07 キヤノン株式会社 Imaging apparatus, imaging apparatus control method, and image processing system
US10771718B2 (en) 2015-09-11 2020-09-08 Canon Kabushiki Kaisha Imaging device and imaging system
CN113794816A (en) * 2021-08-04 2021-12-14 深圳市联洲国际技术有限公司 Image enhancement method, device and equipment in dark light environment and storage medium

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094203B2 (en) 2007-02-02 2012-01-10 Casio Computer Co., Ltd. Imaging apparatus having moving image shooting function
JP2008301286A (en) * 2007-05-31 2008-12-11 Canon Inc Imaging apparatus and control method thereof
JP2009060167A (en) * 2007-08-29 2009-03-19 Sanyo Electric Co Ltd Image pickup apparatus
US8411172B2 (en) 2007-08-29 2013-04-02 Sanyo Electric Co., Ltd. Imaging device and image processing apparatus
US8018497B2 (en) 2007-10-26 2011-09-13 Casio Computer Co., Ltd. Image pick-up apparatus having still image advancing/retreating manipulation function, and method and non-transitory computer readable medium therefor
US7995104B2 (en) 2008-02-15 2011-08-09 Casio Computer Co., Ltd. Image pick-up apparatus, image data processing apparatus, and recording medium
JP2009284027A (en) * 2008-05-19 2009-12-03 Canon Inc Imaging apparatus, and control method thereof
WO2010116731A1 (en) * 2009-04-08 2010-10-14 パナソニック株式会社 Image pickup device, reproduction device, image pickup method and reproduction method
JP5296193B2 (en) * 2009-04-08 2013-09-25 パナソニック株式会社 Imaging apparatus, reproducing apparatus, imaging method, and reproducing method
US8390698B2 (en) 2009-04-08 2013-03-05 Panasonic Corporation Image capturing apparatus, reproduction apparatus, image capturing method, and reproduction method
JP2011039795A (en) * 2009-08-11 2011-02-24 Hoya Corp Moving image enhancing system and method
JP2011097288A (en) * 2009-10-28 2011-05-12 Nikon Corp Imaging apparatus
WO2011065000A1 (en) * 2009-11-26 2011-06-03 株式会社ニコン Electronic camera
CN102630381A (en) * 2009-11-26 2012-08-08 株式会社尼康 Electronic camera
JP5482799B2 (en) * 2009-11-26 2014-05-07 株式会社ニコン Electronic camera
JP2011211620A (en) * 2010-03-30 2011-10-20 Olympus Imaging Corp Image pickup device, image pickup system, and image pickup method
CN102209201A (en) * 2010-03-30 2011-10-05 奥林巴斯映像株式会社 Image pickup apparatus, image pickup system, and image pickup method
US8638374B2 (en) 2010-03-30 2014-01-28 Olympus Imaging Corp. Image pickup apparatus, image pickup system, and image pickup method
JP2011259375A (en) * 2010-06-11 2011-12-22 Olympus Imaging Corp Imaging device, imaging system, and imaging method
JP2013005136A (en) * 2011-06-15 2013-01-07 Olympus Imaging Corp Imaging device
JP2016021767A (en) * 2015-09-03 2016-02-04 オリンパス株式会社 Imaging apparatus and imaging method
JP2017055320A (en) * 2015-09-11 2017-03-16 キヤノン株式会社 Imaging apparatus, imaging system and control method for imaging apparatus
US10771718B2 (en) 2015-09-11 2020-09-08 Canon Kabushiki Kaisha Imaging device and imaging system
JP2017216656A (en) * 2016-06-02 2017-12-07 キヤノン株式会社 Imaging apparatus, imaging apparatus control method, and image processing system
CN113794816A (en) * 2021-08-04 2021-12-14 深圳市联洲国际技术有限公司 Image enhancement method, device and equipment in dark light environment and storage medium
CN113794816B (en) * 2021-08-04 2023-05-23 成都市联洲国际技术有限公司 Image enhancement method, device, equipment and storage medium in dim light environment

Also Published As

Publication number Publication date
JP4404823B2 (en) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4404823B2 (en) Imaging device
JP5347707B2 (en) Imaging apparatus and imaging method
US20080112644A1 (en) Imaging device
JP5013954B2 (en) Imaging device
JP5857444B2 (en) Imaging device
JP2007027967A (en) Photographing apparatus
JP2000341577A (en) Device and method for correcting camera shake
JP6137792B2 (en) IMAGING DEVICE, CONTROL METHOD FOR IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM
JP5199736B2 (en) Imaging device
JP3999321B2 (en) Electronic camera
JP2006245999A (en) Imaging apparatus and program
JP4739998B2 (en) Imaging device
US8325246B2 (en) Imaging apparatus and imaging method capable of imaging at a low frame rate
JP6242129B2 (en) Imaging device, control method thereof, and control program
JP2012134745A (en) Image signal processing device
JP5947625B2 (en) Imaging apparatus and control method thereof
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US20100053374A1 (en) Image pickup apparatus, image pickup method, program, and recording medium
JP2012239076A (en) Imaging device and method
JP2003324748A (en) Television camera
JP6990988B2 (en) Control method of image pickup device and image sensor
JP2011135379A (en) Imaging apparatus, imaging method and program
KR20100112788A (en) Method of controlling activation between shaking correction and electronical strobo, method of photographing, and digital camera module
JP4366915B2 (en) White balance adjustment device
JP2005204196A (en) Image processing apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091102

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees