JP6118118B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP6118118B2
JP6118118B2 JP2013012438A JP2013012438A JP6118118B2 JP 6118118 B2 JP6118118 B2 JP 6118118B2 JP 2013012438 A JP2013012438 A JP 2013012438A JP 2013012438 A JP2013012438 A JP 2013012438A JP 6118118 B2 JP6118118 B2 JP 6118118B2
Authority
JP
Japan
Prior art keywords
image
hdr
images
image sensor
composition ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013012438A
Other languages
Japanese (ja)
Other versions
JP2014146850A (en
JP2014146850A5 (en
Inventor
近藤 浩
浩 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013012438A priority Critical patent/JP6118118B2/en
Publication of JP2014146850A publication Critical patent/JP2014146850A/en
Publication of JP2014146850A5 publication Critical patent/JP2014146850A5/ja
Application granted granted Critical
Publication of JP6118118B2 publication Critical patent/JP6118118B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像装置およびその制御方法に関し、特に複数枚の画像を合成する機能を有する撮像装置およびその制御方法に関する。   The present invention relates to an imaging apparatus and a control method thereof, and more particularly to an imaging apparatus having a function of combining a plurality of images and a control method thereof.

露光量が異なる複数枚の連続撮像画像出力を合成して1枚の画像を生成することで、画像のダイナミックレンジの拡大を図るHDR(High Dynamic Range)技術を搭載した撮像装置が知られている。HDR技術は静止画に限らず動画にも適用可能であるが、1フレームを複数枚の画像から生成するため、撮影フレームレートよりも記録フレームレートは減少する。例えば撮影フレームレート60FPSの場合、長い露光時間と短い露光時間で交互に撮影した2フレームの画像を合成して1フレームの記録画像を生成する場合、記録フレームレート30FPSのHDR動画を生成することが可能である。このような、連続して撮影された複数の画像を合成するHDR技術を、本明細書では面間HDRと呼ぶ。   2. Description of the Related Art An imaging device equipped with HDR (High Dynamic Range) technology that expands a dynamic range of an image by generating a single image by combining a plurality of continuously captured image outputs with different exposure amounts is known. . The HDR technology can be applied not only to still images but also to moving images. However, since one frame is generated from a plurality of images, the recording frame rate is lower than the shooting frame rate. For example, in the case of a shooting frame rate of 60 FPS, when two frames of images shot alternately with a long exposure time and a short exposure time are combined to generate a recorded image of one frame, an HDR video with a recording frame rate of 30 FPS may be generated. Is possible. Such an HDR technique that combines a plurality of images taken continuously is referred to as inter-plane HDR in this specification.

一方で、所定の単位領域(例えば行)ごとに露光時間(電荷蓄積時間)を異ならせて読み出しを行うことで、1フレーム分の撮影によって露光量の異なる複数の画像を取得し、ダイナミックレンジを拡大した画像を得る技術が提案されている(特許文献1)。この技術でも、複数の画像を用いる点では面間HDRと共通だが、1フレーム分の撮影で得られる画素情報から複数の画像を得ているため、本明細書では面内HDRと呼ぶ。   On the other hand, by performing readout by varying the exposure time (charge accumulation time) for each predetermined unit area (for example, row), a plurality of images with different exposure amounts can be obtained by shooting for one frame, and the dynamic range can be increased. A technique for obtaining an enlarged image has been proposed (Patent Document 1). This technique is also common to the inter-plane HDR in that a plurality of images are used, but since a plurality of images are obtained from pixel information obtained by shooting for one frame, this technique is referred to as in-plane HDR.

面内HDRでは、異なる露光量の画像が1フレームの撮影で得られるため、撮影者あるいは主被写体が動いているような場合には、面間HDRに比べて合成に用いる複数の画像間における像ブレ量が少なく、有利であるといえる。   In the in-plane HDR, images with different exposure amounts are obtained by photographing one frame. Therefore, when the photographer or the main subject is moving, images between a plurality of images used for composition compared to the in-plane HDR. It can be said that the amount of blurring is small and advantageous.

特開2012−105225号公報JP 2012-105225 A

しかしながら、面内HDRでは、1画面(1フレーム)分の撮影で2つの画像を生成するため、個々の画像の解像度は通常の撮影で得られる画像より低下する。例えば行単位で電荷蓄積時間を長短2段階で切り替えて撮影した場合、電荷蓄積時間の長い行から得られる画像と、電荷蓄積時間の短い行から得られる画像の垂直解像度は、通常撮影で得られる画像の1/2となってしまう。そのため、画素補間などを行わなければ、面内HDRで得ることの可能な合成画像の最大解像度は、面間HDRで得ることが可能な合成画像の最大解像度より低い。また、合成元の画像の解像度が低いことから、被写体の輝度レベルなどによっては合成後の画像の解像感が面間HDRで得られる画像より低下する場合もある。   However, in the in-plane HDR, since two images are generated by shooting for one screen (one frame), the resolution of each image is lower than that obtained by normal shooting. For example, when shooting is performed by switching the charge accumulation time in two stages, long and short, in units of rows, the vertical resolution of an image obtained from a row having a long charge accumulation time and an image obtained from a row having a short charge accumulation time can be obtained by normal photographing. It becomes 1/2 of the image. Therefore, if pixel interpolation or the like is not performed, the maximum resolution of the composite image that can be obtained by the in-plane HDR is lower than the maximum resolution of the composite image that can be obtained by the inter-plane HDR. In addition, since the resolution of the source image is low, depending on the luminance level of the subject, the resolution of the post-combination image may be lower than that obtained with the inter-plane HDR.

このように面間HDRと面内HDRにはそれぞれ長所と短所があるが、それらを適切に切り替えて使用する技術は提案されていなかった。本発明はこのような従来技術の課題に鑑みてなされたものであり、面間HDRと面内HDRとを適切に切り替えて利用することが可能な撮像装置およびその制御方法の提供を目的とする。   As described above, the inter-plane HDR and the in-plane HDR have advantages and disadvantages, respectively, but a technique for appropriately switching between them has not been proposed. The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide an imaging apparatus capable of appropriately switching between the in-plane HDR and the in-plane HDR and a control method thereof. .

上述の目的は、撮像装置であって、予め定められた単位領域ごとに電荷蓄積時間を設定可能な撮像素子と、異なる露出条件での撮影で得られる複数の画像を合成して1枚の合成画像を生成する合成手段と、合成画像の所定領域に関する複数の画像の合成比率を取得する取得手段と、取得手段により取得された合成比率に応じて、撮像素子の動作を制御する制御手段とを有し、制御手段は、(a)合成比率に偏りがあると判定されるときに、撮像素子に共通した電荷蓄積時間を設定する第1の露光制御を用いた複数フレームの撮影により、複数の画像を得るように撮像素子の動作を制御し、(b)合成比率に偏りがあると判定されないときに、単位領域に応じて複数の異なる電荷蓄積時間を設定する第2の露光制御を用いた1フレームの撮影により、複数の画像が得られるように撮像素子の動作を制御する、ことを特徴とする撮像装置によって達成される。 The above-described object is an image pickup apparatus, which combines an image pickup device capable of setting a charge accumulation time for each predetermined unit area and a plurality of images obtained by shooting under different exposure conditions to form one image Synthesis means for generating an image, acquisition means for acquiring a composite ratio of a plurality of images related to a predetermined region of the composite image, and control means for controlling the operation of the image sensor in accordance with the composite ratio acquired by the acquisition means And (a) when it is determined that there is a bias in the composite ratio, a plurality of frames are photographed by photographing a plurality of frames using the first exposure control for setting a charge accumulation time common to the image sensor. The operation of the image sensor is controlled so as to obtain an image, and (b) second exposure control is used to set a plurality of different charge accumulation times according to unit areas when it is not determined that the composition ratio is biased . For shooting one frame Ri, controls the operation of the image sensor so that a plurality of images are obtained, are achieved by an imaging apparatus, characterized in that.

このような構成により、本発明によれば、面間HDRと面内HDRとを適切に切り替えて利用することが可能な撮像装置およびその制御方法が得られる。   With such a configuration, according to the present invention, it is possible to obtain an imaging apparatus capable of appropriately switching between the in-plane HDR and the in-plane HDR and a control method thereof.

第1の実施形態の動画撮像装置のブロック図1 is a block diagram of a moving image capturing apparatus according to a first embodiment. 第1の実施形態の動画撮像装置におけるHDR動画記録のフローチャートFlow chart of HDR moving image recording in the moving image capturing apparatus of the first embodiment 第1の実施形態の動画撮像装置における面間HDR動画記録のフローチャートFlowchart of inter-plane HDR moving image recording in the moving image capturing apparatus of the first embodiment 第1の実施形態の動画撮像装置における面内HDR動画記録のフローチャートFlow chart of in-plane HDR moving image recording in moving image imaging apparatus of first embodiment 第1の実施形態の動画撮像装置における面内HDR動画記録の露光・読み出し制御例Example of exposure / reading control of in-plane HDR moving image recording in moving image imaging apparatus of first embodiment 撮影したHDR画像の表示例Display example of captured HDR image 第2の実施形態の動画撮像装置におけるHDR動画記録のフローチャートFlow chart of HDR moving image recording in the moving image capturing apparatus of the second embodiment

(第1の実施形態)
以下、本発明の例示的な実施形態を添付図面に基づいて詳細に説明する。
図1は、本発明の第1の実施形態に係る撮像装置の機能構成例を示すブロック図である。ここで撮像装置100は動画撮影機能を有するデジタルスチルカメラであるものとするが、動画撮影機能を有する任意の撮像装置およびこのような撮像装置を備える任意の電子機器に本発明は適用可能である。このような電子機器の非限定的な例には、ゲーム機、携帯電話、パーソナルコンピュータ、タブレット端末、ドライブレコーダなどが含まれる。なお、便宜上、撮像装置100はレンズ一体型であるものとして説明するが、レンズ交換可能な構成であってもよい。
(First embodiment)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a functional configuration example of an imaging apparatus according to the first embodiment of the present invention. Here, the imaging apparatus 100 is assumed to be a digital still camera having a moving image shooting function. However, the present invention can be applied to an arbitrary imaging apparatus having a moving image shooting function and an arbitrary electronic device including such an imaging apparatus. . Non-limiting examples of such electronic devices include game machines, mobile phones, personal computers, tablet terminals, drive recorders, and the like. For convenience, the imaging apparatus 100 is described as a lens-integrated type, but a configuration in which a lens can be replaced may be used.

撮像装置100は、ズームレンズ110、装置ブレを補正するシフトレンズ111、焦点調節用のフォーカスレンズ112を含んだ撮像レンズを備える。メカニカルシャッタ113および絞り114は、撮像素子115の露光量を調節する。タイミング発生部116は撮像素子115の駆動やサンプリングに必要なタイミングパルスを発生する。   The imaging apparatus 100 includes an imaging lens including a zoom lens 110, a shift lens 111 that corrects apparatus shake, and a focus lens 112 for focus adjustment. The mechanical shutter 113 and the diaphragm 114 adjust the exposure amount of the image sensor 115. The timing generator 116 generates timing pulses necessary for driving the imaging element 115 and sampling.

画像処理部117は、撮像素子115から出力される画像信号に対する各種の処理をはじめ、圧縮符号化や復号の処理、AF評価値の算出、HDR画像の生成など、様々な画像処理を実行する。図1において画像処理部117は、以下の回路を有している。撮像素子115の駆動に用いる同期信号を発生するSSG回路、撮像素子115の出力画像信号に前処理を適用する前処理回路、AF評価値演算回路、輝度積分回路、信号処理回路、画像合成回路、縮小回路、ラスタブロック変換回路及び、圧縮回路。なお、これら各種の回路は、専用のハードウェアによって実現されても、ソフトウェア的に実現されてもよい。   The image processing unit 117 performs various types of image processing such as various types of processing on the image signal output from the image sensor 115, compression encoding and decoding processing, AF evaluation value calculation, and HDR image generation. In FIG. 1, an image processing unit 117 has the following circuits. An SSG circuit that generates a synchronization signal used to drive the image sensor 115, a preprocessing circuit that applies preprocessing to an output image signal of the image sensor 115, an AF evaluation value calculation circuit, a luminance integration circuit, a signal processing circuit, an image synthesis circuit, Reduction circuit, raster block conversion circuit, and compression circuit. These various circuits may be realized by dedicated hardware or may be realized by software.

SSG回路は、タイミング発生部116から撮像素子115の駆動クロックを受信して、水平及び、垂直同期信号を発生し、タイミング発生部116および撮像素子115に出力する。前処理回路は、画像信号を行単位で輝度積分回路と信号処理回路とに分配する。前処理回路はさらに、チャネル間のデータ補正等も行う。   The SSG circuit receives the drive clock for the image sensor 115 from the timing generator 116, generates horizontal and vertical synchronization signals, and outputs them to the timing generator 116 and the image sensor 115. The preprocessing circuit distributes the image signal to the luminance integration circuit and the signal processing circuit in units of rows. The preprocessing circuit further performs data correction between channels.

AF評価値演算回路では、設定された複数の焦点検出領域(AF領域)内の画像信号の輝度成分に対して水平方向のフィルタ処理を施し、コントラストをあらわす所定周波数を抽出しながら最大値を選択し、垂直方向に積分演算を行う。輝度積分回路では、RGB信号から輝度成分を混合生成し、入力画像を複数領域に分割し、領域毎に輝度成分を生成する。   The AF evaluation value calculation circuit performs horizontal filtering on the luminance component of the image signal in the set focus detection areas (AF areas), and selects the maximum value while extracting a predetermined frequency representing contrast. Then, integral calculation is performed in the vertical direction. In the luminance integration circuit, luminance components are mixed and generated from RGB signals, the input image is divided into a plurality of regions, and a luminance component is generated for each region.

信号処理回路では、撮像素子115の出力する画像信号に色キャリア除去、アパーチャー補正、ガンマ補正処理等を行って輝度信号(Y)を生成するとともに、色補間、マトリックス変換、ガンマ処理、ゲイン調整等を施して色差信号(UV)を生成する。信号処理回路は、生成したYUV形式の画像データをメモリ部123に書き込む。また、信号処理回路では、生成したYUV形式の画像データの輝度信号(Y)をレベル毎に集計し、画像データ毎の輝度分布データを生成する。   In the signal processing circuit, the image signal output from the image sensor 115 is subjected to color carrier removal, aperture correction, gamma correction processing, and the like to generate a luminance signal (Y), color interpolation, matrix conversion, gamma processing, gain adjustment, etc. To generate a color difference signal (UV). The signal processing circuit writes the generated YUV format image data in the memory unit 123. The signal processing circuit adds up the luminance signals (Y) of the generated YUV format image data for each level to generate luminance distribution data for each image data.

画像合成回路では、メモリ部123に保存されたRGB形式の撮像画像、あるいはその撮像画像に対して信号処理をYUV形式の画像データを複数取得し、画素単位で設定された係数を乗じて加算することにより合成画像を生成する。   The image composition circuit acquires a plurality of RGB image data stored in the memory unit 123 or YUV format image data for the captured image and multiplies them by a coefficient set in units of pixels. Thus, a composite image is generated.

縮小回路では、信号処理回路の出力を受けて、入力される画素データの切り出し、間引き及び、線形補間処理等を行い、水平垂直方向に画素データの縮小処理を施す。ラスタブロック変換回路では、縮小回路で変倍されたラスタスキャン画像データをブロックスキャン画像データに変換する。こうした一連の画像処理は、メモリ部123がバッファメモリとして用いられて実現される。圧縮回路は、バッファメモリでブロックスキャンデータに変換したYUV画像データを動画圧縮方式に従って圧縮して、動画ビットストリームを出力する。   The reduction circuit receives the output of the signal processing circuit, cuts out input pixel data, performs thinning, linear interpolation processing, and the like, and performs pixel data reduction processing in the horizontal and vertical directions. The raster block conversion circuit converts the raster scan image data scaled by the reduction circuit into block scan image data. Such a series of image processing is realized by using the memory unit 123 as a buffer memory. The compression circuit compresses the YUV image data converted into the block scan data by the buffer memory according to the moving image compression method, and outputs a moving image bit stream.

露出制御部118はシステム制御部121の制御に従ってメカニカルシャッタ113および絞り114の動作を制御する。レンズ制御部119はシステム制御部121の制御に従ってズームレンズ110の倍率やフォーカスレンズ112の位置を制御し、ズームレンズ110の視野に含まれる被写体の像を撮像素子115上に結像させる。加速度センサ181は、撮像装置100の動きを検出し、システム制御部121に出力する。システム制御部121は、加速度センサ181の出力に基づき、撮像装置100の動きを相殺する方向へシフトレンズ111をレンズ制御部119を通じて駆動し、像ブレを光学的に補正する。   The exposure control unit 118 controls the operation of the mechanical shutter 113 and the diaphragm 114 according to the control of the system control unit 121. The lens control unit 119 controls the magnification of the zoom lens 110 and the position of the focus lens 112 according to the control of the system control unit 121, and forms an image of the subject included in the field of view of the zoom lens 110 on the image sensor 115. The acceleration sensor 181 detects the movement of the imaging device 100 and outputs it to the system control unit 121. Based on the output of the acceleration sensor 181, the system control unit 121 drives the shift lens 111 through the lens control unit 119 in a direction that cancels the movement of the imaging device 100, and optically corrects the image blur.

レリーズスイッチ120は、撮像装置100が有する入力デバイス群に含まれ、記録開始指示をシステム制御部121に入力する。システム制御部121は例えばCPUとそのインターフェイス回路、DMAC(Direct Memory Access Controller)、バスアービター等で構成され、撮像装置100の動作全体を制御する。システム制御部121の有する CPUが実行するプログラムは、不揮発性記憶装置の一例としてのフラッシュメモリ122に記憶されている。また、メモリ部123はDRAM等からなり、システム制御部121のCPUが実行するプログラムを展開したり、CPUが処理途中のデータを一時保存したりするために用いられる。   The release switch 120 is included in the input device group included in the imaging apparatus 100 and inputs a recording start instruction to the system control unit 121. The system control unit 121 includes, for example, a CPU and its interface circuit, a DMAC (Direct Memory Access Controller), a bus arbiter, and the like, and controls the entire operation of the imaging apparatus 100. A program executed by the CPU of the system control unit 121 is stored in a flash memory 122 as an example of a nonvolatile storage device. The memory unit 123 includes a DRAM or the like, and is used for developing a program executed by the CPU of the system control unit 121 or temporarily storing data being processed by the CPU.

インタフェース部124は記録媒体200とのインタフェース、コネクタ125は記録媒体200のコネクタ203と物理的および電気的に接続する。記録媒体着脱検知スイッチ126は記録媒体200のコネクタ125への着脱を検出する。   The interface unit 124 is an interface with the recording medium 200, and the connector 125 is physically and electrically connected to the connector 203 of the recording medium 200. The recording medium attachment / detachment detection switch 126 detects attachment / detachment of the recording medium 200 to / from the connector 125.

記録媒体200は例えば半導体メモリカードであり、半導体メモリである記録部201、撮像装置100とのインタフェース202、コネクタ125に対応したコネクタ203、媒体記録禁止スイッチ204から構成される。   The recording medium 200 is, for example, a semiconductor memory card, and includes a recording unit 201 that is a semiconductor memory, an interface 202 with the imaging apparatus 100, a connector 203 corresponding to the connector 125, and a medium recording prohibition switch 204.

マイクロフォン127は入力された音声を音声信号に変換する。A/D変換器128はマイクロフォン127が出力する音声信号をデジタル音声信号に変換する。音声処理部129は、デジタル音声信号に所定の音声処理を施して音声ビットストリームを出力する。   The microphone 127 converts the input sound into an audio signal. The A / D converter 128 converts the audio signal output from the microphone 127 into a digital audio signal. The audio processing unit 129 performs predetermined audio processing on the digital audio signal and outputs an audio bitstream.

電源制御部130は、電池検出回路やDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源コネクタ131は一次電池あるいは二次電池あるいはACアダプター等からなる電源132と電気的に接続する。動画ボタン180は、ユーザが撮像装置100に動画記録の開始および一時停止を指示するためのボタンである。   The power supply control unit 130 controls the battery detection circuit and the DC-DC converter, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power connector 131 is electrically connected to a power source 132 composed of a primary battery, a secondary battery, an AC adapter, or the like. The moving image button 180 is a button for the user to instruct the imaging apparatus 100 to start and pause moving image recording.

再生回路150は画像処理部117で生成され、メモリ部123に記憶された画像データを表示用画像に変換して表示装置であるモニタ151に転送する。再生回路150では、YUV形式の画像データを輝度成分信号Yと変調色差成分Cとに分離し、D/A変換を行ったアナログ化されたY信号にLPFを施す。また、再生回路150はD/A変換を行ったアナログC信号にBPFを施して変調色差成分の周波数成分のみを抽出する。こうして生成された信号成分とサブキャリア周波数に基づいて、再生回路150はY信号とRGB信号を生成し、モニタ151に出力する。撮像素子115で連続的に撮影した動画データを逐次処理してモニタ151で表示することにより、モニタ151を電子ビューファインダー(EVF)として機能させることができる。   The reproduction circuit 150 converts the image data generated by the image processing unit 117 and stored in the memory unit 123 into a display image and transfers it to the monitor 151 which is a display device. The reproduction circuit 150 separates the YUV format image data into a luminance component signal Y and a modulated chrominance component C, and applies LPF to the analog Y signal subjected to D / A conversion. Further, the reproduction circuit 150 performs BPF on the analog C signal that has been subjected to D / A conversion, and extracts only the frequency component of the modulated color difference component. Based on the signal component thus generated and the subcarrier frequency, the reproduction circuit 150 generates a Y signal and an RGB signal and outputs them to the monitor 151. By sequentially processing moving image data continuously captured by the image sensor 115 and displaying it on the monitor 151, the monitor 151 can function as an electronic viewfinder (EVF).

本実施形態の撮像装置100では、撮像素子115が、一般的な原色ベイヤー配列のカラーフィルターを搭載したCMOSイメージセンサーであることを想定している。ベイヤー配列とは、縦横2x2の4画素を1単位として、R(レッド)1画素・G(グリーン)2画素・B(ブルー)1画素を規則的に並べたものである。   In the imaging apparatus 100 of the present embodiment, it is assumed that the imaging element 115 is a CMOS image sensor on which a color filter having a general primary color Bayer arrangement is mounted. The Bayer arrangement is a regular arrangement of R (red) 1 pixel, G (green) 2 pixels, and B (blue) 1 pixel, with 4 pixels of 2 × 2 in length and width as one unit.

撮像素子115は、面内HDRモード時には、所定の単位領域(ここでは2ライン(行))ごとに電荷蓄積時間を例えば適正露出より長時間および短時間となるように交互に切り替えながら電荷を蓄積し、読み出しおよび転送を行うことが可能な構成を有する。   In the in-plane HDR mode, the image sensor 115 accumulates charges while alternately switching the charge accumulation time for each predetermined unit region (here, two lines (rows)) to be longer and shorter than appropriate exposure, for example. In addition, it has a configuration capable of reading and transferring.

本実施形態では記録フレームレートを60FPSとし、HDR動画記録時は、適正露光量に対して1段オーバー及び1段アンダーの露光量で得られる2画像を合成するものとする。また、自動HDR動画撮像モードでは120FPS以上の高速読み出しが可能なモードを使用するものとする。ただし撮影フレームレートは120FPSまたは60FPSの可変設定とする。そして、面間HDRを用いる場合には撮影フレームレートを120FPSとし、撮像素子115に共通した電荷蓄積時間を設定する露光制御(第1の露光制御)を用いて1段オーバーおよび1段アンダーの露出条件で連続撮影した2フレームの画像を取得する。そして、これら2フレームの画像を合成してHDR動画の1フレームを生成する。なお、連続撮影する複数フレームの数は、合成枚数に応じて変化する。   In this embodiment, the recording frame rate is set to 60 FPS, and two images obtained with an exposure amount that is one step over and one step under the appropriate exposure amount are combined during HDR moving image recording. In the automatic HDR moving image capturing mode, a mode capable of high-speed reading of 120 FPS or higher is used. However, the shooting frame rate is variably set to 120 FPS or 60 FPS. When inter-plane HDR is used, the exposure frame rate is set to 120 FPS, and the exposure control (first exposure control) for setting the charge accumulation time common to the image sensor 115 is used to expose one step over and one step under. Acquire two-frame images that were taken continuously under conditions. Then, these two frames of images are combined to generate one frame of the HDR video. Note that the number of frames that are continuously shot varies depending on the number of combined frames.

一方、面内HDRを用いる場合は撮影フレームレートを60FPSに切り替え、撮像素子115の単位領域に応じて電荷蓄積時間を設定する露光制御(第2の露光制御)を用い、1フレームの撮影によって1段オーバーおよび1段アンダーの露光量の画像を取得する。この場合、1段オーバーの電荷蓄積時間が設定された複数の単位領域から1段オーバーの露光量の画像を、1段アンダーの電荷蓄積時間が設定された複数の単位領域から1段アンダーの露光量の画像を取得する。このように、1フレームの撮影で得られた2枚の画像を合成してHDR動画の1フレームを生成する。   On the other hand, when in-plane HDR is used, the shooting frame rate is switched to 60 FPS, and exposure control (second exposure control) for setting the charge accumulation time according to the unit area of the image sensor 115 is used to capture 1 by shooting one frame. An image with an exposure amount of step over and under one step is acquired. In this case, an image having a one-stage overexposure amount from a plurality of unit areas in which one-stage overcharge accumulation time is set, and a one-stage under-exposure from a plurality of unit areas in which one-stage undercharge accumulation time is set Get a quantity image. In this way, one frame of an HDR video is generated by combining two images obtained by shooting one frame.

前述のように、加速度センサ181から得られる撮像装置100の動きを検知し、それを打ち消すようレンズ制御部119によりシフトレンズ111を制御すれば像ブレ補正を行うことは可能である。しかし面間HDR動画の場合、連続撮影しているとはいえ互いに異なる時間に撮影された画像であるため、単一画像よりも像ブレの影響を大きく受ける。連続撮影した画像間で、シフトレンズ111の駆動では吸収できない量の像ブレが発生した場合には画像間で画角ズレが発生するため、合成で得られるHDR画像にも輪郭ボケが発生し、画質が低下する。そのため、本実施形態では加速度センサ181の出力に応じて面内HDRと面間HDRを動的に切り替えながらHDR動画フレームを生成することを特徴とする。   As described above, it is possible to perform image blur correction by detecting the movement of the imaging device 100 obtained from the acceleration sensor 181 and controlling the shift lens 111 so as to cancel the movement. However, in the case of a face-to-face HDR moving image, even though continuous shooting is performed, the images are captured at different times, and thus are more greatly affected by image blurring than a single image. When an image blur of an amount that cannot be absorbed by driving the shift lens 111 occurs between continuously shot images, an angle of view shift occurs between the images, and an outline blur also occurs in the HDR image obtained by combining, The image quality is degraded. Therefore, the present embodiment is characterized in that the HDR moving image frame is generated while dynamically switching between the in-plane HDR and the inter-plane HDR according to the output of the acceleration sensor 181.

図2は本実施形態の撮像装置における、HDR動画撮影時のHDR方式切り替え動作に係る動作を説明するフローチャートである。図2を含め、以下で説明するフローチャートの各ステップにおける処理は、システム制御部121がフラッシュメモリ122に格納されたプログラムをメモリ部123に展開して実行することにより実現される。   FIG. 2 is a flowchart for explaining the operation related to the HDR system switching operation at the time of HDR moving image shooting in the imaging apparatus of the present embodiment. The processing in each step of the flowchart described below including FIG. 2 is realized by the system control unit 121 developing and executing a program stored in the flash memory 122 in the memory unit 123.

ここでは、撮像装置がHDR動画撮影モードに設定され、撮影スタンバイの状態にあるものとする。まず、システム制御部121は、動画ボタン180の状態を監視し(S201)、押下が検出された場合は処理をS202に進める。
S202でシステム制御部121は、画像処理部117のSSG回路内の撮像同期信号の設定を行う。さらにシステム制御部121は、撮像素子115及びタイミング発生部116に対し、初期化及び動画用のタイミング設定を含む撮像駆動設定を行う。
Here, it is assumed that the imaging apparatus is set to the HDR moving image shooting mode and is in a shooting standby state. First, the system control unit 121 monitors the state of the moving image button 180 (S201), and if pressing is detected, the process proceeds to S202.
In step S <b> 202, the system control unit 121 sets an imaging synchronization signal in the SSG circuit of the image processing unit 117. Further, the system control unit 121 performs imaging drive settings including initialization and moving image timing settings for the imaging element 115 and the timing generation unit 116.

次に、システム制御部121は、加速度センサ181の出力を基に、撮像装置100の単位時間当たりの動き量Mを検出する(S203)。システム制御部121は、検出した動き量Mが予め定めた閾値Mt以上か否かを判定し(S204)、動き量Mが閾値Mt未満であれば面間HDR動画処理を行い(S205)、HDR動画フレームを面内HDRにより生成してS207に処理を進める。一方、S203で検出した動き量Mが閾値Mt以上であった場合、システム制御部121は面内HDR動画処理を行い(S206)、HDR動画フレームを面内HDRにより生成してS207に処理を進める。
S205における面間HDR動画処理およびS206における面内HDR動画処理の詳細については後述する。
Next, the system control unit 121 detects the amount of motion M per unit time of the imaging apparatus 100 based on the output of the acceleration sensor 181 (S203). The system control unit 121 determines whether or not the detected motion amount M is greater than or equal to a predetermined threshold value Mt (S204). If the motion amount M is less than the threshold value Mt, the system control unit 121 performs inter-face HDR video processing (S205). A moving image frame is generated by in-plane HDR, and the process proceeds to S207. On the other hand, when the amount of motion M detected in S203 is equal to or greater than the threshold value Mt, the system control unit 121 performs in-plane HDR moving image processing (S206), generates an HDR moving image frame by in-plane HDR, and advances the processing to S207. .
Details of the inter-plane HDR moving image processing in S205 and the in-plane HDR moving image processing in S206 will be described later.

S207において、システム制御部121は、動画ボタン180が再押下されたか(動画記録停止指示が入力されたか)否かを調べ、再押下されていなければS203へ戻りHDR動画記録を継続する。動画ボタン180の再押下が検出されれば、システム制御部121は動画記録を停止し(S208)、HDR動画処理を終了する。   In S207, the system control unit 121 checks whether or not the moving image button 180 has been pressed again (whether a moving image recording stop instruction has been input). If not pressed again, the system control unit 121 returns to S203 and continues the HDR moving image recording. If it is detected that the moving image button 180 is pressed again, the system control unit 121 stops moving image recording (S208) and ends the HDR moving image processing.

なお、図2の例では簡単化のため、検出された動き量Mを閾値Mtと比較した結果に基づいて直ちにHDR動画フレームの生成方法が切り替わる構成について説明したが、頻繁に切り替わりが発生することが好ましくない場合も考えられる。この場合、面間HDRを用いてHDR動画フレームを生成している際に、動き量Mが閾値Mt以上である状態がある一定期間続くまでは面内HDRの使用に切り替えないようにするなど、切り替わりに時定数を設定することができる。また、面間HDRから面内HDRへの切り替わりと、面内HDRから面間HDRへの切り替わりとで時定数を異ならせてもよい。   In the example of FIG. 2, for the sake of simplification, the configuration in which the method of generating the HDR video frame is immediately switched based on the result of comparing the detected motion amount M with the threshold value Mt has been described. However, frequent switching occurs. It is also conceivable that is not preferable. In this case, when generating an HDR video frame using the inter-plane HDR, it should not be switched to use the in-plane HDR until the motion amount M is equal to or greater than the threshold value Mt for a certain period of time. A time constant can be set for switching. Also, the time constant may be different between switching from the in-plane HDR to the in-plane HDR and switching from the in-plane HDR to the in-plane HDR.

図3はS205の面間HDR動画処理の詳細を示すフローチャートである。
S301でシステム制御部121は、撮影フレームレートを120FPS、記録フレームレートを60FPSに設定する。具体的には、システム制御部121は、画像処理部117内のSSG回路への撮像同期信号設定と、撮像素子115及びタイミング発生部116へのタイミング設定によりフレームレートの設定を行う。
FIG. 3 is a flowchart showing details of the inter-plane HDR moving image processing in S205.
In step S301, the system control unit 121 sets the shooting frame rate to 120 FPS and the recording frame rate to 60 FPS. Specifically, the system control unit 121 sets the frame rate by setting the imaging synchronization signal to the SSG circuit in the image processing unit 117 and the timing setting to the imaging element 115 and the timing generation unit 116.

S302でシステム制御部121は、適正露光量より1段オーバーとなる電荷蓄積時間Exp_long及び1段アンダーとなる電荷蓄積時間Exp_shortを算出する。適正露出条件は直前に撮影された画像の平均輝度と予め用意したプログラム線図とから決定することが可能であり、この適正露出条件から絞り値、シャッタースピード、感度のいずれかを1段変化させた条件を用いることができる。ここでは、被写界深度を変化させないよう、シャッタースピード(電荷蓄積時間)を適正露出条件から変化させている。   In step S302, the system control unit 121 calculates a charge accumulation time Exp_long that is one step over the appropriate exposure amount and a charge accumulation time Exp_short that is one step under. Appropriate exposure conditions can be determined from the average brightness of the image taken immediately before and a program diagram prepared in advance. From this appropriate exposure condition, one of the aperture value, shutter speed, and sensitivity is changed by one step. Conditions can be used. Here, the shutter speed (charge accumulation time) is changed from the appropriate exposure condition so as not to change the depth of field.

S303でシステム制御部121は、撮像素子115に対して共通の電荷蓄積時間Exp_longを設定し、オーバー画像の撮影ならびに読み出し動作を行う(S304)。次にシステム制御部121は、撮像素子115に対して共通の電荷蓄積時間Exp_shortを設定し(S305)、アンダー画像の撮影ならびに読み出しを行う(S306)。S304およびS306で読み出された画像データはそれぞれ一旦メモリ部123に格納される。このように、面間HDRでは、1フレームの撮影ごとに撮像素子115に共通する電荷蓄積時間を異ならせて設定し、複数フレームを撮影することで、合成元となる複数の画像を取得する。   In step S303, the system control unit 121 sets a common charge accumulation time Exp_long for the image sensor 115, and performs an over-image shooting and reading operation (S304). Next, the system control unit 121 sets a common charge accumulation time Exp_short for the image sensor 115 (S305), and captures and reads an under image (S306). Each of the image data read in S304 and S306 is temporarily stored in the memory unit 123. As described above, in the inter-plane HDR, the charge accumulation time common to the image sensor 115 is set differently for each frame shooting, and a plurality of frames as a combination source are acquired by shooting a plurality of frames.

S307でシステム制御部121は、メモリ部123に格納されたオーバー画像とアンダー画像とを読み出し、画像処理部117の画像合成回路を用いてHDR動画フレームを生成する。HDR画像フレームを生成するための合成処理は公知の任意の方法を用いることが可能であるが、例えばオーバー画像及びアンダー画像を複数のブロックに分割し、ブロック内の画素の輝度レベルに応じてブロックごとに合成比率を決定することができる。さらに、システム制御部121は生成したHDR動画フレームを画像処理部117に入力し、内部の信号処理回路、ラスタ−ブロック変換回路、圧縮回路で処理した後、記録用画像としてメモリ部123に格納する。   In step S <b> 307, the system control unit 121 reads the over image and the under image stored in the memory unit 123, and generates an HDR video frame using the image composition circuit of the image processing unit 117. Although any known method can be used for the synthesis process for generating the HDR image frame, for example, the over image and the under image are divided into a plurality of blocks, and the blocks are divided according to the luminance level of the pixels in the block. The synthesis ratio can be determined for each. Further, the system control unit 121 inputs the generated HDR moving image frame to the image processing unit 117, processes it with an internal signal processing circuit, raster-block conversion circuit, and compression circuit, and then stores it in the memory unit 123 as a recording image. .

S308でシステム制御部121は、記録用画像をメモリ部123から読み出し、記録媒体200に書き込む。
なお、ここでは1回の面間HDR動画処理において1枚のHDR動画フレームの生成ならびに記録を行うものとしたが、より多くのHDR動画フレームの生成、記録を行うようにしてもよい。
In step S <b> 308, the system control unit 121 reads the recording image from the memory unit 123 and writes the recording image on the recording medium 200.
Here, one HDR video frame is generated and recorded in one-time HDR video processing, but more HDR video frames may be generated and recorded.

図4はS206の面内HDR動画処理の詳細を示すフローチャートである。
S401でシステム制御部121は、撮影フレームレートおよび記録フレームレートを60FPSに設定する。具体的には、システム制御部121は、画像処理部117内のSSG回路への撮像同期信号設定と、撮像素子115及びタイミング発生部116へのタイミング設定によりフレームレートの設定を行う。
FIG. 4 is a flowchart showing details of the in-plane HDR moving image processing in S206.
In step S401, the system control unit 121 sets the shooting frame rate and the recording frame rate to 60 FPS. Specifically, the system control unit 121 sets the frame rate by setting the imaging synchronization signal to the SSG circuit in the image processing unit 117 and the timing setting to the imaging element 115 and the timing generation unit 116.

また、システム制御部121は、撮像素子115を所定の単位領域ごとに、電荷蓄積時間を設定可能とするためのモード設定も行う(S402)。ここでは、単位領域が2ラインであるとする。   The system control unit 121 also performs mode setting for enabling the image sensor 115 to set the charge accumulation time for each predetermined unit region (S402). Here, it is assumed that the unit area is two lines.

S403でシステム制御部121は、S302と同様にして、適正の露出量より1段オーバーとなる電荷蓄積時間Exp_long及び1段アンダーとなる電荷蓄積時間Exp_shortを算出する。
S404でシステム制御部121は、撮像素子115に対し、単位領域(ここでは2ライン)ごとに電荷蓄積時間Exp_longおよびExp_shortを設定し、1フレーム分の撮影および読み出し動作を行う(S405)。これにより、オーバー画像およびアンダー画像が撮影される。S405で読み出された画像データはオーバー画像を構成するラインの画素データとアンダー画像を構成するラインの画素ごとにそれぞれ一旦メモリ部123に格納される。
In S403, the system control unit 121 calculates the charge accumulation time Exp_long that is one step over the appropriate exposure amount and the charge accumulation time Exp_short that is one step under the same as S302.
In S404, the system control unit 121 sets the charge accumulation times Exp_long and Exp_short for each unit region (here, two lines) for the image sensor 115, and performs photographing and reading operations for one frame (S405). Thereby, an over image and an under image are photographed. The image data read in step S405 is temporarily stored in the memory unit 123 for each pixel data of the line constituting the over image and each pixel of the line constituting the under image.

S406でシステム制御部121は、メモリ部123に格納されたオーバー画像とアンダー画像とを読み出し、画像処理部117の画像合成回路を用いてHDR動画フレームを生成する。さらに、システム制御部121は生成したHDR動画フレームを画像処理部117に入力し、内部の信号処理回路、ラスタ−ブロック変換回路、圧縮回路で処理した後、記録用画像としてメモリ部123に格納する。   In step S <b> 406, the system control unit 121 reads the over image and the under image stored in the memory unit 123, and generates an HDR video frame using the image composition circuit of the image processing unit 117. Further, the system control unit 121 inputs the generated HDR moving image frame to the image processing unit 117, processes it with an internal signal processing circuit, raster-block conversion circuit, and compression circuit, and then stores it in the memory unit 123 as a recording image. .

S407でシステム制御部121は、記録用画像をメモリ部123から読み出し、記録媒体200に書き込む。
なお、ここでは1回の面内HDR動画処理において1枚のHDR動画フレームの生成ならびに記録を行うものとしたが、より多くのHDR動画フレームの生成、記録を行うようにしてもよい。
In step S <b> 407, the system control unit 121 reads the recording image from the memory unit 123 and writes the recording image on the recording medium 200.
Here, one HDR video frame is generated and recorded in one in-plane HDR video process, but more HDR video frames may be generated and recorded.

図5は面内HDR動画処理時に撮像素子115から読み出されるオーバー画像およびアンダー画像の露光および読み出し制御の例を示すタイミングチャートである。ここでは、撮像素子115の8ライン分の制御について示している。本実施形態では2ラインごとにオーバー露光(電荷蓄積時間Exp_long)とアンダー露光(電荷蓄積時間Exp_short)を交互に繰り返しながら1フレーム分の露光と読み出しを実行する。図5ではライン1,2,5,6,・・・,4n+1,4n+2がオーバー露光されるライン、ライン3,4,7,8,・・・4n+3,4(n+1)がアンダー露光されるラインである(n=0,1,2,...)。   FIG. 5 is a timing chart showing an example of over-image and under-image exposure and readout control read from the image sensor 115 during the in-plane HDR moving image processing. Here, control for eight lines of the image sensor 115 is shown. In the present embodiment, exposure and reading for one frame are executed while alternately repeating overexposure (charge accumulation time Exp_long) and underexposure (charge accumulation time Exp_short) every two lines. In FIG. 5, lines 1, 2, 5, 6,..., 4n + 1, 4n + 2 are overexposed lines, and lines 3, 4, 7, 8,... 4n + 3, 4 (n + 1) are underexposed lines. (N = 0, 1, 2,...).

オーバー露光されるラインから得られる画素情報をまとめるとオーバー画像が、アンダー露光されるラインから得られる画素情報をまとめるとアンダー画像が得られる。ただし、垂直解像度は通常撮影時(面間HDRにおける1フレームの撮影時)に得られる画像の1/2となる。このように、面間HDRでは記録フレームレートが撮影フレームレート/(合成枚数)となるが、合成に用いる画像の垂直解像度が高く、面内HDRでは記録フレームレートを撮影フレームレートと同一に保つことができるが、合成に用いる画像の垂直解像度が低い。   When the pixel information obtained from the overexposed line is collected, an over image is obtained, and when the pixel information obtained from the underexposed line is collected, an under image is obtained. However, the vertical resolution is ½ of the image obtained during normal shooting (when shooting one frame in inter-plane HDR). Thus, although the recording frame rate is the shooting frame rate / (number of combined images) in the inter-plane HDR, the vertical resolution of the image used for combining is high, and the recording frame rate is kept the same as the shooting frame rate in the in-plane HDR. However, the vertical resolution of the image used for composition is low.

面内HDRは撮像装置や被写体の動きの影響を受けづらいが、合成に用いる画像の垂直解像度が低い。一方、面間HDRは撮像装置や被写体の動きの影響を受けやすいが、合成に用いる画像間で動きのない(もしくは無視できる程度の動きのある)場合に部分については画質のよいHDR画像を生成できる。このような特性を踏まえ、HDR動画記録中、撮像装置100の動きが、面間HDRの実施に適していないと判断される場合には面内HDR動画に切り替える。   The in-plane HDR is not easily affected by the movement of the imaging device or the subject, but the vertical resolution of the image used for composition is low. On the other hand, the inter-surface HDR is easily affected by the movement of the imaging device and the subject, but generates a high-quality HDR image for the part when there is no movement (or there is a negligible movement) between the images used for composition. it can. Based on such characteristics, during the recording of the HDR moving image, when it is determined that the movement of the image capturing apparatus 100 is not suitable for performing the inter-plane HDR, switching to the in-plane HDR moving image is performed.

図2のフローチャートでは、撮像装置の動き量Mが閾値Mt以上の場合に、面内HDRを使用するようにしている。ここで、閾値Mtは、撮像装置100が手振れ補正機能を有する場合には、手振れ補正が可能な動き量かどうかの閾値として定めてもよい。なお、手振れ補正可能な動き量は一定量とは限らないため、予めマージンを取った固定値としてもよいし、判定時点における補正可能量に応じて動的に定めてもよい。なお、手振れ補正機能を考慮した閾値を定める場合には、動き量だけでなく動きの方向も考慮して例えば方向別に閾値を定めてもよい。閾値は手振れ補正機能の有無やその性能、レンズの画角など撮像装置や撮影条件に応じて変化しうるため、予め実験などによって決定しておく。判定時の条件に応じて閾値を変化させる場合も、条件に応じた閾値を予め決定しておくか、条件から閾値を算出するためのテーブルや算出式を用意しておく。   In the flowchart of FIG. 2, in-plane HDR is used when the amount of motion M of the imaging apparatus is equal to or greater than the threshold value Mt. Here, the threshold value Mt may be determined as a threshold value indicating whether or not the amount of motion allows camera shake correction when the imaging apparatus 100 has a camera shake correction function. Note that the amount of motion that can be corrected by hand shake is not limited to a fixed amount, and may be a fixed value with a margin in advance, or may be determined dynamically according to the correctable amount at the time of determination. In the case where the threshold value considering the camera shake correction function is determined, the threshold value may be determined for each direction in consideration of not only the amount of motion but also the direction of motion. The threshold value can be changed according to the imaging apparatus and photographing conditions such as presence / absence of the camera shake correction function, its performance, and the angle of view of the lens, and therefore is determined in advance by an experiment or the like. Even when the threshold value is changed according to the condition at the time of determination, a threshold value corresponding to the condition is determined in advance, or a table or a calculation formula for calculating the threshold value from the condition is prepared.

なお、撮像装置100の動きは、例えばジャイロセンサ等、加速度センサ181以外の構成により検出してもよい。ジャイロセンサを用いた場合には上下左右の角度ブレに加え、回転方向のブレに関しても検出することができる。   Note that the movement of the imaging device 100 may be detected by a configuration other than the acceleration sensor 181 such as a gyro sensor. In the case where the gyro sensor is used, it is possible to detect not only vertical / horizontal angle blur but also rotational blur.

また、異なる時間に撮影された(例えば連続的に撮影された)画像から撮像装置および被写体の少なくとも一方の動き量を検出し、この動き量に応じて面間HDRと面内HDRとの切り替えを行ってもよい。動き量は、異なる時間に撮影された画像間の差分を画像処理部117の信号処理回路を算出したり、動画の動き補償符号化に用いられるようなマッチング手法などを用いて検出することができる。検出された動き量が面間HDRによる合成画像に影響を与えると判断される閾値以上であれば面間HDRを、閾値未満であれば面間HDRを用いるように切り替えを行うことができる。なお、この方法では視野内の一部の移動(例えば動体)の検出も可能であるため、撮像装置100の動き量の検出と併用してもよい。撮像装置100が例えば静止していても、高速で移動する動体が検出された場合には面内HDRを用いるようにすることで、合成後のHDR画像の移動体領域部分の違和感を低減することができる。   Further, the movement amount of at least one of the imaging device and the subject is detected from images taken at different times (for example, taken continuously), and switching between the in-plane HDR and the in-plane HDR is performed according to the amount of movement. You may go. The amount of motion can be detected by calculating a difference between images taken at different times using a signal processing circuit of the image processing unit 117 or a matching method used for motion compensation encoding of a moving image. . If the detected amount of motion is equal to or greater than a threshold value that is determined to affect the combined image by the inter-plane HDR, switching can be performed so that the inter-surface HDR is used, and if it is less than the threshold value, the inter-surface HDR is used. Note that this method can also detect a part of the movement (for example, a moving object) in the field of view, and may be used in combination with the detection of the amount of movement of the imaging apparatus 100. Even if the imaging apparatus 100 is stationary, for example, when a moving body that moves at high speed is detected, the in-plane HDR is used to reduce the uncomfortable feeling of the moving body region portion of the combined HDR image. Can do.

画像から撮像装置や被写体の動き量を検出する方法は、加速度センサやジャイロセンサを必要としないため、このようなセンサを有さない撮像装置でも実施可能なうえ、コストを抑制することも可能である。   The method for detecting the amount of movement of the imaging device and the subject from the image does not require an acceleration sensor or a gyro sensor, and therefore can be implemented even in an imaging device that does not have such a sensor, and can also reduce costs. is there.

このように、本実施形態によれば、HDR動画記録時に、撮像装置および被写体の少なくとも一方の動き量を検出し、動き量が閾値以上の場合には面内HDRを用い、閾値未満の場合には面間HDRを用いるように切り替える。そのため、撮像装置や被写体の動きが大きい場合には動きの影響が抑制されたHDR動画が記録でき、また、動きが小さい場合には解像度のHDR動画が記録できるため、ユーザが意識することなく、全体として質の高いHDR動画を記録することが可能になる。   As described above, according to the present embodiment, at the time of HDR video recording, the amount of motion of at least one of the imaging device and the subject is detected. If the amount of motion is greater than or equal to the threshold, the in-plane HDR is used. Switch to use the inter-plane HDR. Therefore, when the movement of the imaging device or the subject is large, an HDR moving image in which the influence of the movement is suppressed can be recorded, and when the movement is small, an HDR moving image with a resolution can be recorded. As a whole, it is possible to record high-quality HDR moving images.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態は、HDR画像を生成する際の合成比率に応じて面内HDRと面間HDRとを切り替える(選択する)ことを特徴とする。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The present embodiment is characterized in that in-plane HDR and inter-plane HDR are switched (selected) according to a composition ratio when generating an HDR image.

面内HDRでは、1回の撮影(撮像素子の各画素が1回読み出される動作)により、露出条件の異なる複数枚の画像を取得するため、取得する画像の枚数(1枚のHDR画像を生成するために用いる画像の枚数)が多いほど、各画像の解像度が低下する。そして、合成後のHDR画像の解像度は、合成元の画像をどのような比率で合成したかによって変化する。HDR画像の各画素を生成する際に用いる合成元画像の合成比率は、画素の輝度レベルと、HDR撮影時の露光条件に応じて変化する。本実施形態のように、適正露出条件に対して±1段の露出条件で撮影したオーバー画像およびアンダー画像を合成元画像として用いる場合、適正露出に相当する輝度レベルの画素を生成する際の合成比率はオーバー画像、アンダー画像とも等しく、50%程度となる。   In the in-plane HDR, in order to acquire a plurality of images with different exposure conditions by one shooting (operation in which each pixel of the image sensor is read once), the number of images to be acquired (a single HDR image is generated). The greater the number of images used to do), the lower the resolution of each image. Then, the resolution of the HDR image after synthesis changes depending on the ratio at which the synthesis source image is synthesized. The composition ratio of the composition source image used when generating each pixel of the HDR image changes according to the luminance level of the pixel and the exposure condition at the time of HDR shooting. When using an over image and an under image taken under ± 1 step exposure conditions with respect to the proper exposure conditions as the composition source image as in the present embodiment, the composition when generating a pixel with a luminance level corresponding to the proper exposure The ratio is the same for both over images and under images, which is about 50%.

図6(a)〜(c)は、それぞれ白・黒・グレーに塗られた三角形の積み木のHDR画像を面内HDR方式で生成した例を、図6(d)〜(f)は(a)〜(c)の一部601〜603を拡大した状態(形状のみに着目したもの)を、それぞれ模式的に示している。   FIGS. 6A to 6C show examples in which HDR images of triangular blocks painted in white, black, and gray are generated by the in-plane HDR method, and FIGS. ) To (c) are shown schematically in a state where parts 601 to 603 are enlarged (focusing only on the shape).

ここで、各HDR画像を生成した際のオーバー画像とアンダー画像の合成比率は以下の様になっているものとする。
積み木の色 : 合成比率
(a) 白 : アンダー90%、オーバー10%
(b) 黒 : アンダー10%、オーバー90%
(c) グレー : アンダー50%、オーバー50%
Here, it is assumed that the composition ratio of the over image and the under image when each HDR image is generated is as follows.
Building block color: Composite ratio
(A) White: 90% under, 10% over
(B) Black: 10% under, 90% over
(C) Gray: 50% under, 50% over

図6(d)〜(f)から、アンダー画像とオーバー画像の合成比率に偏りのある白の積み木(a)と黒の積み木(b)では解像感が低下するのに対し、合成比率が等しいグレーの積み木(c)では解像感は良好に保たれたままであることがわかる。このように、面内HDRを用いて生成したHDR画像は、合成比率の偏りによって解像感が低下する。   6 (d) to 6 (f), the white blocks (a) and black blocks (b), which are biased in the composition ratio of the under image and the over image, decrease the resolution, whereas the composition ratio is It can be seen that the equal gray blocks (c) remain well maintained. As described above, the HDR image generated using the in-plane HDR has a reduced resolution due to the bias of the composition ratio.

従って、本実施形態では、面内HDRで生成したHDR画像の解像感が低下すると判断される程度に合成比率が偏っている場合には、面間HDRを用いるように切り替える。
図7は本実施形態の撮像装置における、HDR動画撮影時のHDR方式切り替え動作に係る動作を説明するフローチャートである。図7において、図2と同様の処理については同じ参照数字を付して説明は省略する。S207において動画ボタンが再押下されていない場合、システム制御部121は、処理をS701に進め、S205またはS206で生成されたHDR画像における所定領域を検出する。所定領域は例えば主被写体領域であってよく、具体的には顔領域であってよい。システム制御部121はHDR画像を画像処理部117に入力し、公知の顔検出処理を実行することにより顔領域の有無、顔領域の大きさ、位置、信頼度などの情報を取得する。主被写体領域が検出されなかった場合、システム制御部121は処理をS203へ戻す。
Therefore, in this embodiment, when the composition ratio is biased to such an extent that it is determined that the resolution of the HDR image generated by the in-plane HDR is lowered, switching is performed so that the inter-plane HDR is used.
FIG. 7 is a flowchart for explaining the operation related to the HDR system switching operation at the time of HDR moving image shooting in the imaging apparatus of the present embodiment. In FIG. 7, the same processes as those in FIG. If the moving image button has not been pressed again in S207, the system control unit 121 advances the processing to S701, and detects a predetermined region in the HDR image generated in S205 or S206. The predetermined area may be, for example, a main subject area, specifically a face area. The system control unit 121 inputs the HDR image to the image processing unit 117, and acquires information such as the presence / absence of the face area, the size, position, and reliability of the face area by executing a known face detection process. If the main subject area is not detected, the system control unit 121 returns the process to S203.

主被写体領域が検出できた場合、システム制御部121は主被写体領域におけるオーバー画像とアンダー画像の合成比率の比Sが、所定の2つの閾値(S1、S2)の範囲内か(S1≦S≦S2か)を調べる(S709)。なお、合成比率または合成比率の比は、S205およびS206における画像合成処理時(S307、S406)にメモリ部123に記憶しておくことができる。なお、合成比率の比は、(オーバー画像の合成比率)/(アンダー画像の合成比率)もしくは(アンダー画像の合成比率)/(オーバー画像の合成比率)として求めることができる。   When the main subject area can be detected, the system control unit 121 determines whether the ratio S of the over image and under image composition ratio in the main subject area is within a range of two predetermined threshold values (S1, S2) (S1 ≦ S ≦ S2) is checked (S709). Note that the composition ratio or the ratio of composition ratios can be stored in the memory unit 123 during the image composition processing in S205 and S206 (S307, S406). The ratio of the composition ratio can be obtained as (over image composition ratio) / (under image composition ratio) or (under image composition ratio) / (over image composition ratio).

なお、ここでの判定は合成元画像の合成比率(使用割合)に偏りがあるかどうかの判定であるため、他の方法を用いてもよい。例えば、合成比率の合計が100%である場合には、最大合成比率と最小合成比率の差によって判定してもよいし、合成元画像が2枚であれば、一方の合成比率が非常に大きいか非常に小さい場合に合成比率に偏りがあると判定してもよい。ここで、ある領域に関する合成比率は、その領域内に含まれる個々の画素についての合成比率の平均値などの統計値として算出することができる。また、主被写体領域が見つからない場合には、所定領域として、画像の中央部分の固定領域など、画質低下が目立ちやすい領域について同様の判定を行ってもよい。また、HDR画像中の合成比率の偏りがある画素の割合など、特定の領域における合成比率に限定せずに判定を行ってもよい。ただし、処理負荷が増大するため、効果とのバランスを考えて実施する。   Since the determination here is a determination as to whether or not the composition ratio (use ratio) of the composition source image is biased, other methods may be used. For example, when the total composition ratio is 100%, the determination may be made based on the difference between the maximum composition ratio and the minimum composition ratio. If there are two composition source images, one composition ratio is very large. If it is very small, it may be determined that the composition ratio is biased. Here, the composition ratio for a certain area can be calculated as a statistical value such as an average value of composition ratios for individual pixels included in the area. When the main subject area is not found, the same determination may be performed as an area where deterioration in image quality is conspicuous, such as a fixed area at the center of the image. Further, the determination may be made without being limited to the composition ratio in a specific region, such as the ratio of pixels having a bias in the composition ratio in the HDR image. However, since processing load increases, it carries out considering balance with an effect.

合成比率の比が2つの閾値の範囲内であれば、システム制御部121は処理をS203へ戻す。一方、合成比率の比が2つの閾値の範囲外(S<S1またはS>S2)の場合、システム制御部121は、処理をS205へ進め、面間HDR動画処理を実行させる。これは、合成元画像の合成比率に偏りがあり、面内HDRを用いた場合に解像感の低下が生じると考えられるためである。S207において動画ボタンが再押下されていた場合、システム制御部121は動画記録を停止し(S208)、処理を終了する。   If the ratio of the combination ratio is within the range of the two thresholds, the system control unit 121 returns the process to S203. On the other hand, if the ratio of the composition ratio is outside the range of the two threshold values (S <S1 or S> S2), the system control unit 121 advances the process to S205 and causes the inter-face HDR video process to be executed. This is because the composition ratio of the composition source image is biased, and it is considered that the resolution is lowered when the in-plane HDR is used. If the moving image button has been pressed again in S207, the system control unit 121 stops moving image recording (S208) and ends the process.

このように、本実施形態では、オーバー画像およびアンダー画像の合成比率に偏りがあると判定される場合には面間HDRを用いてHDR動画フレームを生成するようにすることで、解像感の低下を抑制した高品質のHDR動画を記録することを可能にする。   As described above, in this embodiment, when it is determined that the composition ratio of the over image and the under image is biased, the HDR moving image frame is generated using the inter-surface HDR, thereby reducing the resolution. It is possible to record a high-quality HDR moving image in which the deterioration is suppressed.

(他の実施形態)
第2の実施形態では、主被写体領域の合成比率によるHDR方式の選択を、第1の実施形態で説明した動きによるHDR方式の選択と組み合わせた場合についてのみ説明したが、主被写体領域の合成比率によるHDR方式の選択を単独で実施してもよい。
また、主被写体領域の検出と合成比率の比の判定(S701,S702)の処理を、面内HDRが選択されている場合にのみ実施するようにしてもよい。
(Other embodiments)
In the second embodiment, the HDR method selection based on the composition ratio of the main subject region has been described only in combination with the HDR method selection based on the motion described in the first embodiment. The selection of the HDR method may be performed independently.
Further, the detection of the main subject region and the determination of the composition ratio (S701, S702) may be performed only when in-plane HDR is selected.

上述の実施形態では説明および理解を容易にするため、記録されるHDR動画の解像度について言及しなかった。しかし、面内HDRおよび面間HDRのいずれによってHDR動画フレームが生成される場合でも、記録されるHDR動画フレームの解像度(画素数)が等しいことは言うまでもない。従って、必要に応じて、面間HDRで生成された動画フレームの画素数を低下させたり、面内HDRで生成された動画フレームの画素数を増加させたりする。   In the embodiment described above, the resolution of the recorded HDR video is not mentioned for ease of explanation and understanding. However, it goes without saying that the resolution (number of pixels) of the recorded HDR moving image frame is equal regardless of whether the HDR moving image frame is generated by the in-plane HDR or the inter-plane HDR. Therefore, as necessary, the number of pixels of the moving image frame generated by the in-plane HDR is decreased, or the number of pixels of the moving image frame generated by the in-plane HDR is increased.

また、上述の実施形態では、動きによるHDR方式の選択、主被写体領域の合成比率によるHDR方式の選択について言及した。上述したHDR方式の選択は、各々のHDR方式にメリット、デメリットがあるから必要になるものであるが、面内HDRの解像度の低下については、高画素数の撮像素子では問題にならない場合が考えられる。例えば撮像素子115が有効画素数980万画素(3840×2560)を超えるような撮像素子であれば、HD動画の解像度(1920×1080)2画面分のデータを1フレームの撮影で得ることが可能である。そこで、HDR方式の選択の際に、記録または表示画素数(解像度)の設定情報を参照して、面内HDRであっても解像度の低下が問題にならない設定である場合は、面内HDR方式を選択するように制御してもよい。この記録または表示画素数(解像度)の設定情報の確認とそれによるHDR方式の判定のステップは、図2の例えばS204の動き量の判定時に合わせて設定情報の取得と設定情報に基づく判定がなされても良い。また、S202の撮像駆動設定において本設定情報に基づいて判定がなされても良い。   In the above-described embodiment, the selection of the HDR method based on the motion and the selection of the HDR method based on the composition ratio of the main subject region are mentioned. The above-described selection of the HDR method is necessary because each HDR method has merits and demerits. However, a reduction in in-plane HDR resolution may not be a problem with an image sensor having a large number of pixels. It is done. For example, if the image sensor 115 has an effective number of pixels exceeding 9.8 million pixels (3840 × 2560), it is possible to obtain data for two frames of HD video resolution (1920 × 1080) by shooting one frame. It is. Therefore, when the HDR method is selected, the setting information of the number of recorded or displayed pixels (resolution) is referred to. If the setting does not cause a decrease in resolution even in the in-plane HDR, the in-plane HDR method is used. You may control to select. The step of confirming the setting information of the recording or the number of display pixels (resolution) and the determination of the HDR method thereby is performed based on the acquisition of the setting information and the determination based on the setting information in accordance with the motion amount determination in S204 of FIG. May be. Further, the determination may be made based on this setting information in the imaging drive setting of S202.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (5)

撮像装置であって、
予め定められた単位領域ごとに電荷蓄積時間を設定可能な撮像素子と、
異なる露出条件での撮影で得られる複数の画像を合成して1枚の合成画像を生成する合成手段と、
前記合成画像の所定領域に関する前記複数の画像の合成比率を取得する取得手段と、
前記取得手段により取得された前記合成比率に応じて、前記撮像素子の動作を制御する制御手段とを有し、
前記制御手段は、
(a)前記合成比率に偏りがあると判定されるときに、
前記撮像素子に共通した電荷蓄積時間を設定する第1の露光制御を用いた複数フレームの撮影により、前記複数の画像を得るように前記撮像素子の動作を制御し、
(b)前記合成比率に偏りがあると判定されないときに、
前記単位領域に応じて複数の異なる電荷蓄積時間を設定する第2の露光制御を用いた1フレームの撮影により、前記複数の画像が得られるように前記撮像素子の動作を制御する、
ことを特徴とする撮像装置。
An imaging device,
An image sensor capable of setting a charge accumulation time for each predetermined unit area;
A synthesizing unit for synthesizing a plurality of images obtained by photographing under different exposure conditions to generate one synthesized image;
Obtaining means for obtaining a composition ratio of the plurality of images relating to a predetermined region of the composite image;
Control means for controlling the operation of the image sensor according to the composition ratio acquired by the acquisition means,
The control means includes
(A) When it is determined that the composition ratio is biased,
By controlling the operation of the image sensor so as to obtain the plurality of images by photographing a plurality of frames using the first exposure control that sets a charge accumulation time common to the image sensor,
(B) When it is not determined that the composition ratio is biased,
Controlling the operation of the image sensor so that the plurality of images can be obtained by photographing one frame using second exposure control that sets a plurality of different charge accumulation times according to the unit region;
An imaging apparatus characterized by that.
前記所定領域が、予め定められた主被写体の領域であることを特徴とする請求項記載の撮像装置。 Wherein the predetermined region, the imaging apparatus according to claim 1, characterized in that the area of the main subject determined in advance. 前記所定領域が顔領域であることを特徴とする請求項記載の撮像装置。 The imaging apparatus according to claim 2, wherein the predetermined area is a face area. 前記制御手段は、前記第1の露光制御を行う場合、前記撮像素子の撮影フレームレートを、前記複数の画像の枚数に応じて増加させることを特徴とする、請求項1から請求項の何れか1項に記載の撮像装置。 Wherein, when performing the first exposure control, the imaging frame rate of the imaging device, wherein to increase according to the number of said plurality of images, one of claims 1 to 3 The imaging apparatus of Claim 1. 予め定められた単位領域ごとに電荷蓄積時間を設定可能な撮像素子と、
異なる露出条件での撮影で得られる複数の画像を合成して1枚の合成画像を生成する合成手段と、を有する撮像装置の制御方法であって、
取得手段が、前記合成画像の所定領域に関する前記複数の画像の合成比率を取得する取得ステップと、
制御手段が、
(a)前記合成比率に偏りがあると判定されるときに、
前記撮像素子に共通した電荷蓄積時間を設定する第1の露光制御を用いた複数フレームの撮影により、露光量の異なる複数の画像を得るように前記撮像素子の動作を制御し、
(b)前記合成比率に偏りがあると判定されないときに、
前記単位領域に応じて複数の異なる電荷蓄積時間を設定する第2の露光制御を用いた1フレームの撮影により前記露光量の異なる複数の画像が得られるように前記撮像素子の動作を制御する制御ステップと、
を有することを特徴とする撮像装置の制御方法。
An image sensor capable of setting a charge accumulation time for each predetermined unit area;
A method for controlling an imaging apparatus, comprising: a combining unit that combines a plurality of images obtained by shooting under different exposure conditions to generate a single combined image;
An obtaining step for obtaining a composition ratio of the plurality of images with respect to a predetermined region of the composite image;
The control means
(A) When it is determined that the composition ratio is biased,
By controlling the operation of the image sensor so as to obtain a plurality of images with different exposure amounts by photographing a plurality of frames using the first exposure control that sets a charge accumulation time common to the image sensor,
(B) When it is not determined that the composition ratio is biased,
Control for controlling the operation of the image sensor so that a plurality of images having different exposure amounts can be obtained by photographing one frame using second exposure control that sets a plurality of different charge accumulation times according to the unit area. Steps,
A method for controlling an imaging apparatus, comprising:
JP2013012438A 2013-01-25 2013-01-25 Imaging apparatus and control method thereof Active JP6118118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013012438A JP6118118B2 (en) 2013-01-25 2013-01-25 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013012438A JP6118118B2 (en) 2013-01-25 2013-01-25 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2014146850A JP2014146850A (en) 2014-08-14
JP2014146850A5 JP2014146850A5 (en) 2016-03-10
JP6118118B2 true JP6118118B2 (en) 2017-04-19

Family

ID=51426797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013012438A Active JP6118118B2 (en) 2013-01-25 2013-01-25 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6118118B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6859910B2 (en) * 2017-09-22 2021-04-14 株式会社デンソーウェーブ Imaging device
CN111095912B (en) 2017-09-29 2021-08-06 富士胶片株式会社 Image pickup apparatus, image pickup method, and recording medium
CN112511689A (en) * 2019-09-16 2021-03-16 北京小米移动软件有限公司 Processing method, device and medium for abnormal shooting
CN114650361B (en) * 2020-12-17 2023-06-06 北京字节跳动网络技术有限公司 Shooting mode determining method, shooting mode determining device, electronic equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009105533A (en) * 2007-10-22 2009-05-14 Sony Corp Image processing device, imaging device, image processing method, and picked-up image processing method
JP2010239277A (en) * 2009-03-30 2010-10-21 Fujifilm Corp Imaging device and imaging method

Also Published As

Publication number Publication date
JP2014146850A (en) 2014-08-14

Similar Documents

Publication Publication Date Title
US8736748B2 (en) Image capturing apparatus and control method controlling exposure time of image sensor
US8638374B2 (en) Image pickup apparatus, image pickup system, and image pickup method
US9210333B2 (en) Image capturing apparatus for generating composite image and control method thereof
JP2000224490A (en) Image pickup controller and image pickup control method
JP2009201094A (en) Imaging apparatus and imaging method
JP2010160311A (en) Imaging apparatus
JP6118118B2 (en) Imaging apparatus and control method thereof
JP2010178164A (en) Imaging apparatus
US9420223B2 (en) Image recording device that records moving image, method of controlling the same, and storage medium
JP2006033123A (en) Image pickup device
KR20120071972A (en) Digital image signal processing apparatus and method for controlling the same
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP6278729B2 (en) Imaging apparatus, control method thereof, and program
JP2018148512A (en) Imaging device, control method of imaging device, and program
JP6152009B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP2004172845A (en) Imaging device
JP2000023024A (en) Image input device
JP2008072501A (en) Imaging apparatus, imaging method, program, and recording medium
JP2013255201A (en) Imaging apparatus and control method of the same
JP2014007454A (en) Image pickup device and image pickup method
JP2018056652A (en) Imaging device and control method for imaging device
JP2013016905A (en) Imaging apparatus
JP6800693B2 (en) Imaging device and driving method of imaging device
JP6635722B2 (en) Image processing apparatus, image processing method, and program
JP2017022596A (en) Image processing apparatus, control method of the same, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170324

R151 Written notification of patent or utility model registration

Ref document number: 6118118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151