JP2012195660A - Image processing apparatus and electronic camera, and image processing program - Google Patents

Image processing apparatus and electronic camera, and image processing program Download PDF

Info

Publication number
JP2012195660A
JP2012195660A JP2011056413A JP2011056413A JP2012195660A JP 2012195660 A JP2012195660 A JP 2012195660A JP 2011056413 A JP2011056413 A JP 2011056413A JP 2011056413 A JP2011056413 A JP 2011056413A JP 2012195660 A JP2012195660 A JP 2012195660A
Authority
JP
Japan
Prior art keywords
image
images
captured
reference image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011056413A
Other languages
Japanese (ja)
Inventor
Naohito Nakahara
尚人 中原
Wataru Miyazaki
渉 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011056413A priority Critical patent/JP2012195660A/en
Publication of JP2012195660A publication Critical patent/JP2012195660A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate alignment and composition of subjects greatly different from each other in luminance.SOLUTION: An image processing apparatus comprises: an image input part which receives input of plural sheets of images captured temporally consecutively which include an image captured with light emission of an auxiliary light source; a reference image selection part which selects as a first reference image the light-emission captured image captured with the light emission of the auxiliary light source and, as a second reference image, no-light-emission captured image which is the closest temporally to the first reference image among plural sheets of no-light-emission captured images which are captured without light emission of the auxiliary light source; and an image composition part which performs first composition for composing the plural sheets of no-light-emission captured images to the second reference image and second composition for composing the first-composed image to the first reference image.

Description

本発明は、画像処理技術に関する。   The present invention relates to an image processing technique.

従来、電子カメラで撮影可能なダイナミックレンジを越える画像を撮影する場合、明るい部分の白飛びや暗い部分の黒潰れが生じるため、明るい部分を適正露光で撮影した画像と、暗い部分を適正露光で撮影した画像とを合成する方法が用いられている。この場合、画像を重ね合わせる処理を行う必要があり、正確に被写体が重なるように被写体の位置を合わせる画像処理が行われる。例えば、画像を分割して特徴検出を行った後、画像位置を合わせる技術が検討されている(例えば、特許文献1参照)。   Conventionally, when shooting an image that exceeds the dynamic range that can be captured with an electronic camera, the bright part is overexposed and the dark part is blackened. A method of combining a photographed image is used. In this case, it is necessary to perform processing for superimposing images, and image processing for aligning the positions of the subjects so that the subjects overlap accurately is performed. For example, a technique for aligning an image position after performing feature detection by dividing an image has been studied (for example, see Patent Document 1).

特許第4136044号公報Japanese Patent No. 4136044

ところが、従来の合成方法は、輝度が大きく異なる画像の重ね合せを行う場合、被写体の位置合わせを正確に行うことが難しく、複雑な演算処理や高価な処理装置が求められ、処理時間が長くなるという問題があった。   However, in the conventional synthesis method, when superimposing images with greatly different luminances, it is difficult to accurately align the subject, requiring complicated arithmetic processing and an expensive processing device, and processing time is increased. There was a problem.

本発明の目的は、輝度が大きく異なる画像の重ね合せを行う場合に、被写体の位置合わせを正確に行うことができる画像処理装置および電子カメラ、並びに画像処理プログラムを提供することである。   An object of the present invention is to provide an image processing apparatus, an electronic camera, and an image processing program capable of accurately aligning a subject when superimposing images having greatly different luminances.

本発明に係る画像処理装置は、補助光源を発光させて撮影した画像を含む時間的に連続して撮影された複数枚の画像を入力する画像入力部と、前記補助光源を発光させて撮影した発光撮影画像を第1基準画像、前記補助光源を発光させずに撮影した複数枚の非発光撮影画像の中で前記第1基準画像に時間的に最も近い非発光撮影画像を第2基準画像、としてそれぞれ選択する基準画像選択部と、前記複数枚の非発光撮影画像を前記第2基準画像に合成する第1合成処理と、前記第1合成処理後の画像を前記第1基準画像に合成する第2合成処理とを行う画像合成部とを有することを特徴とする。   An image processing apparatus according to the present invention captures an image input unit that inputs a plurality of images that are continuously captured in time including an image that is captured with an auxiliary light source, and an image that is captured with the auxiliary light source emitted. A light emission captured image is a first reference image, and a non-light emission captured image that is temporally closest to the first reference image among a plurality of non-light emission captured images captured without causing the auxiliary light source to emit light is a second reference image, A reference image selection unit for selecting each of the images, a first combining process for combining the plurality of non-light-emitting photographed images with the second reference image, and an image after the first combining process for combining with the first reference image. It has an image composition part which performs the 2nd composition processing.

また、前記第1合成処理は、前記複数枚の非発光撮影画像毎に予め設定された主要被写体の位置検出を行い、前記第2基準画像の前記主要被写体の位置に合うように前記非発光撮影画像の前記主要被写体の位置を調整して合成し、前記第2合成処理は、前記第1合成処理により合成された画像に前記第1基準画像を同一画素位置で合成することを特徴とする。   Further, the first composition processing detects a position of a main subject set in advance for each of the plurality of non-light-emitting photographed images, and performs the non-light-emitting photographing so as to match the position of the main subject of the second reference image. The position of the main subject in the image is adjusted and combined, and the second combining process combines the first reference image with the image combined by the first combining process at the same pixel position.

また、前記複数枚の非発光撮影画像は、前記主要被写体に対してアンダー露光で撮影され、前記発光撮影画像は、前記主要被写体に対して適正露光で撮影されることを特徴とする。   Further, the plurality of non-light-emitting photographed images are photographed with underexposure on the main subject, and the light-emitting photographed images are photographed with appropriate exposure on the main subject.

特に、前記補助光源を発光させて撮影した第1基準画像は、前記時間的に連続して撮影された画像のうち最初または最後の画像であることを特徴とする。   In particular, the first reference image photographed by emitting the auxiliary light source is the first or last image among the images photographed continuously in time.

或いは、前記補助光源を発光させて撮影した第1基準画像は、前記時間的に連続して撮影された画像のうち最初または最後の画像以外の画像であり、前記基準画像選択部は、前記複数枚の非発光撮影画像の中で前記第1基準画像に時間的に前後する2枚の前記非発光撮影画像をそれぞれ前側第2基準画像および後側第2基準画像として選択し、前記画像合成部は、前記第1合成処理として、前記第1基準画像より時間的に前の前記複数枚の非発光撮影画像を前記前側第2基準画像に、前記第1基準画像より時間的に後の前記複数枚の非発光撮影画像を前記後側第2基準画像に、それぞれ合成し、前記第2合成処理は、前記第1基準画像に対して、前記第1合成処理により合成された前記前側第2基準画像と前記後側第2基準画像とをそれぞれ同一画素位置で合成することを特徴とする。   Alternatively, the first reference image captured by causing the auxiliary light source to emit light is an image other than the first or last image among the images continuously captured in time, and the reference image selection unit includes the plurality of reference images. Two non-light-emitting photographic images temporally preceding and following the first reference image are selected as a front second reference image and a rear second reference image from among the non-light-emitting photographic images, and the image composition unit As the first synthesis process, the plurality of non-light-emitting photographed images temporally before the first reference image are converted into the front second reference image, and the plurality of temporally subsequent images from the first reference image. The non-luminous photographed images are combined with the rear second reference image, respectively, and the second combining process is the front second reference combined with the first reference image by the first combining process. Each of the image and the rear second reference image Characterized by combining in one pixel location.

本発明に係る電子カメラは、前記画像処理装置を有する電子カメラであって、前記画像入力部を、時間的に連続して複数枚の画像を撮影する撮像部と、前記複数枚の画像のうち予め設定した時間位置の画像を撮影する時に補助光源を発光させる発光部とで構成し、前記画像合成部が合成後の画像を記憶媒体に記録する記録部を更に設けたことを特徴とする。   An electronic camera according to the present invention is an electronic camera having the image processing device, wherein the image input unit includes an imaging unit that captures a plurality of images continuously in time, and the plurality of images. And a light emitting unit that emits an auxiliary light source when taking an image at a preset time position, and the image synthesizing unit further includes a recording unit that records the synthesized image on a storage medium.

本発明に係る画像処理プログラムは、前記画像処理装置の機能をコンピュータに実行させるための画像処理プログラムであることを特徴とする。   An image processing program according to the present invention is an image processing program for causing a computer to execute the function of the image processing apparatus.

本発明に係る画像処理装置および電子カメラ、並びに画像処理プログラムは、輝度が大きく異なる画像の重ね合せを行う場合に、画像を合成する順序を変えることにより、被写体の位置合わせを正確に行うことができる。   The image processing apparatus, the electronic camera, and the image processing program according to the present invention can accurately align a subject by changing the order in which the images are combined when superimposing images having greatly different luminances. it can.

本実施形態に係る電子カメラ101の構成例を示す図である。It is a figure which shows the structural example of the electronic camera 101 which concerns on this embodiment. 合成処理の概要を示す図である。It is a figure which shows the outline | summary of a synthetic | combination process. 合成順序の一例を示す図である。It is a figure which shows an example of a synthetic | combination order. 制御部108および画像処理部107の構成例を示す図である。3 is a diagram illustrating a configuration example of a control unit 108 and an image processing unit 107. FIG. 第1合成処理の様子を示す図である。It is a figure which shows the mode of a 1st synthetic | combination process. 第2合成処理の様子を示す図である。It is a figure which shows the mode of a 2nd synthetic | combination process. 「合成撮影モード」での撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in "composite imaging | photography mode." 「合成撮影モード」での合成処理を示すフローチャートである。It is a flowchart which shows the synthetic | combination process in "composite imaging | photography mode". 合成順序の変形例1を示す図である。It is a figure which shows the modification 1 of a synthetic | combination order. 合成順序の変形例2を示す図である。It is a figure which shows the modification 2 of a synthetic | combination order.

以下、本発明に係る画像処理装置および電子カメラ、並びに画像処理プログラムの実施形態について図面を用いて詳しく説明する。尚、以下の実施形態では、本発明に係る画像処理装置を含み、本発明に係る画像処理プログラムを利用する電子カメラの例について説明する。   Embodiments of an image processing apparatus, an electronic camera, and an image processing program according to the present invention will be described below in detail with reference to the drawings. In the following embodiment, an example of an electronic camera that includes the image processing apparatus according to the present invention and uses the image processing program according to the present invention will be described.

[電子カメラ101の構成例]
図1は、本実施形態に係る電子カメラ101の構成例を示す図である。図1において、電子カメラ101は、光学系102と、メカニカルシャッタ103と、撮像素子104と、A/D変換部105と、画像バッファ106と、画像処理部107と、制御部108と、メモリ109と、表示部110と、操作部111と、メモリカードIF(インターフェース)112と、補助光源113とで構成される。
[Configuration Example of Electronic Camera 101]
FIG. 1 is a diagram illustrating a configuration example of an electronic camera 101 according to the present embodiment. In FIG. 1, an electronic camera 101 includes an optical system 102, a mechanical shutter 103, an image sensor 104, an A / D conversion unit 105, an image buffer 106, an image processing unit 107, a control unit 108, and a memory 109. A display unit 110, an operation unit 111, a memory card IF (interface) 112, and an auxiliary light source 113.

図1において、光学系102に入射される被写体光は、メカニカルシャッタ103を介して撮像素子104の受光面に入射される。ここで、光学系102は、ズームレンズやフォーカスレンズなどの複数枚のレンズおよびレンズ駆動部や絞り機構などを有し、制御部108によって、ズームレンズ位置、フォーカスレンズ位置、絞り値などが制御される。   In FIG. 1, the subject light incident on the optical system 102 is incident on the light receiving surface of the image sensor 104 via the mechanical shutter 103. Here, the optical system 102 includes a plurality of lenses such as a zoom lens and a focus lens, a lens driving unit, an aperture mechanism, and the like, and the control unit 108 controls the zoom lens position, the focus lens position, the aperture value, and the like. The

撮像素子104は、例えばCMOS型固体撮像素子で構成され、受光面に二次元状に配置された画素の光電変換部により受光量に応じた画像信号を出力する。   The image sensor 104 is configured by, for example, a CMOS solid-state image sensor, and outputs an image signal corresponding to the amount of received light by a photoelectric conversion unit of a pixel arranged two-dimensionally on the light receiving surface.

A/D変換部105は、撮像素子104が出力する画像信号を各画素毎にデジタル値の画像データに変換し、画像バッファ106に取り込む。   The A / D converter 105 converts the image signal output from the image sensor 104 into digital image data for each pixel, and captures the image signal in the image buffer 106.

画像バッファ106は、例えば揮発性の高速メモリで構成される。画像バッファ106は、A/D変換部105が出力する画像データを一時的に記憶するだけでなく、画像処理部107が画像処理を行う時のバッファメモリとしても使用される。或いは撮影時の画像やメモリカードIF112に接続されたメモリカード112aに保存されている撮影済の画像を読み出して表示部110に表示する時の表示メモリとしても使用される。   The image buffer 106 is composed of, for example, a volatile high-speed memory. The image buffer 106 not only temporarily stores the image data output from the A / D conversion unit 105 but also is used as a buffer memory when the image processing unit 107 performs image processing. Alternatively, it is also used as a display memory when an image at the time of photographing or a photographed image stored in the memory card 112 a connected to the memory card IF 112 is read and displayed on the display unit 110.

画像処理部107は、画像バッファ106に取り込まれた画像データに対して、ホワイトバランス処理,色補間処理,ガンマ補正処理,彩度強調処理,輪郭輪郭強調処理などの画像処理を行う。また、画像処理部107は、画像処理後の画像データに対してJPEG規格などに準拠した画像圧縮方法を用いて圧縮処理を行う。さらに本実施形態に係る電子カメラ101では、後に説明するように、画像処理部107は連写された複数枚の画像を合成する画像合成処理を行う。   The image processing unit 107 performs image processing such as white balance processing, color interpolation processing, gamma correction processing, saturation enhancement processing, and contour outline enhancement processing on the image data captured in the image buffer 106. Further, the image processing unit 107 performs compression processing on the image data after image processing using an image compression method compliant with the JPEG standard or the like. Furthermore, in the electronic camera 101 according to the present embodiment, as will be described later, the image processing unit 107 performs an image composition process for compositing a plurality of continuously shot images.

制御部108は、例えば内部に記憶されたプログラムに従って動作するCPUで構成される。制御部108は電子カメラ101の動作を制御し、例えば操作部111の撮影モード選択ダイヤル111aで電子カメラ101の撮影モードを設定したり、レリーズボタン111bの押下時には光学系102のレンズ制御や絞り制御を行ってメカニカルシャッタ103を開閉し、撮像素子104で被写体画像を撮像する。そして、制御部108は、撮像素子104から予め設定された解像度で画像信号を読み出し、A/D変換部105でデジタル値に変換された画像データを画像バッファ106に取り込む制御を行う。さらに、制御部108は、画像バッファ106に取り込まれた画像データに対して所定の画像処理を施すよう画像処理部107に指令し、画像処理後の画像データ(例えばJPEGデータ)に所定のファイル名やヘッダ情報を付加してメモリカードI/F112を介してメモリカード112aに保存する。或いは、画像バッファ106に取り込まれた画像データを表示部110に撮影画像として表示する。特に、本実施形態に係る電子カメラ101では、撮影モード選択ダイヤル111aで「合成撮影モード」が選択されている場合に、制御部108は、撮像素子104で予め設定された複数枚の画像を連写して画像バッファ106に取り込む。ここで、制御部108は、複数枚の画像を連写する時に予め設定された位置の画像だけ補助光源113を発光させて撮影する。そして、制御部108は、画像処理部107に指令して、取り込まれた複数枚の画像を合成する。尚、画像処理部107の画像合成処理については後で詳しく説明する。   The control unit 108 is configured by a CPU that operates according to a program stored therein, for example. The control unit 108 controls the operation of the electronic camera 101. For example, the shooting mode selection dial 111a of the operation unit 111 sets the shooting mode of the electronic camera 101, or when the release button 111b is pressed, lens control and aperture control of the optical system 102 are performed. The mechanical shutter 103 is opened and closed, and a subject image is captured by the image sensor 104. Then, the control unit 108 performs control to read out the image signal from the image sensor 104 with a preset resolution, and to import the image data converted into a digital value by the A / D conversion unit 105 into the image buffer 106. Furthermore, the control unit 108 instructs the image processing unit 107 to perform predetermined image processing on the image data captured in the image buffer 106, and adds a predetermined file name to the image data after image processing (for example, JPEG data). And header information is added and stored in the memory card 112a via the memory card I / F 112. Alternatively, the image data captured in the image buffer 106 is displayed on the display unit 110 as a captured image. In particular, in the electronic camera 101 according to the present embodiment, when the “composite shooting mode” is selected with the shooting mode selection dial 111 a, the control unit 108 connects a plurality of images set in advance with the image sensor 104. A copy is taken into the image buffer 106. Here, the control unit 108 shoots the auxiliary light source 113 to emit only the image at a preset position when continuously shooting a plurality of images. Then, the control unit 108 instructs the image processing unit 107 to synthesize a plurality of captured images. The image composition processing of the image processing unit 107 will be described in detail later.

メモリ109は、例えばフラッシュメモリなどの不揮発性の半導体メモリで構成される。電子カメラ101の撮影モードや露出情報、フォーカス情報などのパラメータが記憶される。制御部108は、これらのパラメータを参照して電子カメラ101の動作を制御する。特に本実施形態に係る電子カメラ101では、後に説明するように、「合成撮影モード」に関するパラメータがメモリ109に記憶される。尚、これらのパラメータは、操作部111を介して行われるユーザー操作に応じて適宜更新される。   The memory 109 is composed of a nonvolatile semiconductor memory such as a flash memory, for example. Parameters such as a shooting mode, exposure information, and focus information of the electronic camera 101 are stored. The control unit 108 controls the operation of the electronic camera 101 with reference to these parameters. In particular, in the electronic camera 101 according to the present embodiment, parameters relating to the “composite shooting mode” are stored in the memory 109 as described later. Note that these parameters are appropriately updated according to user operations performed via the operation unit 111.

表示部110は、液晶モニタなどで構成される。そして、制御部108によって、撮影画像や電子カメラ101の操作に必要な設定メニューなどが表示される。特に本実施形態に係る電子カメラ101では、操作部111の設定メニューボタン111cが押下された時に表示部110にメニュー画面を表示し、使用者は十字キー111dで「合成撮影モード」のパラメータ設定項目を選択して設定内容を変更することができる。   The display unit 110 includes a liquid crystal monitor or the like. Then, the control unit 108 displays a captured image, a setting menu necessary for operating the electronic camera 101, and the like. In particular, in the electronic camera 101 according to the present embodiment, when the setting menu button 111c of the operation unit 111 is pressed, a menu screen is displayed on the display unit 110, and the user sets a parameter setting item of “composite shooting mode” with the cross key 111d. You can select to change the settings.

操作部111は、撮影モード選択ダイヤル111a、レリーズボタン111b、設定メニューボタン111c、十字キー111dなどで構成される。ユーザーは、これらの操作ボタンを操作して電子カメラ101を使用する。例えば撮影モード選択ダイヤル111aでは、「オート撮影モード」、「高感度撮影モード」、「合成撮影モード」などを行う。尚、これらの操作部111の操作情報は制御部108に出力され、制御部108は操作部111から入力する操作情報に応じて電子カメラ101の動作を制御する。   The operation unit 111 includes a shooting mode selection dial 111a, a release button 111b, a setting menu button 111c, a cross key 111d, and the like. The user operates these operation buttons to use the electronic camera 101. For example, the shooting mode selection dial 111a performs “auto shooting mode”, “high sensitivity shooting mode”, “composite shooting mode”, and the like. The operation information of the operation unit 111 is output to the control unit 108, and the control unit 108 controls the operation of the electronic camera 101 according to the operation information input from the operation unit 111.

メモリカードIF112は、電子カメラ101にメモリカード112aを接続するためのインターフェースである。そして、制御部108はメモリカードIF112を介してメモリカード112aに画像データを読み書きする。特に本実施形態に係る電子カメラ101では、「合成撮影モード」で合成された画像を保存する。尚、「合成撮影モード」で合成する前の複数枚の画像をメモリカード112aに保存するように、「合成撮影モード」の設定メニュー画面で設定できるようにしてもよい。この場合は、「合成撮影モード」でレリーズボタン111bが押下された場合に、連写された複数枚の画像を合成せずにメモリカード112aに保存する。或いは、合成処理を行った画像と連写された複数枚の画像の両方をメモリカード112aに保存するようにしてもよい。さらに、連写された複数枚の画像をまとめて管理できるように、例えば連写枚数が3枚の場合は、gousei−1.jpg、gousei−2.jpg、gousei−3.jpgとして、同一名称で関連付けて末尾に撮影順序を示す番号を付加してメモリカード112aに保存する。或いは、「合成撮影モード」で連写撮影する毎にフォルダを作成し、連写された複数枚の画像を1つのフォルダにまとめて保存するようにしてもよい。または、画像ファイルのヘッダ情報として、複数枚の画像を関連付ける独自の情報を付加してもよい。さらに、この場合、補助光源113を発光して撮影された画像であるか否かの情報も付加するようにしてもよい。これにより、発光して撮影する画像の順番を固定にしておく必要がなくなり、発光して撮影する画像の順番を撮影毎に変えた場合でも、メモリカード112aから読み出した複数枚の画像から発光して撮影した画像を特定できる。   The memory card IF 112 is an interface for connecting the memory card 112 a to the electronic camera 101. Then, the control unit 108 reads and writes image data to and from the memory card 112a via the memory card IF 112. In particular, the electronic camera 101 according to the present embodiment stores an image synthesized in the “composite shooting mode”. It should be noted that a plurality of images before being combined in the “composite shooting mode” may be set on the setting menu screen of the “composite shooting mode” so as to be stored in the memory card 112a. In this case, when the release button 111b is pressed in the “composite shooting mode”, a plurality of continuously shot images are stored in the memory card 112a without being combined. Alternatively, both the composite image and a plurality of continuously shot images may be stored in the memory card 112a. Further, for example, when the number of continuous shots is 3, so that a plurality of continuously shot images can be managed collectively, it is possible to use “gousei-1. jpg, gousei-2. jpg, gousei-3. As jpg, it associates with the same name, adds a number indicating the photographing order to the end, and stores it in the memory card 112a. Alternatively, a folder may be created every time continuous shooting is performed in the “composite shooting mode”, and a plurality of continuously shot images may be stored together in one folder. Alternatively, unique information that associates a plurality of images may be added as header information of the image file. Further, in this case, information regarding whether or not the image is taken by emitting light from the auxiliary light source 113 may be added. As a result, there is no need to fix the order of images to be shot with light emission, and even when the order of images to be shot with light emission is changed for each shooting, light is emitted from a plurality of images read from the memory card 112a. Can be used to identify the image.

補助光源113は、一般的なカメラに搭載されているフラッシュに相当し、撮影時に被写体に対して閃光を発する発光素子で構成される。そして、制御部108が指令するタイミングで閃光を発する。   The auxiliary light source 113 corresponds to a flash mounted on a general camera, and is composed of a light emitting element that emits a flash to a subject during photographing. Then, a flash is emitted at a timing commanded by the control unit 108.

以上が電子カメラ101の構成および基本動作である。尚、電子カメラ101ではなく、本発明に係る単体の画像処理装置を構成する場合は、図1において、光学系102,メカニカルシャッタ103,撮像素子104、A/D変換部105および補助光源113で構成される撮像に必要なブロックを取り除いた装置に対応し、メモリカード112aから画像バッファ106に画像データを読み出す制御部108の処理が画像処理装置の画像入力部の処理に対応する。そして、制御部108(画像処理装置の制御部に相当)は、撮影済みの画像データをメモリカード112aから画像バッファ106に読み出し、画像処理部107で画像処理を行って表示部110に表示する。或いは、画像処理後の画像データを再びメモリカード112aに保存する。ここで、画像処理装置の場合は、操作部111は、レリーズボタン111bの代わりにメモリカード112aから撮影済みの画像を画像バッファ106に読み出すための再生ボタンを設け、表示部110に表示された撮影済みの画像の中から画像処理を行う画像を十字キー111dで選択する。また、撮影モード選択ダイヤル111aの代わりに画像処理内容を選択するための画像処理選択ダイヤルを設け、十字キー111dで選択された画像に対して、画像処理選択ダイヤルで選択された画像処理を行う。例えば、画像処理選択ダイヤルで「合成処理モード」を選択すると、十字キー111dで選択された画像に対応する連写撮影された複数枚の画像データをメモリカード112aから画像バッファ106に読み出す。そして、画像バッファ106に読み出された連写された複数枚の画像データを画像処理部107で合成する処理は、電子カメラ101の場合と同じである。このように、電子カメラ101の「合成撮影モード」で撮影された複数枚の画像が記憶されたメモリカード112aから画像データを読み出して合成処理を行う専用の画像処理装置としても実現可能である。   The above is the configuration and basic operation of the electronic camera 101. When a single image processing apparatus according to the present invention is configured instead of the electronic camera 101, the optical system 102, the mechanical shutter 103, the image sensor 104, the A / D conversion unit 105, and the auxiliary light source 113 in FIG. The processing of the control unit 108 that reads out image data from the memory card 112a to the image buffer 106 corresponds to the processing of the image input unit of the image processing device. Then, the control unit 108 (corresponding to the control unit of the image processing apparatus) reads captured image data from the memory card 112a to the image buffer 106, performs image processing in the image processing unit 107, and displays the image on the display unit 110. Alternatively, the image data after image processing is stored again in the memory card 112a. Here, in the case of an image processing apparatus, the operation unit 111 is provided with a playback button for reading a captured image from the memory card 112a into the image buffer 106 in place of the release button 111b, and the imaging displayed on the display unit 110. An image on which image processing is to be performed is selected from among the completed images with the cross key 111d. Further, an image processing selection dial for selecting image processing contents is provided instead of the shooting mode selection dial 111a, and the image processing selected with the image processing selection dial is performed on the image selected with the cross key 111d. For example, when “compositing processing mode” is selected with the image processing selection dial, a plurality of continuously shot image data corresponding to the image selected with the cross key 111 d is read from the memory card 112 a to the image buffer 106. The process of combining the plurality of continuously shot image data read out to the image buffer 106 by the image processing unit 107 is the same as in the case of the electronic camera 101. As described above, the image processing apparatus can be realized as a dedicated image processing apparatus that reads out image data from the memory card 112a in which a plurality of images photographed in the “composite photographing mode” of the electronic camera 101 is stored, and performs composition processing.

尚、画像処理装置をパソコンで実現しても構わない。この場合、制御部108はパソコンのCPUに相当し、パソコンのメモリカードIFに接続されたメモリカード112aから画像データを読み込んで表示部110の代わりにモニタに表示する。尚、画像合成プログラムがパソコンにインストールされているものとする。   Note that the image processing apparatus may be realized by a personal computer. In this case, the control unit 108 corresponds to the CPU of the personal computer, reads the image data from the memory card 112a connected to the memory card IF of the personal computer, and displays it on the monitor instead of the display unit 110. It is assumed that the image composition program is installed in the personal computer.

[合成撮影モード]
次に、本実施形態に係る電子カメラ101の「合成撮影モード」について説明する。一般に、電子カメラで撮影可能なダイナミックレンジを越える被写体を撮影する場合、明るい部分の白飛びや暗い部分の黒潰れが生じる。そこで、明るい部分を適正露光で撮影した画像と、暗い部分を適正露光で撮影した画像とを合成して、明るい部分も暗い部分もきれいに撮影された画像を作成することが行われている。
[Composite shooting mode]
Next, the “composite shooting mode” of the electronic camera 101 according to the present embodiment will be described. In general, when shooting a subject that exceeds the dynamic range that can be shot with an electronic camera, white areas in bright areas and black areas in dark areas occur. Therefore, an image in which a bright part is photographed with appropriate exposure and an image in which a dark part is photographed with appropriate exposure are combined to create an image in which both a bright part and a dark part are clearly photographed.

例えば図2において、被写体151の例に示すように、夜景を背景として人物を撮影する場合(撮影構図152)、フラッシュ有りで撮影した画像153とフラッシュ無しで撮影した画像154とを合成して、人物と背景の両方を良好な露出(適正または適正に近い露出)になるように合成した画像155を得ることができる。   For example, in FIG. 2, as shown in the example of the subject 151, when a person is photographed against a night scene (shooting composition 152), an image 153 shot with a flash and an image 154 shot without a flash are combined, It is possible to obtain an image 155 in which both the person and the background are combined so as to have good exposure (appropriate or close to appropriate exposure).

ところが、画像153と画像154とを重ね合わせる合成処理では、重ね合わせの基準となる主要被写体(人物など撮影者が最もきれいに写したい被写体)の位置合わせが必要であるが、画像153と画像154とでは主要被写体の明るさが大きく異なるため、色の比較や輪郭の比較などによる主要被写体の位置検出や同じ被写体であるか否かの判別を正確に行うことができず、重ね合わせる2つの画像の主要被写体の位置合わせが難しくなる。   However, in the composition processing for superimposing the image 153 and the image 154, it is necessary to align the main subject (the subject that the photographer wants to photograph most beautifully) as a reference for superimposition, but the image 153 and the image 154 However, since the brightness of the main subject is greatly different, it is impossible to accurately detect the position of the main subject or to determine whether or not the subject is the same by comparing the colors and the contours. It becomes difficult to align the main subject.

特に連写された複数枚(例えば5枚など)の画像を合成する場合、時間的に隣接する画像間での主要被写体の位置ずれは小さいが、1枚目の画像と5枚目の画像との間では主要被写体の位置が手振れなどの原因により大きくずれている可能性がある。このため、2つの画像の同じ画素位置の信号を加算または平均して合成する処理(単純合成と称する)を行った場合、主要被写体の位置が大きくブレて合成される可能性がある。   In particular, when a plurality of images (for example, five images) that are continuously shot are combined, the positional shift of the main subject between temporally adjacent images is small, but the first image and the fifth image There is a possibility that the position of the main subject is greatly deviated due to camera shake or the like. For this reason, when a process of adding or averaging signals at the same pixel position of two images (referred to as simple synthesis) is performed, there is a possibility that the position of the main subject is greatly blurred and synthesized.

そこで、本実施形態に係る電子カメラ101では、合成する順番や合成方法を変えることにより、連写された複数枚の画像の中に輝度が大きく異なる画像がある場合でも、主要被写体の位置ずれが少なくなるように合成することができる。   Therefore, in the electronic camera 101 according to the present embodiment, by changing the composition order and composition method, even when there are images with greatly different luminances in a plurality of continuously shot images, the main subject is misaligned. It is possible to synthesize so as to reduce it.

[画像合成方法]
次に、本実施形態に係る電子カメラ101における画像合成方法について説明する。図3は、連写された複数枚の画像例として、連写枚数が5枚の場合の撮影画像例を示してある。図3において、撮影順に、画像161は1枚目(最初)に撮影される画像、画像162は2枚目に撮影される画像、画像163は3枚目に撮影される画像、画像164は4枚目に撮影される画像、画像165は5枚目(最後)に撮影される画像である。また、画像161、画像162、画像163および画像164の4枚はフラッシュ無しで撮影した画像、画像165はフラッシュ有りで撮影した画像である。ここで、通常のフラッシュ無しの撮影では、被写体の明るさに応じて適正露出になるように絞り値やシャッタ速度が制御されるが、本実施形態に係る電子カメラ101の「合成撮影モード」では、フラッシュ無しで撮影される画像は通常撮影よりもアンダー露光(露光不足)で撮影される。
[Image composition method]
Next, an image composition method in the electronic camera 101 according to the present embodiment will be described. FIG. 3 shows an example of a photographed image when the number of continuous shots is five as an example of a plurality of continuously shot images. In FIG. 3, the image 161 is the first (first) image, the image 162 is the second image, the image 163 is the third image, and the image 164 is 4 in the order of shooting. An image captured on the first sheet, image 165, is an image captured on the fifth (last) image. In addition, four images 161, 162, 163, and 164 are images taken without a flash, and an image 165 is an image taken with a flash. Here, in normal shooting without flash, the aperture value and the shutter speed are controlled so as to obtain an appropriate exposure according to the brightness of the subject, but in the “composite shooting mode” of the electronic camera 101 according to the present embodiment. Images shot without a flash are shot with underexposure (underexposure) than normal shooting.

図3の例では、手ぶれなどにより人物(ここでの主要被写体とする)の位置が左側に少しずつずれる様子を誇張して描いてある。実際には、時間的に隣接する画像間(例えば画像161と画像162)での主要被写体のずれは殆ど目立たないが、最初に撮影される画像161と最後に撮影される画像165との間では主要被写体の位置ずれは大きくなり、単純合成を行った場合に主要被写体が大きくぶれて合成されてしまうという問題が生じる。このような場合は画像161と画像165との間で主要被写体の位置合わせを行う必要があるが、色の比較や輝度の比較などによる主要被写体の位置検出や同じ被写体であるか否かの判別を正確に行うことができないので、2つの画像の主要被写体の位置合わせは難しい。   In the example of FIG. 3, the state in which the position of the person (here, the main subject) is slightly shifted to the left side due to camera shake or the like is exaggerated. Actually, the shift of the main subject is hardly noticeable between temporally adjacent images (for example, the image 161 and the image 162), but between the first captured image 161 and the last captured image 165. The position shift of the main subject becomes large, and there is a problem that when the simple composition is performed, the main subject is greatly shaken and synthesized. In such a case, it is necessary to align the main subject between the image 161 and the image 165. However, it is possible to detect the position of the main subject by comparing the colors and the luminance, and determining whether or not they are the same subject. Therefore, it is difficult to align the main subjects of the two images.

そこで、本実施形態に係る電子カメラ101では、図3の例のように連写された複数枚の画像を合成する時の合成順序や合成方法を工夫している。先ず、主要被写体が適正露出でフラッシュ撮影された画像165を基準画像(第1基準画像)とする。次に、画像165に時間的に最も近い画像164を最初に行う合成処理(第1合成処理)の基準画像(第2基準画像)とする。   Therefore, in the electronic camera 101 according to the present embodiment, the composition order and composition method when compositing a plurality of continuously shot images as in the example of FIG. 3 are devised. First, an image 165 obtained by flash shooting the main subject with appropriate exposure is set as a reference image (first reference image). Next, an image 164 that is temporally closest to the image 165 is set as a reference image (second reference image) of the combining process (first combining process) performed first.

第1合成処理では、画像164に対して、フラッシュ撮影された画像161から画像163までの3枚の画像をそれぞれ合成する。この時、画像164の主要被写体の位置と画像161の主要被写体の位置と間に位置ずれがあるので、画像164の主要被写体の位置を基準にして画像161の主要被写体の位置が合うように画像161を左にずらして画像164に合成する。尚、合成処理方法は、位置合わせ後の同じ画素位置の信号を加算または平均する。また、カラー画像の場合は、各色毎に同様の処理を行う。   In the first compositing process, the image 164 is composed of three images 161 to 163 taken by flash. At this time, since there is a misalignment between the position of the main subject of the image 164 and the position of the main subject of the image 161, the image 161 is positioned so that the position of the main subject of the image 161 matches the position of the main subject of the image 164. 161 is shifted to the left to compose the image 164. In the synthesis processing method, signals at the same pixel position after alignment are added or averaged. In the case of a color image, the same processing is performed for each color.

次に、画像161を合成後の画像164に対して画像162を合成する。この場合も画像164の主要被写体の位置を基準にして画像161の主要被写体の位置合わせを行った後、画像162を画像164に合成する。   Next, the image 162 is combined with the image 164 after combining the image 161. Also in this case, after aligning the main subject of the image 161 with reference to the position of the main subject of the image 164, the image 162 is combined with the image 164.

同様に、画像161と画像162を合成後の画像164に対して画像163を合成する。この場合も画像164の主要被写体の位置を基準にして画像163の主要被写体の位置合わせを行った後、画像163を画像164に合成する。   Similarly, the image 163 is combined with the image 164 after combining the image 161 and the image 162. Also in this case, after aligning the main subject of the image 163 with reference to the position of the main subject of the image 164, the image 163 is combined with the image 164.

このようにして、画像164の主要被写体の位置を基準にして、画像161から画像163の3つの画像をそれぞれ合成することができる。尚、画像161から画像164までの4枚の画像は、何れもフラッシュ無しで撮影された画像なので、主要被写体の露出条件が類似しており、色の比較や輝度の比較などによる主要被写体の位置検出が行い易く、同じ被写体であるか否かの判別を正確に行うことができる。   In this manner, the three images 161 to 163 can be combined with the position of the main subject in the image 164 as a reference. Note that the four images from image 161 to image 164 are all images taken without a flash, so the exposure conditions of the main subject are similar, and the position of the main subject by color comparison, luminance comparison, etc. It is easy to detect, and it is possible to accurately determine whether or not they are the same subject.

次に、画像161から画像163までの3つの画像が合成された後の画像164と、主要被写体が適正露出で撮影されているフラッシュ撮影された画像165とを合成する処理(第2合成処理)を行う。   Next, a process of combining the image 164 after the three images 161 to 163 are combined with the flash-captured image 165 in which the main subject is captured with appropriate exposure (second combining process). I do.

第2合成処理では、画像161から画像163までの3つの画像が合成された後の画像164と画像165とを主要被写体の位置合わせを行わずに同じ画素位置の信号を加算または平均するだけの単純合成を行う。この場合、先に説明したように、画像164と画像165とは時間的に連続しているので位置ずれは少ない。また、画像161から画像164までの4つの画像はフラッシュ無しで且つアンダー露光で撮影されているので主要被写体が暗く、合成後の画像における主要被写体の僅かな位置ずれは殆ど目立たない。尚、補助光源113を発光して撮影された画像と、補助光源113を非発光で撮影された画像に撮影されている主要被写体の位置合わせして合成する処理は、色調や輝度などの特徴量が異なるので処理が難しく、実現しようとすると複雑な演算処理や高価な処理装置が必要となる。これに対して、本実施形態のように、発光して撮影された画像に対して時間的に隣接する位置ずれの少ない非発光画像を第2基準画像として残りの非発光画像を合成した後で、発光画像に単純合成することにより、安価で位置ずれの目立たない合成画像を生成することができる。尚、明るさが類似している画像(非発光画像)間での主要被写体の検出や位置合わせを行う処理は、明るさが大きく異なる画像間での位置合わせ処理に比べれば処理負荷が低減され、性能の劣る安価なCPUでも比較的簡単に行うことができる。   In the second combining process, the signals at the same pixel position are simply added or averaged without aligning the main subject between the image 164 and the image 165 after the three images 161 to 163 are combined. Perform simple synthesis. In this case, as described above, since the image 164 and the image 165 are temporally continuous, the positional deviation is small. Further, the four images from image 161 to image 164 are taken with no flash and underexposure, so the main subject is dark, and the slight displacement of the main subject in the combined image is hardly noticeable. Note that the processing for aligning and synthesizing the image of the auxiliary light source 113 and the main subject that is captured with the image of the auxiliary light source 113 that has not been light-emitted is a feature amount such as color tone or luminance. However, the processing is difficult, and if it is to be realized, complicated arithmetic processing and an expensive processing device are required. On the other hand, after the remaining non-light-emitting images are synthesized with a non-light-emitting image that is temporally adjacent to the image captured with light emission and having a small positional deviation as a second reference image, as in the present embodiment. By simply synthesizing the luminescent image, it is possible to generate a synthesized image that is inexpensive and inconspicuous in positional deviation. It should be noted that the processing for detecting and aligning the main subject between images with similar brightness (non-light-emitting images) reduces the processing load compared to the alignment processing between images with significantly different brightness. Even an inexpensive CPU with inferior performance can be performed relatively easily.

このようにして、画像161から画像165までの5つの画像を合成した画像166を得ることができる。尚、合成後の画像166は、手ぶれなどの影響により画角がずれているので合成後の画像に違和感が生じる場合がある。そこで、合成後の処理として、画像161から画像165までの画角の重複する部分を切り取るトリミング処理を行い、トリミング後の画像167を最終画像としてメモリカード112aに保存するようにしてもよい。   In this way, an image 166 obtained by synthesizing five images 161 to 165 can be obtained. In addition, since the angle of view of the image 166 after synthesis is shifted due to the influence of camera shake or the like, there may be a feeling of strangeness in the image after synthesis. Therefore, as a post-combination process, a trimming process may be performed to cut out overlapping portions of the angle of view from the image 161 to the image 165, and the trimmed image 167 may be stored in the memory card 112a as a final image.

尚、「合成撮影モード」では、フラッシュ無し画像をアンダー露光で撮影する。この場合、「合成撮影モード」のパラメータとしてアンダー露光の数値をメモリ109に予め設定しておく。ここで、アンダー露光の数値は、適正露光の絞り値やシャッタ速度に対する調整段数で、例えば適正露光の絞り値から1段絞ったり、シャッタ速度を1段速くしてアンダー露光にする。或いは、フラッシュ無しで撮影される画像の枚数に応じてアンダー露光の数値を自動的に設定するようにしてもよい。例えば、フラッシュ無し撮影画像の枚数が4枚の場合、加算後の画像の明るさは4倍になるので、適正露光の絞り値から2段絞ったり、シャッタ速度を2段速くする。これにより、4枚のフラッシュ無し撮影画像を合成した後の画像が適正露光に近い明るさになる。さらに、ノイズは合成処理によって平均化されるのでノイズ除去の効果も得られる。また、フラッシュ無しで画像を撮影する時のシャッタ速度を速くできるので、手振れを防ぐことができる。これにより、主要被写体の検出や位置合わせなども容易になり、合成後の画質も向上する。   In the “composite shooting mode”, an image without flash is shot with underexposure. In this case, a numerical value of underexposure is set in advance in the memory 109 as a parameter of “composite shooting mode”. Here, the numerical value for underexposure is the number of adjustment steps for the aperture value and shutter speed for proper exposure. For example, the underexposure is performed by reducing the aperture value by 1 step from the aperture value for proper exposure or by increasing the shutter speed by 1 step. Alternatively, the underexposure value may be automatically set according to the number of images shot without a flash. For example, when the number of captured images without flash is four, the brightness of the image after addition is quadrupled, so that the aperture value for proper exposure is reduced by two steps, or the shutter speed is increased by two steps. As a result, the image after the four non-flash photographed images are combined has a brightness close to proper exposure. Furthermore, since noise is averaged by the synthesis process, an effect of noise removal can be obtained. In addition, since the shutter speed when shooting an image without a flash can be increased, camera shake can be prevented. This facilitates the detection and alignment of the main subject and improves the image quality after synthesis.

このように、本実施形態に係る電子カメラ101は、アンダー露光で撮影した複数枚のフラッシュ無し画像を合成することでノイズの少ない背景画像(夜景など)を得ることができる(第1合成処理)。さらに、このフラッシュ無し撮影画像の合成画像(第1合成画像)に、主要被写体が適正露光で撮影されたフラッシュ撮影画像を合成することにより(第2合成処理)、主要被写体と夜景の両方がきれいに撮影された合成画像(第2合成画像)を得ることができる。   As described above, the electronic camera 101 according to the present embodiment can obtain a background image (such as a night view) with less noise by synthesizing a plurality of non-flash images taken by underexposure (first synthesis process). . Furthermore, by synthesizing a flash photographed image in which the main subject is photographed at an appropriate exposure with the composite image (first composite image) of the photographed image without flash (second composition processing), both the main subject and the night view are clean. A photographed composite image (second composite image) can be obtained.

[画像処理部107の構成例]
次に、画像処理部107の構成例について図4を用いて説明する。尚、図4において、図1と同符号のものは同じものを示す。図4において、画像処理部107は、基準画像選択部201と、合成部202とを有する。さらに、合成部202は、合成順序決定部251と、第1合成部252と、第2合成部253とで構成される。また、制御部108は、操作部111で「合成撮影モード」が選択された場合に、合成画像を生成する処理を実行する合成画像撮影制御部301を有する。
[Configuration Example of Image Processing Unit 107]
Next, a configuration example of the image processing unit 107 will be described with reference to FIG. In FIG. 4, the same reference numerals as those in FIG. In FIG. 4, the image processing unit 107 includes a reference image selection unit 201 and a synthesis unit 202. Furthermore, the synthesis unit 202 includes a synthesis order determination unit 251, a first synthesis unit 252, and a second synthesis unit 253. Further, the control unit 108 includes a composite image capturing control unit 301 that executes a process of generating a composite image when the “composite capturing mode” is selected by the operation unit 111.

先ず撮影者は、操作部111の撮影モード選択ダイヤル111aで「合成撮影モード」を選択する。そして、撮影者がレリーズボタン111bを押下すると、制御部108の合成画像撮影制御部301は、メモリ109に予め記憶された「合成撮影モード」のパラメータを参照して撮影を開始する。ここで、メモリ109に記憶された「合成撮影モード」のパラメータは、連写枚数:5枚、フラッシュ撮影位置:5枚目とする。また、アンダー露光の数値も「合成撮影モード」のパラメータとする場合は、例えばシャッタ速度を2段上げたアンダー露光に設定されているものとする。   First, the photographer selects “composite shooting mode” with the shooting mode selection dial 111 a of the operation unit 111. When the photographer presses the release button 111 b, the composite image capturing control unit 301 of the control unit 108 starts capturing with reference to the “composite capturing mode” parameter stored in advance in the memory 109. Here, the “composite shooting mode” parameters stored in the memory 109 are the number of continuous shots: 5 and the flash shooting position: 5th. When the numerical value of underexposure is also set as a parameter of “composite shooting mode”, for example, it is assumed that the underexposure with the shutter speed increased by two steps is set.

そして、レリーズボタン111bの押下により、合成画像撮影制御部301は、撮像部104に指令して連写を開始する。ここでは、時間的に連続する4枚の画像を画像バッファ106に取り込んだ後、補助光源113を発光させて最後の5枚目の画像を撮影して画像バッファ106に取り込む。尚、この段階で、画像バッファ106に取り込まれた5枚の撮影画像をメモリカード112aに保存するようにしてもよい。   When the release button 111b is pressed, the composite image capturing control unit 301 instructs the image capturing unit 104 to start continuous shooting. Here, after four images that are temporally continuous are captured in the image buffer 106, the auxiliary light source 113 is caused to emit light, and the final fifth image is captured and captured in the image buffer 106. At this stage, the five captured images captured in the image buffer 106 may be stored in the memory card 112a.

次に、合成画像撮影制御部301は、画像処理部107に指令して、画像バッファ106に取り込まれた5枚の撮影画像を合成する処理を画像処理部107に指令する。画像処理部107の基準画像選択部201は、画像バッファ106に取り込まれた5枚の撮影画像の中からフラッシュ撮影された画像(第1基準画像)に時間的に最も近いフラッシュ撮影無しの画像を第2基準画像として選択する。尚、フラッシュ撮影された画像がどの画像であるかはメモリ109に記憶されている「合成撮影モード」のパラメータを参照することにより知ることができる。或いは、メモリカード112aに記憶された「合成撮影モード」で撮影済みの複数枚の画像を読み出して処理する場合は、複数枚の画像の中から平均輝度レベルが相対的に大きく異なる画像(或いは相対的に最も平均輝度レベルが大きい画像)をフラッシュ撮影された画像であると判断するようにしてもよい。   Next, the composite image capturing control unit 301 instructs the image processing unit 107 to instruct the image processing unit 107 to synthesize the five captured images captured in the image buffer 106. The reference image selection unit 201 of the image processing unit 107 selects an image without flash photography that is temporally closest to the image (first reference image) that has been photographed with flash from among the five photographed images captured in the image buffer 106. Select as the second reference image. Note that it is possible to know which image the flash photographed image is by referring to the “composite photographing mode” parameter stored in the memory 109. Alternatively, when a plurality of images that have been shot in the “composite shooting mode” stored in the memory card 112a are read out and processed, an image with a relatively large average luminance level (or relative) is selected from the plurality of images. In other words, it may be determined that the image having the highest average luminance level) is the image captured by flash.

合成部202の合成順序決定部251は、基準画像選択部201で第2基準画像が選択されると、図3で説明したように、連写された複数枚の画像を合成する順序を決定する。合成順序決定部251は、先ず第2基準画像を除く複数枚のフラッシュ無しの画像を第2基準画像に合成する処理において、例えば複数枚のフラッシュ無しの画像を時系列順、逆時系列順、或いはランダムのいずれかに決定する。尚、時系列順、逆時系列順、或いはランダム順に合成するかは、予め決められているものとする。或いは、「合成撮影モード」のパラメータとしてメモリ109に記憶し、設定メニューで変更できるようにしてもよい。   When the second reference image is selected by the reference image selecting unit 201, the combining order determining unit 251 of the combining unit 202 determines the order of combining a plurality of continuously shot images as described with reference to FIG. . First, in the process of combining a plurality of non-flash images excluding the second reference image with the second reference image, the combining order determination unit 251 first, for example, combines a plurality of non-flash images in time series order, reverse time series order, Alternatively, it is determined to be random. It is assumed that whether to combine in time series order, reverse time series order, or random order is determined in advance. Alternatively, it may be stored in the memory 109 as a “composite shooting mode” parameter and can be changed in the setting menu.

図3の例では、5枚目の画像165が第1基準画像、4枚目の画像164が第2基準画像なので、合成順序決定部251は画像161から画像163の3枚の画像を画像164に合成する順序を決定する。例えば合成順序が時系列順の場合は、先ず画像164を基準として画像161を合成し、次に合成後の画像164を基準として画像162を合成し、この合成後の画像164を基準として画像163を合成するよう第1合成部252に出力する。尚、逆時系列順の場合は、先ず画像164を基準として画像163を合成し、次に合成後の画像164を基準として画像162を合成し、この合成後の画像164を基準として画像161を合成するよう第1合成部252に出力する。或いは、ランダム順の場合は、例えば、先ず画像164を基準として画像162を合成し、次に合成後の画像164を基準として画像161を合成し、この合成後の画像164を基準として画像163を合成するよう第1合成部252に出力する。   In the example of FIG. 3, since the fifth image 165 is the first reference image and the fourth image 164 is the second reference image, the synthesis order determination unit 251 selects the three images 161 to 163 as the image 164. Determine the order of synthesis. For example, when the composition order is time-series order, the image 161 is first synthesized with the image 164 as a reference, and then the image 162 is synthesized with the synthesized image 164 as a reference, and the image 163 with the synthesized image 164 as a reference. Is output to the first combining unit 252 so as to be combined. In the case of reverse time series order, the image 163 is first synthesized with the image 164 as a reference, then the image 162 is synthesized with the synthesized image 164 as a reference, and the image 161 is taken with the synthesized image 164 as a reference. The result is output to the first combining unit 252 so as to be combined. Alternatively, in the case of random order, for example, first, the image 162 is synthesized with the image 164 as a reference, then the image 161 is synthesized with the synthesized image 164 as a reference, and the image 163 is synthesized with the synthesized image 164 as a reference. The result is output to the first combining unit 252 so as to be combined.

第1合成部252は、第2基準画像に対して第2基準画像を除くフラッシュ無し撮影画像を合成する処理を行う(第1合成処理)。第1合成処理では、合成する2枚の画像から予め設定された主要被写体をそれぞれ検出して、両方の画像の主要被写体の位置合わせを行う。ここで、連写された画像の中で時間的に隣接する2枚の画像間における主要被写体の位置ずれは連写間隔が短ければ殆ど無視できるが、時間的に離れて撮影された画像間での主要被写体の位置ずれは合成する際に無視できない。例えば図3の例において、画像164と画像163、或いは画像164と画像165との間の主要被写体の位置ずれは殆ど無視できるが、画像164と画像161との間の主要被写体の位置ずれは大きくなり、合成時に問題となる。そこで、第1合成部252は、合成時に主要被写体の検出および検出した主要被写体の位置ずれ検出を行い、合成する2つの画像の主要被写体の位置ずれを合わせる処理を行ってから合成を行う。この様子を図5に示す。尚、ここでは主要被写体を人物とする。また、主要被写体の検出方法については、既に顔検出機能が付いた電子カメラで実現されている周知の技術なので詳しい説明は省略するが、人物の場合は顔の輪郭や目、鼻、口の配置などの予め設定された特徴量を用いて検出することができる。また、フラッシュ無しで撮影された画像間では、被写体の色調や輝度などが類似しているので主要被写体が同じ被写体であるか否かや主要被写体位置などについても画像間のばらつきが少なく、確実に検出することができる。尚、先に説明したように、フラッシュ撮影された画像165とフラッシュ無しで撮影された画像164との間で検出された主要被写体は、色調や輝度が大きく異なるので、同じ主要被写体であるか否かや主要被写体の位置検出を正確に行うことは難しい。   The first synthesizing unit 252 performs a process of synthesizing the non-flash photographed image excluding the second reference image with the second reference image (first synthesis process). In the first combining process, a preset main subject is detected from each of the two images to be combined, and the positions of the main subjects of both images are adjusted. Here, the position shift of the main subject between two images that are temporally adjacent in a continuously shot image can be almost ignored if the continuous shooting interval is short, but between images that are taken apart in time. The position shift of the main subject cannot be ignored when combining. For example, in the example of FIG. 3, the displacement of the main subject between the image 164 and the image 163 or between the image 164 and the image 165 can be almost ignored, but the displacement of the main subject between the image 164 and the image 161 is large. It becomes a problem at the time of synthesis. Therefore, the first combining unit 252 detects the main subject at the time of combining and detects the position shift of the detected main subject, and performs the processing after matching the position shift of the main subject between the two images to be combined. This is shown in FIG. Here, the main subject is a person. The main subject detection method is a well-known technology already implemented by an electronic camera with a face detection function, so detailed explanations are omitted, but in the case of a person, the outline of the face, the arrangement of eyes, nose and mouth It is possible to detect using a preset feature amount. Also, between images taken without flash, the subject's color tone, brightness, etc. are similar, so there is little variation between images in terms of whether the main subject is the same subject or the location of the main subject. Can be detected. As described above, the main subjects detected between the image 165 captured with the flash and the image 164 captured without the flash differ greatly in color tone and brightness, so whether or not they are the same main subject. However, it is difficult to accurately detect the position of the main subject.

図5は、図3に示した画像161と画像164とを合成する時の主要被写体の位置合わせを行う様子を示した図である。図5において、画像161で検出された主要被写体171を画像164で検出された主要被写体174の位置に合わせる処理を行う。この場合、先ず画像161の主要被写体171の中心部分(図5の例では人物の顔の中心にある鼻の位置)の画素座標と、画像164の主要被写体174の中心部分(同様に鼻の位置)の画素座標との位置ズレ量dを求める。そして、画像161を位置ズレ量dだけずらした位置で第2基準画像の画像164に単純合成する。これにより、画像161の主要被写体171と画像164の主要被写体174の水平方向の中心軸180を合わせることができる。尚、図5の例では水平方向に位置ズレした場合の例を示してあるが、垂直方法に位置ズレした場合でも同様に、画像161の垂直方向の中心軸181と画像164の垂直方向の中心軸184との位置ズレ量を求め、画像161を垂直方向にずらして画像164に合成する。さらに水平方向と垂直方向の両方に位置ズレがある場合でも、上記の2つの位置合わせを組み合わせて合成することができる。   FIG. 5 is a diagram showing how the main subject is aligned when the image 161 and the image 164 shown in FIG. 3 are combined. In FIG. 5, a process of matching the main subject 171 detected in the image 161 with the position of the main subject 174 detected in the image 164 is performed. In this case, first, the pixel coordinates of the central portion of the main subject 171 of the image 161 (the nose position at the center of the human face in the example of FIG. 5) and the central portion of the main subject 174 of the image 164 (similarly, the position of the nose) ) To obtain the positional deviation amount d from the pixel coordinates. Then, the image 161 is simply combined with the image 164 of the second reference image at a position shifted by the positional shift amount d. Thereby, the horizontal central axis 180 of the main subject 171 of the image 161 and the main subject 174 of the image 164 can be matched. In the example of FIG. 5, an example in which the position is shifted in the horizontal direction is shown. However, even when the position is shifted in the vertical direction, the center axis 181 in the vertical direction of the image 161 and the center in the vertical direction of the image 164 are the same. A positional deviation amount with respect to the axis 184 is obtained, and the image 161 is shifted in the vertical direction and synthesized with the image 164. Further, even when there is a positional shift in both the horizontal direction and the vertical direction, the above two alignments can be combined and combined.

ここで、上記の例では画像164に画像161を合成する場合について説明したが、画像162や画像163を画像164に合成する処理も同様に行うことができる。   Here, although the case where the image 161 is combined with the image 164 has been described in the above example, the process of combining the image 162 and the image 163 with the image 164 can be performed in the same manner.

このようにして、第1合成部252は、第2基準画像である画像164の主要被写体の位置を基準にして、第2基準画像を除くフラッシュ無しで撮影した画像(画像161から画像163の3つの画像)を合成することができる(第1合成処理)。   In this way, the first synthesizing unit 252 uses the position of the main subject of the image 164 as the second reference image as a reference, and images taken without the flash excluding the second reference image (images 161 to 163 3). Two images) can be combined (first combining process).

尚、画像161から画像164までの4枚の画像は、何れもフラッシュ無しで撮影された画像なので、主要被写体の露出条件が類似しており、色の比較や輝度の比較などによる主要被写体の位置検出や同じ被写体であるか否かの判別を正確に行うことができる。   Note that the four images from image 161 to image 164 are all images taken without a flash, so the exposure conditions of the main subject are similar, and the position of the main subject by color comparison, luminance comparison, etc. It is possible to accurately detect and determine whether or not the subject is the same.

次に、第2合成部253は、第1合成処理で合成された画像に第1基準画像を合成する処理を行う(第2合成処理)。第2合成処理では、位置合わせを行わずに2つの画像の同じ画素位置の信号を単純合成する。   Next, the second synthesis unit 253 performs a process of synthesizing the first reference image with the image synthesized by the first synthesis process (second synthesis process). In the second combining process, signals at the same pixel position in two images are simply combined without performing alignment.

図6は、図3に示した画像165と第1合成部252で第1合成処理後の画像164とを合成する時の様子を示した図である。図6の例では、画像165と第1合成処理後の画像164’とを同じ画素位置でそのまま単純合成する。   FIG. 6 is a diagram illustrating a state when the image 165 illustrated in FIG. 3 and the image 164 after the first combining process are combined by the first combining unit 252. In the example of FIG. 6, the image 165 and the first combined image 164 'are simply combined as they are at the same pixel position.

ここで、第1基準画像(画像165)と第2基準画像(画像164)は時間的に連続する画像なので連写間隔が短い場合は殆ど位置ズレは無いと見なせるので、先に説明したような単純合成でも合成後の主要被写体の位置ズレは殆ど目立たない。   Here, since the first reference image (image 165) and the second reference image (image 164) are temporally continuous images, it can be considered that there is almost no positional deviation when the continuous shooting interval is short. Even in simple composition, the positional deviation of the main subject after composition is hardly noticeable.

このようにして、第2合成部253は、フラッシュ撮影された第1基準画像の画像165と、フラッシュ無しの複数の画像を第2基準画像に合成後の画像164’とを合成する第2合成処理を行うことができる。これにより、主要被写体と夜景の両方がきれいに撮影された合成画像(第2合成画像)を得ることができる。   In this way, the second combining unit 253 combines the image 165 of the first reference image taken with flash and the image 164 ′ after combining the plurality of images without flash with the second reference image. Processing can be performed. As a result, it is possible to obtain a composite image (second composite image) in which both the main subject and the night view are beautifully photographed.

次に、「合成撮影モード」で画像を撮影する時の処理および撮影された画像を合成する時の処理についてそれぞれ説明する。   Next, a process for capturing an image in the “composite shooting mode” and a process for combining captured images will be described.

図7は、「合成撮影モード」で画像を撮影する時の処理を示したフローチャートである。尚、図7の処理は、制御部108の合成画像撮影制御部301が行う。   FIG. 7 is a flowchart illustrating processing when an image is captured in the “composite shooting mode”. 7 is performed by the composite image capturing control unit 301 of the control unit 108.

(ステップS101)撮影者は、撮影を開始する前に、操作部111の撮影モード選択ダイヤル111aで「合成撮影モード」を選択する。   (Step S101) The photographer selects “composite shooting mode” with the shooting mode selection dial 111a of the operation unit 111 before starting shooting.

(ステップS102)合成画像撮影制御部301は、撮影者が操作部111のレリーズボタン111bを押下したか否かを判別し、レリーズボタン111bが押下されると次のステップに進む。尚、この時点で、合成画像撮影制御部301は、連写中に次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1(1枚目)に設定する。また、カウンタは、制御部108で実行される画像処理プログラムのソフト的な変数である。   (Step S102) The composite image capturing control unit 301 determines whether or not the photographer has pressed the release button 111b of the operation unit 111, and proceeds to the next step when the release button 111b is pressed. At this time, the composite image capturing control unit 301 sets the count value of the counter indicating the number of the next image to be captured during continuous shooting to 1 (first image). The counter is a software variable of an image processing program executed by the control unit 108.

(ステップS103)合成画像撮影制御部301は、メモリ109に記憶されている「合成撮影モード」のパラメータを参照して、カウンタのカウント値がフラッシュ撮影する画像位置(ここでの例では5枚目)であるか否かを判別する。そして、フラッシュ撮影する画像位置である場合はステップS104に進み、フラッシュ撮影する画像位置ではない場合はステップS105に進む。   (Step S103) The composite image capturing control unit 301 refers to the “composite capturing mode” parameter stored in the memory 109, and the count value of the counter indicates the image position for flash capturing (in this example, the fifth image) ). If it is an image position for flash photography, the process proceeds to step S104. If it is not an image position for flash photography, the process proceeds to step S105.

(ステップS104)合成画像撮影制御部301は、光学系102の絞り値およびメカニカルシャッタ103のシャッタ速度を制御して補助光源113を発光させ、撮像素子104で撮像した画像をA/D変換部105を介して画像バッファ106に取り込む(フラッシュ有り撮影)。そして、合成画像撮影制御部301は、次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1つ増やす。尚、このフラッシュ撮影では、適正露出になるように制御される。   (Step S <b> 104) The composite image shooting control unit 301 controls the aperture value of the optical system 102 and the shutter speed of the mechanical shutter 103 to cause the auxiliary light source 113 to emit light, and the image captured by the image sensor 104 is A / D conversion unit 105. To the image buffer 106 (shooting with flash). Then, the composite image capturing control unit 301 increments the count value of the counter that indicates how many images are to be captured next. In this flash photography, the exposure is controlled so as to achieve an appropriate exposure.

(ステップS105)合成画像撮影制御部301は、光学系102の絞り値およびメカニカルシャッタ103のシャッタ速度を制御して、撮像素子104で撮像した画像をA/D変換部105を介して画像バッファ106に取り込む(フラッシュ無し撮影)。そして、合成画像撮影制御部301は、次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1つ増やす。尚、この撮影では、合成画像撮影制御部301は、メモリ109に記憶されている「合成撮影モード」のパラメータを参照して、アンダー露光の数値だけ適正露出よりも下げて撮影する。また、フラッシュ無し撮影での適正露出は、レリーズボタン111b押下時の測光値(例えば撮像素子104の出力から測光)により求められているものとする。   (Step S <b> 105) The composite image capturing control unit 301 controls the aperture value of the optical system 102 and the shutter speed of the mechanical shutter 103, and images captured by the image sensor 104 via the A / D conversion unit 105. (Shooting without flash). Then, the composite image capturing control unit 301 increments the count value of the counter that indicates how many images are to be captured next. In this photographing, the composite image photographing control unit 301 refers to the “composite photographing mode” parameter stored in the memory 109 and photographs the underexposure value lower than the appropriate exposure. In addition, it is assumed that the proper exposure in shooting without flash is obtained from a photometric value when the release button 111b is pressed (for example, photometry from the output of the image sensor 104).

(ステップS106)合成画像撮影制御部301は、カウンタのカウント値が示す撮影済の画像枚数(カウント値は次の撮影画像の枚数なので撮影済みの枚数より1枚多くなっているため1つ減らした枚数とする)がメモリ109に記憶されている「合成撮影モード」の連写枚数に一致するか否かを判別する。そして、連写枚数の撮影が終了している場合は「合成撮影モード」を終了し、連写枚数の撮影が終了していない場合はステップS103に戻って同様の撮影処理を繰り返す。例えば、「合成撮影モード」のパラメータの連写枚数が5枚で、次に撮影する画像が何枚目であるかを示すカウンタのカウント値が6(枚目)である場合は撮影を終了し、カウント値が5枚目以下である場合はステップS103に戻る。   (Step S106) The composite image capturing control unit 301 reduces the number of captured images indicated by the count value of the counter (the count value is the number of the next captured image, which is one more than the number of captured images, so it is reduced by one). It is determined whether or not (the number of images) matches the number of consecutive shots in the “composite shooting mode” stored in the memory 109. If the continuous shooting has been completed, the “composite shooting mode” is ended. If the continuous shooting has not been completed, the process returns to step S103 to repeat the same shooting process. For example, if the continuous shooting number of the “composite shooting mode” parameter is 5 and the count value of the counter indicating the number of the next image to be shot is 6 (the number), the shooting is ended. If the count value is less than or equal to the fifth sheet, the process returns to step S103.

このようにして、「合成撮影モード」が撮影モード選択ダイヤル111aで選択されている場合にレリーズボタン111bが押下されると、メモリ109に記憶されている「合成撮影モード」のパラメータに従って、所定の画像位置でフラッシュ撮影が行って連写された所定枚数の画像が画像バッファ106に取り込まれる。   In this way, when the “composite shooting mode” is selected with the shooting mode selection dial 111 a, when the release button 111 b is pressed, a predetermined composite mode is stored according to the “composite shooting mode” parameter stored in the memory 109. A predetermined number of images taken continuously by flash photography at the image position are taken into the image buffer 106.

(ステップS107)合成画像撮影制御部301は、ステップS106で画像バッファ106に取り込まれた連写画像をメモリカードIF112を介してメモリカード112aに保存する。或いは、表示部110に合成画像を表示する。   (Step S107) The composite image capturing control unit 301 stores the continuous shot image captured in the image buffer 106 in Step S106 in the memory card 112a via the memory card IF 112. Alternatively, the composite image is displayed on the display unit 110.

尚、メモリカード112aをパソコンや専用の画像処理装置などに接続して「合成撮影モード」で撮影された複数枚の画像の合成処理をパソコンや画像処理装置で行うことができる。そして、この場合、パソコンや画像処理装置は、次に説明するような画像合成処理を実行する画像処理プログラムが搭載されている。   The memory card 112a can be connected to a personal computer, a dedicated image processing apparatus, or the like, and a personal computer or an image processing apparatus can perform composition processing of a plurality of images photographed in the “composite photographing mode”. In this case, the personal computer and the image processing apparatus are equipped with an image processing program for executing an image composition process as described below.

次に、「合成撮影モード」で連写撮影された複数枚の画像を合成する処理について、図8のフローチャートを用いて説明する。尚、図8の処理は、制御部108の合成画像撮影制御部301の指令により、画像処理部107が行う。尚、画像処理部107は、図4で説明した処理ブロックを有する。   Next, a process of combining a plurality of images continuously shot in the “composite shooting mode” will be described with reference to the flowchart of FIG. Note that the processing in FIG. 8 is performed by the image processing unit 107 in accordance with a command from the composite image capturing control unit 301 of the control unit 108. Note that the image processing unit 107 includes the processing blocks described with reference to FIG.

(ステップS201)基準画像選択部201は、画像バッファ106から「合成撮影モード」で撮影された複数枚の画像を読み出す。尚、パソコンや画像処理装置の場合は、メモリカード112aから「合成撮影モード」で撮影された複数枚の画像を読み出す。   (Step S <b> 201) The reference image selection unit 201 reads a plurality of images shot in the “composite shooting mode” from the image buffer 106. In the case of a personal computer or an image processing apparatus, a plurality of images shot in the “composite shooting mode” are read from the memory card 112a.

(ステップS202)基準画像選択部201は、ステップS201で読み出した複数枚の画像の中から基準画像を選択する。尚、基準画像選択部201が選択する基準画像は、先に説明したように、フラッシュ撮影された第1基準画像と、フラッシュ撮影無しの画像の中で第1基準画像に時間的に最も近い第2基準画像の2つである。   (Step S202) The reference image selection unit 201 selects a reference image from a plurality of images read out in step S201. As described above, the reference image selected by the reference image selection unit 201 is the first reference image that is temporally closest to the first reference image among the first reference image that has been shot with flash and the image that has not been shot with flash. Two of the two reference images.

(ステップS203)合成順序決定部251は、連写された複数枚の画像を合成する順序を決定する。尚、フラッシュ有り撮影画像は最後に合成するので、ここでの処理は、第2基準画像を除く複数枚のフラッシュ無しの画像を第2基準画像に合成する順序を決定する。合成する順序を決定する方法は、先に説明したように、例えば複数枚のフラッシュ無しの画像を時系列順、逆時系列順、或いはランダムのいずれかである。   (Step S203) The composition order determination unit 251 determines the order in which a plurality of continuously shot images are to be combined. Since the photographed image with flash is combined last, the processing here determines the order in which a plurality of images without flash excluding the second reference image are combined with the second reference image. As described above, the method for determining the composition order is, for example, a plurality of non-flash images in time series order, reverse time series order, or random.

(ステップS204)第1合成部252は、ステップS203で決定された合成順序に従って、複数枚のフラッシュ無し撮影画像を合成する。尚、合成方法は、先に説明したように、主要被写体の位置合わせを行って合成する第1合成処理を実行する。   (Step S204) The first combining unit 252 combines a plurality of non-flash photographed images according to the combining order determined in step S203. As described above, the composition method executes the first composition processing for performing composition by aligning the main subject.

(ステップS205)第2合成部253は、ステップS204で複数枚のフラッシュ無し撮影画像が合成された画像と、フラッシュ撮影された画像(第1基準画像)とを合成する。尚、合成方法は、先に説明したように、同じ位置の画素主要被写体の位置合わせを行って合成する第2合成処理を実行する。   (Step S205) The second synthesizing unit 253 synthesizes the image obtained by synthesizing the plurality of non-flash photographed images and the flash photographed image (first reference image) in Step S204. Note that, as described above, the composition method executes the second composition processing for performing composition by aligning the pixel main subjects at the same position.

(ステップS206)画像処理部107は、第2合成部253が合成後の画像を出力する。尚、合成後の画像は、次の撮影が行われるまで、一旦、画像バッファ106に保持される。そして、制御部108は、画像バッファ106に保持されている合成後の画像を表示部110に表示したり、合成後の画像の画像データに予め決められたファイル名(例えば通し番号や撮影日時など)を自動的に付加してメモリカードIF112を介してメモリカード112aに保存する。   (Step S206) The image processing unit 107 outputs the image after the second combining unit 253 combines. Note that the combined image is temporarily held in the image buffer 106 until the next shooting is performed. Then, the control unit 108 displays the combined image held in the image buffer 106 on the display unit 110, or a file name (for example, a serial number or shooting date / time) determined in advance for the image data of the combined image. Is automatically added and stored in the memory card 112a via the memory card IF 112.

このようにして、本実施形態に係る電子カメラ101は、「合成撮影モード」で連写撮影された複数枚の画像を合成することができる。特に、フラッシュ無しで撮影された画像の合成画像に、主要被写体が適正露光で撮影されたフラッシュ撮影画像を合成することにより、主要被写体と夜景の両方がきれいに撮影された合成画像を得ることができる。また、本変形例に係る電子カメラ101では、補助光源113を発光して撮影したフラッシュ有り撮影画像を基準として合成順序を決めるので、複雑な処理を行うことなく、主要被写体の位置ずれが少ない合成画像を生成することができる。さらに、本実施形態に係る電子カメラ101は、アンダー露光で撮影した複数枚のフラッシュ無し画像を合成するので、ノイズ成分が相殺されてSN比の高い背景画像(特に夜景など)を得ることができる。   In this way, the electronic camera 101 according to the present embodiment can synthesize a plurality of images that are continuously shot in the “composite shooting mode”. In particular, by synthesizing a flash image in which the main subject is captured at an appropriate exposure with a composite image of an image captured without a flash, it is possible to obtain a composite image in which both the main subject and the night scene are clearly captured. . Further, in the electronic camera 101 according to the present modification, the composition order is determined based on the flash-captured image captured by emitting the auxiliary light source 113, so that the composition of the main subject is small without performing complicated processing. An image can be generated. Furthermore, since the electronic camera 101 according to the present embodiment combines a plurality of non-flash images taken with underexposure, the noise component is canceled and a background image (particularly a night view) having a high S / N ratio can be obtained. .

(合成順序の変形例1)
次に、先に説明した実施形態の合成順序の変形例について、図9を用いて説明する。図3の例では、フラッシュ撮影する画像位置を連写の最後の画像としたが、本変形例では図9に示すように、最初の画像261をフラッシュ撮影し、残りの4枚の画像(画像262から画像265まで)をフラッシュ無し撮影する。
(Modification 1 of composition order)
Next, a modification of the composition order of the embodiment described above will be described with reference to FIG. In the example of FIG. 3, the image position for flash shooting is the last image in continuous shooting, but in this modification, the first image 261 is flash-shot as shown in FIG. 9, and the remaining four images (images) are displayed. 262 to image 265) without flash.

図9において、画像処理部107の基準画像選択部201は、画像261を第1基準画像とし、第1基準画像に時間的に最も近い画像262を第2基準画像として選択する。   In FIG. 9, the reference image selection unit 201 of the image processing unit 107 selects an image 261 as a first reference image and an image 262 that is temporally closest to the first reference image as a second reference image.

そして、合成順序決定部251は、先ず、第2基準画像を除くフラッシュ無し撮影画像を第2基準画像に合成する順序を決める。ここで、合成順序は、先に説明したように、例えば複数枚のフラッシュ無しの画像を時系列順、逆時系列順、或いはランダムのいずれかである。   Then, the composition order determination unit 251 first determines the order in which the non-flash captured image excluding the second reference image is combined with the second reference image. Here, as described above, the composition order is, for example, a plurality of non-flash images in time series order, reverse time series order, or random.

図9の例では、1枚目の画像261が第1基準画像、2枚目の画像262が第2基準画像なので、合成順序決定部251は画像263から画像265の3枚の画像を画像262に合成する順序を決定する。例えば合成順序が時系列順の場合は、先ず画像262を基準として画像263を合成し、次に合成後の画像262を基準として画像264を合成し、この合成後の画像262を基準として画像265を合成するよう順序を決定して、第1合成部251に出力する。尚、フラッシュ有り撮影画像261の合成順序は、フラッシュ撮影される画像位置に依らず最後に合成される。   In the example of FIG. 9, the first image 261 is the first reference image, and the second image 262 is the second reference image. Therefore, the composition order determination unit 251 converts the three images 263 to 265 into the image 262. Determine the order of synthesis. For example, when the composition order is time-series order, first, the image 263 is synthesized with the image 262 as a reference, then the image 264 is synthesized with the synthesized image 262 as a reference, and the image 265 with the synthesized image 262 as a reference. Are determined to be combined and output to the first combining unit 251. Note that the order of combining the photographed images 261 with flash is combined last regardless of the position of the image captured with flash.

第1合成部252は、合成順序決定部251が決定した合成順序に従って第2基準画像を除くフラッシュ無し撮影された複数枚の画像を第2基準画像に合成する。尚、合成する2枚の画像の主要被写体の位置合わせを行って合成する。   The first synthesizing unit 252 synthesizes a plurality of images taken without a flash, excluding the second reference image, according to the synthesis order determined by the synthesis order determining unit 251 with the second reference image. Note that the main subject of the two images to be combined is aligned and combined.

そして、第2合成部253は、第1合成部252が合成後の画像にフラッシュ撮影された画像261を単純合成する。   Then, the second synthesis unit 253 simply synthesizes the image 261 captured by the first synthesis unit 252 with the image that has been flash captured.

このように、本変形例に係る電子カメラ101は、フラッシュ撮影する画像位置が連写の最初の画像であっても、図3の場合と同様に合成処理を行うことができ、フラッシュ無しで撮影された画像の合成画像に、主要被写体が適正露光で撮影されたフラッシュ撮影画像を合成することにより、主要被写体と夜景の両方がきれいに撮影された合成画像を得ることができる。特に、本変形例に係る電子カメラ101では、合成順序を補助光源113を発光して撮影したフラッシュ有り撮影画像を基準として合成する順序を決めるので、被写体の位置ずれが少ない合成画像を生成することができる。   As described above, the electronic camera 101 according to the present modification can perform the composition processing similarly to the case of FIG. 3 even when the image position to be captured with the flash is the first image in the continuous shooting, and can be captured without the flash. By synthesizing a flash photographed image in which the main subject is photographed at an appropriate exposure with the composite image of the obtained images, a composite image in which both the main subject and the night scene are photographed beautifully can be obtained. In particular, in the electronic camera 101 according to the present modification, the composition order is determined based on the flash-captured photographed image taken by the auxiliary light source 113, so that a composite image with little subject displacement is generated. Can do.

(合成順序の変形例2)
次に、合成順序の変形例2について、図10を用いて説明する。図3および図9の例では、フラッシュ撮影する画像位置を連写の最初または最後の画像としたが、本変形例では図10に示すように、連写途中の画像(例えば画像363)をフラッシュ撮影し、残りの前後の画像(例えば画像361、画像362、画像364および画像365)をフラッシュ無し撮影する。
(Modification 2 of composition order)
Next, modification 2 of the composition order will be described with reference to FIG. In the example of FIGS. 3 and 9, the image position to be photographed with the flash is the first or last image in the continuous shooting, but in this modification, as shown in FIG. 10, the image in the middle of continuous shooting (for example, the image 363) is flashed. The remaining images before and after (for example, image 361, image 362, image 364, and image 365) are captured without flash.

図10において、画像処理部107の基準画像選択部201は、画像363を第1基準画像とし、第1基準画像に時間的に最も近い前後の2枚の画像(図10の例では画像362と画像364)を第2基準画像として選択する。ここで、先の実施形態と異なるのは、第1基準画像の撮影時間よりも前に撮影されたフラッシュ無し撮影の画像の中から時間的に最も近い画像を選択することと、第1基準画像の撮影時間よりも後に撮影されたフラッシュ無し撮影の画像の中から時間的に最も近い画像を選択することとである。そして、第1合成部252は、第1基準画像の撮影時間より前の部分のフラッシュ無し撮影画像の合成処理と、第1基準画像の撮影時間より後の部分のフラッシュ無し撮影画像の合成処理とに分けて合成処理を行う。つまり、先の実施形態で説明した第1合成処理を2段階に分けて実行する。ここで、便宜上、第1基準画像の撮影時間より前の部分のフラッシュ無し撮影画像の合成処理を第1合成処理A、第1基準画像の撮影時間より後の部分のフラッシュ無し撮影画像の合成処理を第1合成処理Bと称する。   In FIG. 10, the reference image selection unit 201 of the image processing unit 107 sets the image 363 as the first reference image, and the two images before and after the first reference image that are temporally closest to the first reference image (the image 362 in the example of FIG. 10). Image 364) is selected as the second reference image. Here, the difference from the previous embodiment is that the closest image in time is selected from the images of the flashless images captured before the imaging time of the first reference image, and the first reference image The image closest to the time is selected from images taken without a flash taken after the shooting time. The first compositing unit 252 then combines the non-flash photographed image portion before the first reference image photographing time and the non-flash photographed image composition processing portion after the first reference image photographing time. The synthesis process is performed separately. That is, the first synthesis process described in the previous embodiment is executed in two stages. Here, for the sake of convenience, the composition processing of the non-flash photographed image in the portion before the photographing time of the first reference image is the first composition processing A, and the composition processing of the non-flash photographed image in the portion after the photographing time of the first reference image. Is referred to as a first synthesis process B.

図10において、第1合成部252は、第1合成処理Aにおける第2基準画像の画像362に画像361を合成する。この場合の合成は、画像362の主要被写体の位置に画像361の主要被写体の位置を合わせる処理を行って合成する。尚、図10の例では合成する画像が2枚しかないが、図3の例のように時間的に離れた複数枚の画像がある場合は、合成順序決定部251が合成する順序を決め、合成する画像間の主要被写体の位置合わせ後に合成する。このようにして、第1合成処理Aでは、第2基準画像362の主要被写体の位置に合うように画像361が合成された画像Aが得られる。   In FIG. 10, the first combining unit 252 combines an image 361 with the image 362 of the second reference image in the first combining process A. In this case, the composition is performed by performing processing for matching the position of the main subject of the image 361 with the position of the main subject of the image 362. In the example of FIG. 10, there are only two images to be combined. However, when there are a plurality of images separated in time as in the example of FIG. 3, the combining order determination unit 251 determines the order of combining, The images are combined after the main subject is aligned between the images to be combined. In this way, in the first synthesis process A, an image A in which the image 361 is synthesized so as to match the position of the main subject of the second reference image 362 is obtained.

同様に、第1合成部252は、第1合成処理Bにおける第2基準画像の画像364に画像365を合成する。この場合の合成は、画像364の主要被写体の位置に画像365の主要被写体の位置を合わせ後に合成する。尚、この場合も合成する画像が2枚しかないが、図3の例のように時間的に離れた複数枚の画像がある場合は、合成順序決定部251が合成する順序を決め、合成する画像間の主要被写体の位置合わせ後に合成する。このようにして、第1合成処理Bでは、第2基準画像364の主要被写体の位置に合うように画像365が合成された画像Bが得られる。   Similarly, the first combining unit 252 combines the image 365 with the image 364 of the second reference image in the first combining process B. In this case, the composition is performed after the position of the main subject in the image 365 is aligned with the position of the main subject in the image 364. In this case as well, there are only two images to be combined. However, when there are a plurality of images that are separated in time as in the example of FIG. 3, the combining order determination unit 251 determines the combining order and combines them. Composite after alignment of main subject between images. In this way, in the first combining process B, an image B in which the image 365 is combined so as to match the position of the main subject in the second reference image 364 is obtained.

そして、第2合成部253は、フラッシュ無し撮影された複数枚の画像を合成後の画像Aおよび画像Bと、フラッシュ撮影された画像363とを合成する処理を行う。この場合も、先の実施形態で説明した第2合成処理を2段階に分けて実行する。ここで、便宜上、第1基準画像に画像Aを合成する処理を第2合成処理A、第1基準画像に画像Bを合成する処理を第2合成処理Bと称する。尚、第2合成処理Aおよび第2合成処理Bの合成方法は、先に説明したように、同じ画素位置の信号を合成する単純合成である。このようにして、フラッシュ無し撮影された複数枚の画像の合成画像Aおよび画像Bと、フラッシュ撮影された画像363とを合成した画像を得ることができる。   Then, the second synthesis unit 253 performs a process of synthesizing the image A and the image B after the synthesis of a plurality of images taken without flash and the image 363 taken with flash. Also in this case, the second synthesis process described in the previous embodiment is executed in two stages. Here, for convenience, the process of combining the image A with the first reference image is referred to as a second combining process A, and the process of combining the image B with the first reference image is referred to as a second combining process B. As described above, the synthesis method of the second synthesis process A and the second synthesis process B is a simple synthesis that synthesizes signals at the same pixel position. In this way, it is possible to obtain an image obtained by combining the composite image A and the image B of a plurality of images photographed without flash and the image 363 photographed with flash.

このように、本変形例に係る電子カメラ101は、フラッシュ撮影する画像位置が連写途中の画像であっても、図3の場合と同様に合成処理を行うことができ、フラッシュ無しで撮影された画像の合成画像に、主要被写体が適正露光で撮影されたフラッシュ撮影画像を合成することにより、主要被写体と夜景の両方がきれいに撮影された合成画像を得ることができる。特に、本変形例に係る電子カメラ101では、合成順序を補助光源113を発光して撮影したフラッシュ有り撮影画像を基準として合成する順序を決めるので、被写体の位置ずれが少ない合成画像を生成することができる。   As described above, the electronic camera 101 according to the present modification can perform the composition processing similarly to the case of FIG. 3 even when the image position to be captured with the flash is an image in the middle of continuous shooting, and is captured without the flash. By synthesizing a flash photographed image in which the main subject is photographed with appropriate exposure to the composite image of the obtained images, it is possible to obtain a composite image in which both the main subject and the night scene are photographed beautifully. In particular, in the electronic camera 101 according to the present modification, the composition order is determined based on the flash-captured photographed image taken by the auxiliary light source 113, so that a composite image with little subject displacement is generated. Can do.

以上、本発明に係る画像処理装置および電子カメラ、並びに画像処理プログラムについて、各実施形態で例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   As described above, the image processing apparatus, the electronic camera, and the image processing program according to the present invention have been described by way of example in each embodiment. However, in various other forms without departing from the spirit or main features thereof. Can be implemented. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

101・・・電子カメラ;102・・・光学系;103・・・メカニカルシャッタ;104・・・撮像素子;105・・・A/D変換部;106・・・画像バッファ;107・・・画像処理部;108・・・制御部;109・・・メモリ;110・・・表示部;111・・・操作部;111a・・・撮影モード選択ダイヤル;111b・・・レリーズボタン;111c・・・設定メニューボタン;111d・・・十字キー;112・・・メモリカードIF;112a・・・メモリカード;113・・・発光部;201・・・基準画像選択部;202・・・合成部;251・・・合成順序決定部;252・・・第1合成部;253・・・第2合成部;301・・・合成画像撮影制御部 DESCRIPTION OF SYMBOLS 101 ... Electronic camera; 102 ... Optical system; 103 ... Mechanical shutter; 104 ... Image pick-up element; 105 ... A / D conversion part; 106 ... Image buffer; Processing unit; 108 ... Control unit; 109 ... Memory; 110 ... Display unit; 111 ... Operation unit; 111a ... Shooting mode selection dial; 111b ... Release button; 111d ... cross key; 112 ... memory card IF; 112a ... memory card; 113 ... light emitting unit; 201 ... reference image selection unit; 202 ... compositing unit; 251 ... Composition order determination unit; 252 ... First composition unit; 253 ... Second composition unit; 301 ... Composite image photographing control unit

Claims (7)

補助光源を発光させて撮影した画像を含む時間的に連続して撮影された複数枚の画像を入力する画像入力部と、
前記補助光源を発光させて撮影した発光撮影画像を第1基準画像、前記補助光源を発光させずに撮影した複数枚の非発光撮影画像の中で前記第1基準画像に時間的に最も近い非発光撮影画像を第2基準画像、としてそれぞれ選択する基準画像選択部と、
前記複数枚の非発光撮影画像を前記第2基準画像に合成する第1合成処理と、前記第1合成処理後の画像を前記第1基準画像に合成する第2合成処理とを行う画像合成部と
を有することを特徴とする画像処理装置。
An image input unit for inputting a plurality of images photographed continuously in time including images photographed by emitting an auxiliary light source;
A light emission photographed image taken by emitting the auxiliary light source is a first reference image, and a non-light emission photographed image taken without causing the auxiliary light source to emit light is closest in time to the first reference image. A reference image selection unit for selecting each of the light emission captured images as a second reference image;
An image combining unit that performs a first combining process for combining the plurality of non-light-emitting captured images with the second reference image and a second combining process for combining the image after the first combining process with the first reference image. And an image processing apparatus.
請求項1に記載の画像処理装置において、
前記第1合成処理は、前記複数枚の非発光撮影画像毎に予め設定された主要被写体の位置検出を行い、前記第2基準画像の前記主要被写体の位置に合うように前記非発光撮影画像の前記主要被写体の位置を調整して合成し、
前記第2合成処理は、前記第1合成処理により合成された画像に前記第1基準画像を同一画素位置で合成する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The first combining process detects a position of a main subject that is set in advance for each of the plurality of non-light-emitting captured images, and adjusts the position of the non-light-emitting captured image so as to match the position of the main subject of the second reference image. Adjust the position of the main subject and synthesize,
The image processing apparatus, wherein the second combining process combines the first reference image at the same pixel position with the image combined by the first combining process.
請求項1または2に記載の画像処理装置において、
前記複数枚の非発光撮影画像は、前記主要被写体に対してアンダー露光で撮影され、前記発光撮影画像は、前記主要被写体に対して適正露光で撮影される
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing apparatus, wherein the plurality of non-light-emitting captured images are captured with underexposure on the main subject, and the light-emitting captured images are captured with appropriate exposure with respect to the main subject.
請求項1から3のいずれか一項に記載の画像処理装置において、
前記補助光源を発光させて撮影した第1基準画像は、前記時間的に連続して撮影された画像のうち最初または最後の画像である
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The first reference image captured by emitting the auxiliary light source is the first or last image among the images captured continuously in time.
請求項1から3のいずれか一項に記載の画像処理装置において、
前記補助光源を発光させて撮影した第1基準画像は、前記時間的に連続して撮影された画像のうち最初または最後の画像以外の画像であり、
前記基準画像選択部は、前記複数枚の非発光撮影画像の中で前記第1基準画像に時間的に前後する2枚の前記非発光撮影画像をそれぞれ前側第2基準画像および後側第2基準画像として選択し、
前記画像合成部は、前記第1合成処理として、前記第1基準画像より時間的に前の前記複数枚の非発光撮影画像を前記前側第2基準画像に、前記第1基準画像より時間的に後の前記複数枚の非発光撮影画像を前記後側第2基準画像に、それぞれ合成し、
前記第2合成処理は、前記第1基準画像に対して、前記第1合成処理により合成された前記前側第2基準画像と前記後側第2基準画像とをそれぞれ同一画素位置で合成する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The first reference image captured by emitting the auxiliary light source is an image other than the first or last image among the images continuously captured in time.
The reference image selecting unit selects two non-light-emitting photographed images temporally before and after the first reference image among the plurality of non-light-emitting photographed images, respectively, as a front second reference image and a rear second reference. Select as image,
In the first combining process, the image combining unit converts the plurality of non-light-emitting captured images temporally before the first reference image into the front second reference image in terms of time from the first reference image. The plurality of non-light-emitting photograph images after are combined with the rear second reference image,
In the second combining process, the front second reference image and the rear second reference image combined by the first combining process are combined with the first reference image at the same pixel position. A featured image processing apparatus.
請求項1から5のいずれか一項に記載の画像処理装置を有する電子カメラであって、
前記画像入力部を、時間的に連続して複数枚の画像を撮影する撮像部と、前記複数枚の画像のうち予め設定した時間位置の画像を撮影する時に補助光源を発光させる発光部とで構成し、
前記画像合成部が合成後の画像を記憶媒体に記録する記録部を更に設けたことを特徴とする電子カメラ。
An electronic camera comprising the image processing device according to claim 1,
The image input unit includes: an imaging unit that captures a plurality of images continuously in time; and a light-emitting unit that emits an auxiliary light source when capturing an image at a preset time position among the plurality of images. Configure
An electronic camera, further comprising: a recording unit configured to record an image synthesized by the image synthesizing unit on a storage medium.
請求項1から5のいずれか一項に記載の画像処理装置の機能をコンピュータに実行させるための画像処理プログラム。   An image processing program for causing a computer to execute the function of the image processing apparatus according to any one of claims 1 to 5.
JP2011056413A 2011-03-15 2011-03-15 Image processing apparatus and electronic camera, and image processing program Withdrawn JP2012195660A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011056413A JP2012195660A (en) 2011-03-15 2011-03-15 Image processing apparatus and electronic camera, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011056413A JP2012195660A (en) 2011-03-15 2011-03-15 Image processing apparatus and electronic camera, and image processing program

Publications (1)

Publication Number Publication Date
JP2012195660A true JP2012195660A (en) 2012-10-11

Family

ID=47087197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011056413A Withdrawn JP2012195660A (en) 2011-03-15 2011-03-15 Image processing apparatus and electronic camera, and image processing program

Country Status (1)

Country Link
JP (1) JP2012195660A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014239396A (en) * 2013-06-10 2014-12-18 キヤノン株式会社 Imaging apparatus and control method for imaging apparatus
JP2018504071A (en) * 2014-11-06 2018-02-08 デューライト・リミテッド・ライアビリティ・カンパニーDuelight Llc Image sensor apparatus and method for simultaneously capturing flash illumination images and ambient illumination images
US10652478B2 (en) 2012-09-04 2020-05-12 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time
US10785401B2 (en) 2016-09-01 2020-09-22 Duelight Llc Systems and methods for adjusting focus based on focus target information
US10904505B2 (en) 2015-05-01 2021-01-26 Duelight Llc Systems and methods for generating a digital image
US10924688B2 (en) 2014-11-06 2021-02-16 Duelight Llc Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene
US10931897B2 (en) 2013-03-15 2021-02-23 Duelight Llc Systems and methods for a digital image sensor
US11375085B2 (en) 2016-07-01 2022-06-28 Duelight Llc Systems and methods for capturing digital images
US11455829B2 (en) 2017-10-05 2022-09-27 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
US11463630B2 (en) 2014-11-07 2022-10-04 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US12003864B2 (en) 2021-05-14 2024-06-04 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10652478B2 (en) 2012-09-04 2020-05-12 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time
US11025831B2 (en) 2012-09-04 2021-06-01 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time
US10931897B2 (en) 2013-03-15 2021-02-23 Duelight Llc Systems and methods for a digital image sensor
JP2014239396A (en) * 2013-06-10 2014-12-18 キヤノン株式会社 Imaging apparatus and control method for imaging apparatus
US11394894B2 (en) 2014-11-06 2022-07-19 Duelight Llc Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene
JP2018504071A (en) * 2014-11-06 2018-02-08 デューライト・リミテッド・ライアビリティ・カンパニーDuelight Llc Image sensor apparatus and method for simultaneously capturing flash illumination images and ambient illumination images
JP7179461B2 (en) 2014-11-06 2022-11-29 デューライト・リミテッド・ライアビリティ・カンパニー Image sensor apparatus and method for simultaneously capturing flash and ambient illumination images
US10924688B2 (en) 2014-11-06 2021-02-16 Duelight Llc Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene
JP2021119701A (en) * 2014-11-06 2021-08-12 デューライト・リミテッド・ライアビリティ・カンパニーDuelight Llc Image sensor device and method for simultaneously capturing flash illumination image and ambient illumination image
US11463630B2 (en) 2014-11-07 2022-10-04 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US10904505B2 (en) 2015-05-01 2021-01-26 Duelight Llc Systems and methods for generating a digital image
US11356647B2 (en) 2015-05-01 2022-06-07 Duelight Llc Systems and methods for generating a digital image
US11375085B2 (en) 2016-07-01 2022-06-28 Duelight Llc Systems and methods for capturing digital images
US10785401B2 (en) 2016-09-01 2020-09-22 Duelight Llc Systems and methods for adjusting focus based on focus target information
US11455829B2 (en) 2017-10-05 2022-09-27 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
US11699219B2 (en) 2017-10-05 2023-07-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
US12003853B2 (en) 2020-08-21 2024-06-04 Duelight Llc Systems and methods for adjusting focus based on focus target information
US12003864B2 (en) 2021-05-14 2024-06-04 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time

Similar Documents

Publication Publication Date Title
JP2012195660A (en) Image processing apparatus and electronic camera, and image processing program
US8462228B2 (en) Image processing method, apparatus and computer program product, and imaging apparatus, method and computer program product
TWI399977B (en) Image capture apparatus and program
KR100799214B1 (en) Image pickup apparatus and method of photographing
US8520095B2 (en) Imaging apparatus and imaging method
JP2017108309A (en) Imaging apparatus and imaging method
JP2010087664A (en) Imaging apparatus and method for controlling flash emission
JP4160205B2 (en) Electronic still camera
JP2013090095A (en) Imaging device, imaging method, and program
US8154620B2 (en) Imaging apparatus and imaging method
JP4977569B2 (en) Imaging control apparatus, imaging control method, imaging control program, and imaging apparatus
JP2013141105A (en) Image processing device, electronic camera, and image processing program
JP2008301371A (en) Imaging apparatus and image processing program
JP2002040321A (en) Electronic camera
JP3974798B2 (en) Imaging device
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP2009182832A (en) Photographing device and through image displaying method
JP2012163679A (en) Imaging device, stroboscope control method, and stroboscope control program
JP2011259245A (en) Imaging device and imaging method
JP5160655B2 (en) Image processing apparatus and method, and program
JP4475118B2 (en) Camera device, white balance bracketing shooting method
JP5191251B2 (en) Imaging device
JP2009218689A (en) Photometry apparatus and imaging apparatus
JP2008228185A (en) Imaging apparatus
JP4335648B2 (en) Digital camera and imaging method of digital camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603