JP2013141105A - Image processing device, electronic camera, and image processing program - Google Patents

Image processing device, electronic camera, and image processing program Download PDF

Info

Publication number
JP2013141105A
JP2013141105A JP2011290244A JP2011290244A JP2013141105A JP 2013141105 A JP2013141105 A JP 2013141105A JP 2011290244 A JP2011290244 A JP 2011290244A JP 2011290244 A JP2011290244 A JP 2011290244A JP 2013141105 A JP2013141105 A JP 2013141105A
Authority
JP
Japan
Prior art keywords
image
images
unit
emitting
shift amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011290244A
Other languages
Japanese (ja)
Inventor
Takeshi Shimura
岳 志村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011290244A priority Critical patent/JP2013141105A/en
Publication of JP2013141105A publication Critical patent/JP2013141105A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To correctly align a subject when overlapping images with a large difference in luminance.SOLUTION: An image processing device comprises: an image input unit that inputs a plurality of images photographed temporally successively which are composed of two types of images different in presence of light emission by an auxiliary light source, and before and after one type of an image out of the two types of images, include the other type of at least one image each, which is different in presence of light emission; a calculation unit that compares one type of a plurality of images out of the two types of images with each other to calculate a misalignment amount between the one type of the plurality of images; and an estimation unit that estimates a relative misalignment amount of the other type of the image out of the two types of images on the basis of the misalignment amount calculated by the calculation unit.

Description

本発明は、画像処理技術に関する。   The present invention relates to an image processing technique.

従来より、明るい部分を適正露光で撮影した画像と、暗い部分を適正露光で撮影した画像とを合成する手法が知られている。この手法は、例えば、電子カメラで撮影可能なダイナミックレンジを越える画像を撮影する場合、明るい部分の白飛びや暗い部分の黒潰れが生じるという問題に対応する場合などに用いられている。例えば、特許文献1の発明では、画像を重ね合わせる処理において、画像を分割して特徴検出を行った後、画像位置を合わせることにより、正確に被写体が重なるように被写体の位置を合わせる技術が検討されている。   Conventionally, a method for synthesizing an image obtained by photographing a bright part with appropriate exposure and an image obtained by photographing a dark part with appropriate exposure is known. This technique is used, for example, when dealing with the problem that bright areas are over-exposure and dark areas are black-out when an image exceeding the dynamic range that can be imaged with an electronic camera is taken. For example, in the invention of Patent Document 1, a technique for aligning the subject so that the subject overlaps accurately by dividing the image and performing feature detection in the process of superimposing the images and then aligning the image positions is studied. Has been.

特許第4136044号公報Japanese Patent No. 4136044

しかし、特許文献1の発明における合成方法は、輝度が大きく異なる画像の重ね合せを行う際に、被写体の位置合わせを正確に行うことができない場合があった。位置合わせが正確に行われないと、合成処理により生成された画像の画質が低くなるというさらなる問題が発生する。   However, the composition method according to the invention of Patent Document 1 sometimes fails to accurately align the subject when superimposing images with greatly different luminances. If alignment is not performed accurately, there is a further problem that the image quality of the image generated by the synthesis process is lowered.

本発明は、輝度が大きく異なる画像の重ね合せを行う場合に、被写体の位置合わせを正確に行うことを目的とする。   An object of the present invention is to accurately align a subject when superimposing images having greatly different luminances.

本発明の画像処理装置は、補助光源による発光の有無が異なる2種類の画像からなり、前記2種類の画像のうち一方の種類の画像の前後に、前記発光の有無が異なる他方の種類の画像を少なくとも1枚ずつ含む時間的に連続して撮影された複数枚の画像を入力する画像入力部と、前記2種類の画像のうち一方の種類の複数の前記画像を互いに比較し、前記一方の種類の複数の前記画像間のずれ量を算出する算出部と、前記算出部により算出された前記ずれ量に基づいて、前記2種類の画像のうち前記他方の種類の前記画像の相対的なずれ量を推定する推定部とを有する。   The image processing apparatus according to the present invention includes two types of images that differ in the presence or absence of light emission by an auxiliary light source, and the other type of images that differ in the presence or absence of light emission before and after one of the two types of images. An image input unit for inputting a plurality of images taken continuously in time including at least one image and a plurality of images of one type of the two types of images, Based on the shift amount calculated by the calculation unit and a shift unit that calculates the shift amount between the plurality of types of images, the relative shift of the image of the other type among the two types of images. An estimation unit for estimating the quantity.

なお、前記画像入力部は、前記補助光源を発光させて撮影した少なくとも1枚の発光撮影画像と、前記少なくとも1枚の発光撮影画像の前後に前記補助光源を発光させずに撮影した少なくとも1枚ずつの非発光撮影画像とを含む時間的に連続して撮影された複数枚の画像を入力し、前記算出部は、複数の前記非発光撮影画像を互いに比較し、複数の前記非発光撮影画像間の前記ずれ量を算出し、前記推定部は、前記算出部により算出された前記ずれ量に基づいて、前記少なくとも1枚の発光撮影画像の相対的なずれ量を推定しても良い。   The image input unit includes at least one light-emitting photographed image taken by emitting the auxiliary light source, and at least one picture taken without emitting the auxiliary light source before and after the at least one light-emitting photographed image. A plurality of images taken continuously in time including each non-light-emitting photographed image, and the calculation unit compares the plurality of non-light-emitting photographed images with each other to obtain a plurality of the non-light-emitting photographed images. The shift amount may be calculated in between, and the estimation unit may estimate a relative shift amount of the at least one light-emitting photographed image based on the shift amount calculated by the calculation unit.

また、前記算出部による算出結果と、前記推定部による推定結果とに基づいて、前記画像入力部により入力した前記複数枚の画像を合成する合成処理を行う画像合成部をさらに有しても良い。   Further, the image processing apparatus may further include an image composition unit that performs composition processing for compositing the plurality of images input by the image input unit based on the calculation result by the calculation unit and the estimation result by the estimation unit. .

また、前記推定部は、前記画像入力部により入力した前記複数枚の画像の撮影時刻と、各画像の位置との関係について、内挿処理を行うことにより、前記ずれ量を推定しても良い。   In addition, the estimation unit may estimate the deviation amount by performing an interpolation process on the relationship between the shooting time of the plurality of images input by the image input unit and the position of each image. .

また、前記画像入力部は、前記複数枚の画像が撮影された際の撮像装置の動き情報を、前記複数枚の画像とともに入力し、前記算出部は、前記動き情報を加味して前記ずれ量を算出し、前記推定部は、前記動き情報を加味して前記ずれ量を推定しても良い。   In addition, the image input unit inputs motion information of the imaging device when the plurality of images are captured, together with the plurality of images, and the calculation unit takes into account the motion information and the shift amount The estimation unit may estimate the shift amount in consideration of the motion information.

また、前記推定部は、前記2種類の画像のうち前記補助光源を発光させて撮影した少なくとも1枚の画像に対して所定のゲイン調整を行い、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像と、前記2種類の画像のうち前記補助光源を発光させずに撮影した少なくとも1枚の画像とを比較し、比較結果を加味して前記ずれ量を推定しても良い。   Further, the estimation unit performs a predetermined gain adjustment on at least one image captured by causing the auxiliary light source to emit light among the two types of images, and causing the auxiliary light source after the gain adjustment to emit light. Even if at least one photographed image is compared with at least one image photographed without causing the auxiliary light source to emit light among the two types of images, the deviation amount is estimated by taking the comparison result into consideration good.

また、前記推定部は、前記補助光源を発光させずに撮影した少なくとも1枚の画像における高輝度部分の画像と、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像において前記高輝度部分に対応する部分の画像とを比較しても良い。   In addition, the estimation unit may include an image of a high-luminance portion in at least one image captured without causing the auxiliary light source to emit light, and at least one image captured by emitting the auxiliary light source after the gain adjustment. You may compare with the image of the part corresponding to the said high-intensity part.

また、上述した何れかの画像処理装置を有し、前記画像入力部を、撮像部および発光部で構成する電子カメラも本発明の具体的態様として有効である。   An electronic camera having any of the image processing apparatuses described above and having the image input unit composed of an imaging unit and a light emitting unit is also effective as a specific aspect of the present invention.

また、上述した何れかの画像処理装置の機能をコンピュータに実行させるための画像処理プログラムも、本発明の具体的態様として有効である。   An image processing program for causing a computer to execute the functions of any of the above-described image processing apparatuses is also effective as a specific aspect of the present invention.

本発明によれば、輝度が大きく異なる画像の重ね合せを行う場合に、被写体の位置合わせを正確に行うことができる。   According to the present invention, it is possible to accurately align a subject when superimposing images having greatly different luminances.

本実施形態に係る電子カメラ101の構成例を示す図である。It is a figure which shows the structural example of the electronic camera 101 which concerns on this embodiment. 合成処理の概要を示す図である。It is a figure which shows the outline | summary of a synthetic | combination process. 合成処理の概要を示す別の図である。It is another figure which shows the outline | summary of a synthetic | combination process. 制御部108および画像処理部107の構成例を示す図である。3 is a diagram illustrating a configuration example of a control unit 108 and an image processing unit 107. FIG. 「合成撮影モード」での撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in "composite imaging | photography mode." 「合成撮影モード」での合成処理を示すフローチャートである。It is a flowchart which shows the synthetic | combination process in "composite photography mode." 位置合わせ処理について説明する図である。It is a figure explaining the alignment process. 位置の推定処理について説明する図である。It is a figure explaining the estimation process of a position.

以下、本発明に係る画像処理装置および電子カメラ、並びに画像処理プログラムの実施形態について図面を用いて詳しく説明する。なお、以下の実施形態では、本発明に係る画像処理装置を含み、本発明に係る画像処理プログラムを利用する電子カメラの例について説明する。   Embodiments of an image processing apparatus, an electronic camera, and an image processing program according to the present invention will be described below in detail with reference to the drawings. In the following embodiment, an example of an electronic camera that includes the image processing apparatus according to the present invention and uses the image processing program according to the present invention will be described.

[電子カメラ101の構成例]
図1は、本実施形態に係る電子カメラ101の構成例を示す図である。図1において、電子カメラ101は、光学系102と、メカニカルシャッタ103と、撮像素子104と、A/D変換部105と、画像バッファ106と、画像処理部107と、制御部108と、メモリ109と、表示部110と、操作部111と、メモリカードIF(インターフェース)112と、補助光源113と、ジャイロセンサ114とで構成される。
[Configuration Example of Electronic Camera 101]
FIG. 1 is a diagram illustrating a configuration example of an electronic camera 101 according to the present embodiment. In FIG. 1, an electronic camera 101 includes an optical system 102, a mechanical shutter 103, an image sensor 104, an A / D conversion unit 105, an image buffer 106, an image processing unit 107, a control unit 108, and a memory 109. A display unit 110, an operation unit 111, a memory card IF (interface) 112, an auxiliary light source 113, and a gyro sensor 114.

図1において、光学系102に入射される被写体光は、メカニカルシャッタ103を介して撮像素子104の受光面に入射される。ここで、光学系102は、ズームレンズやフォーカスレンズなどの複数枚のレンズおよびレンズ駆動部や絞り機構などを有し、制御部108によって、ズームレンズ位置、フォーカスレンズ位置、絞り値などが制御される。   In FIG. 1, the subject light incident on the optical system 102 is incident on the light receiving surface of the image sensor 104 via the mechanical shutter 103. Here, the optical system 102 includes a plurality of lenses such as a zoom lens and a focus lens, a lens driving unit, an aperture mechanism, and the like, and the control unit 108 controls the zoom lens position, the focus lens position, the aperture value, and the like. The

撮像素子104は、例えばCMOS型固体撮像素子で構成され、受光面に二次元状に配置された画素の光電変換部により受光量に応じた画像信号を出力する。   The image sensor 104 is configured by, for example, a CMOS solid-state image sensor, and outputs an image signal corresponding to the amount of received light by a photoelectric conversion unit of a pixel arranged two-dimensionally on the light receiving surface.

A/D変換部105は、撮像素子104が出力する画像信号を各画素毎にデジタル値の画像データに変換し、画像バッファ106に取り込む。   The A / D converter 105 converts the image signal output from the image sensor 104 into digital image data for each pixel, and captures the image signal in the image buffer 106.

画像バッファ106は、例えば揮発性の高速メモリで構成される。画像バッファ106は、A/D変換部105が出力する画像データを一時的に記憶するだけでなく、画像処理部107が画像処理を行う時のバッファメモリとしても使用される。或いは撮影時の画像やメモリカードIF112に接続されたメモリカード112aに保存されている撮影済の画像を読み出して表示部110に表示する時の表示メモリとしても使用される。   The image buffer 106 is composed of, for example, a volatile high-speed memory. The image buffer 106 not only temporarily stores the image data output from the A / D conversion unit 105 but also is used as a buffer memory when the image processing unit 107 performs image processing. Alternatively, it is also used as a display memory when an image at the time of photographing or a photographed image stored in the memory card 112 a connected to the memory card IF 112 is read and displayed on the display unit 110.

画像処理部107は、画像バッファ106に取り込まれた画像データに対して、ホワイトバランス処理、色補間処理、ガンマ補正処理、彩度強調処理、輪郭強調処理などの画像処理を行う。また、画像処理部107は、画像処理後の画像データに対してJPEG規格などに準拠した画像圧縮方法を用いて圧縮処理を行う。さらに本実施形態に係る電子カメラ101では、後に説明するように、画像処理部107は連写された複数枚の画像を合成する画像合成処理を行う。   The image processing unit 107 performs image processing such as white balance processing, color interpolation processing, gamma correction processing, saturation enhancement processing, and contour enhancement processing on the image data captured in the image buffer 106. Further, the image processing unit 107 performs compression processing on the image data after image processing using an image compression method compliant with the JPEG standard or the like. Furthermore, in the electronic camera 101 according to the present embodiment, as will be described later, the image processing unit 107 performs an image composition process for compositing a plurality of continuously shot images.

制御部108は、例えば内部に記憶されたプログラムに従って動作するCPUで構成される。制御部108は電子カメラ101の動作を制御し、例えば操作部111の撮影モード選択ダイヤル111aで電子カメラ101の撮影モードを設定したり、レリーズボタン111bの押下時には光学系102のレンズ制御や絞り制御を行ってメカニカルシャッタ103を開閉し、撮像素子104で被写体画像を撮像する。そして、制御部108は、撮像素子104から予め設定された解像度で画像信号を読み出し、A/D変換部105でデジタル値に変換された画像データを画像バッファ106に取り込む制御を行う。さらに、制御部108は、画像バッファ106に取り込まれた画像データに対して所定の画像処理を施すよう画像処理部107に指令し、画像処理後の画像データ(例えばJPEGデータ)に所定のファイル名やヘッダ情報を付加してメモリカードI/F112を介してメモリカード112aに保存する。或いは、画像バッファ106に取り込まれた画像データを表示部110に撮影画像として表示する。特に、本実施形態に係る電子カメラ101では、撮影モード選択ダイヤル111aで「合成撮影モード」が選択されている場合に、制御部108は、撮像素子104で予め設定された複数枚の画像を連写して画像バッファ106に取り込む。ここで、制御部108は、複数枚の画像を連写する時に予め設定された位置の画像だけ補助光源113を発光させて撮影する。そして、制御部108は、画像処理部107に指令して、取り込まれた複数枚の画像を合成する。なお、画像処理部107の画像合成処理については後で詳しく説明する。   The control unit 108 is configured by a CPU that operates according to a program stored therein, for example. The control unit 108 controls the operation of the electronic camera 101. For example, the shooting mode selection dial 111a of the operation unit 111 sets the shooting mode of the electronic camera 101, or when the release button 111b is pressed, lens control and aperture control of the optical system 102 are performed. The mechanical shutter 103 is opened and closed, and a subject image is captured by the image sensor 104. Then, the control unit 108 performs control to read out the image signal from the image sensor 104 with a preset resolution, and to import the image data converted into a digital value by the A / D conversion unit 105 into the image buffer 106. Furthermore, the control unit 108 instructs the image processing unit 107 to perform predetermined image processing on the image data captured in the image buffer 106, and adds a predetermined file name to the image data after image processing (for example, JPEG data). And header information is added and stored in the memory card 112a via the memory card I / F 112. Alternatively, the image data captured in the image buffer 106 is displayed on the display unit 110 as a captured image. In particular, in the electronic camera 101 according to the present embodiment, when the “composite shooting mode” is selected with the shooting mode selection dial 111 a, the control unit 108 connects a plurality of images set in advance with the image sensor 104. A copy is taken into the image buffer 106. Here, the control unit 108 shoots the auxiliary light source 113 to emit only the image at a preset position when continuously shooting a plurality of images. Then, the control unit 108 instructs the image processing unit 107 to synthesize a plurality of captured images. Note that the image composition processing of the image processing unit 107 will be described in detail later.

メモリ109は、例えばフラッシュメモリなどの不揮発性の半導体メモリで構成される。電子カメラ101の撮影モードや露出情報、フォーカス情報などのパラメータが記憶される。制御部108は、これらのパラメータを参照して電子カメラ101の動作を制御する。特に本実施形態に係る電子カメラ101では、後に説明するように、「合成撮影モード」に関するパラメータがメモリ109に記憶される。なお、これらのパラメータは、操作部111を介して行われるユーザ操作に応じて適宜更新される。   The memory 109 is composed of a nonvolatile semiconductor memory such as a flash memory, for example. Parameters such as a shooting mode, exposure information, and focus information of the electronic camera 101 are stored. The control unit 108 controls the operation of the electronic camera 101 with reference to these parameters. In particular, in the electronic camera 101 according to the present embodiment, parameters relating to the “composite shooting mode” are stored in the memory 109 as described later. Note that these parameters are appropriately updated according to user operations performed via the operation unit 111.

表示部110は、液晶モニタなどで構成される。そして、制御部108によって、撮影画像や電子カメラ101の操作に必要な設定メニューなどが表示される。特に本実施形態に係る電子カメラ101では、操作部111の設定メニューボタン111cが押下された時に表示部110にメニュー画面を表示し、使用者は十字キー111dで「合成撮影モード」のパラメータ設定項目を選択して設定内容を変更することができる。   The display unit 110 includes a liquid crystal monitor or the like. Then, the control unit 108 displays a captured image, a setting menu necessary for operating the electronic camera 101, and the like. In particular, in the electronic camera 101 according to the present embodiment, when the setting menu button 111c of the operation unit 111 is pressed, a menu screen is displayed on the display unit 110, and the user sets a parameter setting item of “composite shooting mode” with the cross key 111d. You can select to change the settings.

操作部111は、撮影モード選択ダイヤル111a、レリーズボタン111b、設定メニューボタン111c、十字キー111dなどで構成される。ユーザは、これらの操作ボタンを操作して電子カメラ101を使用する。例えば撮影モード選択ダイヤル111aでは、「オート撮影モード」、「高感度撮影モード」、「合成撮影モード」などを行う。なお、これらの操作部111の操作情報は制御部108に出力され、制御部108は操作部111から入力する操作情報に応じて電子カメラ101の動作を制御する。   The operation unit 111 includes a shooting mode selection dial 111a, a release button 111b, a setting menu button 111c, a cross key 111d, and the like. The user operates these operation buttons to use the electronic camera 101. For example, the shooting mode selection dial 111a performs “auto shooting mode”, “high sensitivity shooting mode”, “composite shooting mode”, and the like. The operation information of the operation unit 111 is output to the control unit 108, and the control unit 108 controls the operation of the electronic camera 101 according to the operation information input from the operation unit 111.

メモリカードIF112は、電子カメラ101にメモリカード112aを接続するためのインターフェースである。そして、制御部108はメモリカードIF112を介してメモリカード112aに画像データを読み書きする。特に本実施形態に係る電子カメラ101では、「合成撮影モード」で合成された画像を保存する。なお、「合成撮影モード」で合成する前の複数枚の画像をメモリカード112aに保存するように、「合成撮影モード」の設定メニュー画面で設定できるようにしてもよい。この場合は、「合成撮影モード」でレリーズボタン111bが押下された場合に、連写された複数枚の画像を合成せずにメモリカード112aに保存する。或いは、合成処理を行った画像と連写された複数枚の画像の両方をメモリカード112aに保存するようにしてもよい。さらに、連写された複数枚の画像をまとめて管理できるように、例えば連写枚数が3枚の場合は、「gousei−1.jpg」、「gousei−2.jpg」、「gousei−3.jpg」として、同一名称で関連付けて末尾に撮影順序を示す番号を付加してメモリカード112aに保存する。或いは、「合成撮影モード」で連写撮影する毎にフォルダを作成し、連写された複数枚の画像を1つのフォルダにまとめて保存するようにしてもよい。または、画像ファイルのヘッダ情報として、複数枚の画像を関連付ける独自の情報を付加してもよい。さらに、この場合、補助光源113を発光して撮影された画像であるか否かの情報も付加するようにしてもよい。これにより、後から合成処理を行う際に、この情報を利用して同様の処理を行うことができる。また、ジャイロセンサ114による出力に基づく情報も付加するようにしてもよい。これにより、後から合成処理を行う際に、この情報を利用して同様の処理を行うことができる。   The memory card IF 112 is an interface for connecting the memory card 112 a to the electronic camera 101. Then, the control unit 108 reads and writes image data to and from the memory card 112a via the memory card IF 112. In particular, the electronic camera 101 according to the present embodiment stores an image synthesized in the “composite shooting mode”. It should be noted that it may be set on the setting menu screen of the “composite shooting mode” so that a plurality of images before being combined in the “composite shooting mode” are stored in the memory card 112a. In this case, when the release button 111b is pressed in the “composite shooting mode”, a plurality of continuously shot images are stored in the memory card 112a without being combined. Alternatively, both the composite image and a plurality of continuously shot images may be stored in the memory card 112a. Further, in order to manage a plurality of continuously shot images collectively, for example, when the number of continuous shots is 3, “gousei-1.jpg”, “gousei-2.jpg”, “gousei-3. “jpg” is associated with the same name, and a number indicating the photographing order is added to the end, and the result is stored in the memory card 112a. Alternatively, a folder may be created every time continuous shooting is performed in the “composite shooting mode”, and a plurality of continuously shot images may be stored together in one folder. Alternatively, unique information that associates a plurality of images may be added as header information of the image file. Further, in this case, information regarding whether or not the image is taken by emitting light from the auxiliary light source 113 may be added. This makes it possible to perform similar processing using this information when performing the synthesis processing later. Information based on the output from the gyro sensor 114 may also be added. This makes it possible to perform similar processing using this information when performing the synthesis processing later.

補助光源113は、一般的なカメラに搭載されているフラッシュに相当し、撮影時に被写体に対して閃光を発する発光素子で構成される。そして、制御部108が指令するタイミングで閃光を発する。   The auxiliary light source 113 corresponds to a flash mounted on a general camera, and is composed of a light emitting element that emits a flash to a subject during photographing. Then, a flash is emitted at a timing commanded by the control unit 108.

ジャイロセンサ114は、電子カメラ101の姿勢を検出するセンサであり、電子カメラ101の動きを角度や角速度の指標で検出するものである。ジャイロセンサ114の構成は公知技術と同様であるため説明を省略する。なお、ジャイロセンサ114は、後述する合成処理に用いる情報を取得するためだけに備えられたものでも良いし、手ぶれ補正機能などに利用するために備えられたものを兼用しても良い。   The gyro sensor 114 is a sensor that detects the attitude of the electronic camera 101, and detects the movement of the electronic camera 101 with an index of angle or angular velocity. Since the configuration of the gyro sensor 114 is the same as that of a known technique, the description thereof is omitted. It should be noted that the gyro sensor 114 may be provided only for acquiring information used for a composition process to be described later, or may be provided for use in a camera shake correction function or the like.

以上が電子カメラ101の構成および基本動作である。なお、電子カメラ101ではなく、本発明に係る単体の画像処理装置を構成する場合は、図1において、光学系102、メカニカルシャッタ103、撮像素子104、A/D変換部105、補助光源113およびジャイロセンサ114で構成される撮像に必要なブロックを取り除いた装置に対応し、メモリカード112aから画像バッファ106に画像データを読み出す制御部108の処理が画像処理装置の画像入力部の処理に対応する。そして、制御部108(画像処理装置の制御部に相当)は、撮影済みの画像データをメモリカード112aから画像バッファ106に読み出し、画像処理部107で画像処理を行って表示部110に表示する。或いは、画像処理後の画像データを再びメモリカード112aに保存する。ここで、画像処理装置の場合は、操作部111は、レリーズボタン111bの代わりにメモリカード112aから撮影済みの画像を画像バッファ106に読み出すための再生ボタンを設け、表示部110に表示された撮影済みの画像の中から画像処理を行う画像を十字キー111dで選択する。また、撮影モード選択ダイヤル111aの代わりに画像処理内容を選択するための画像処理選択ダイヤルを設け、十字キー111dで選択された画像に対して、画像処理選択ダイヤルで選択された画像処理を行う。例えば、画像処理選択ダイヤルで「合成処理モード」を選択すると、十字キー111dで選択された画像に対応する連写撮影された複数枚の画像データをメモリカード112aから画像バッファ106に読み出す。そして、画像バッファ106に読み出された連写された複数枚の画像データを画像処理部107で合成する処理は、電子カメラ101の場合と同じである。このように、電子カメラ101の「合成撮影モード」で撮影された複数枚の画像が記憶されたメモリカード112aから画像データを読み出して合成処理を行う専用の画像処理装置としても実現可能である。   The above is the configuration and basic operation of the electronic camera 101. In the case of configuring a single image processing apparatus according to the present invention instead of the electronic camera 101, in FIG. 1, the optical system 102, the mechanical shutter 103, the image sensor 104, the A / D conversion unit 105, the auxiliary light source 113, and The processing of the control unit 108 that reads out image data from the memory card 112a to the image buffer 106 corresponds to the processing of the image input unit of the image processing device. . Then, the control unit 108 (corresponding to the control unit of the image processing apparatus) reads captured image data from the memory card 112a to the image buffer 106, performs image processing in the image processing unit 107, and displays the image on the display unit 110. Alternatively, the image data after image processing is stored again in the memory card 112a. Here, in the case of an image processing apparatus, the operation unit 111 is provided with a playback button for reading a captured image from the memory card 112a into the image buffer 106 in place of the release button 111b, and the imaging displayed on the display unit 110. An image on which image processing is to be performed is selected from among the completed images with the cross key 111d. Further, an image processing selection dial for selecting image processing contents is provided instead of the shooting mode selection dial 111a, and the image processing selected with the image processing selection dial is performed on the image selected with the cross key 111d. For example, when “compositing processing mode” is selected with the image processing selection dial, a plurality of continuously shot image data corresponding to the image selected with the cross key 111 d is read from the memory card 112 a to the image buffer 106. The process of combining the plurality of continuously shot image data read out to the image buffer 106 by the image processing unit 107 is the same as in the case of the electronic camera 101. As described above, the image processing apparatus can be realized as a dedicated image processing apparatus that reads out image data from the memory card 112a in which a plurality of images photographed in the “composite photographing mode” of the electronic camera 101 is stored, and performs composition processing.

なお、画像処理装置をコンピュータで実現しても構わない。この場合、制御部108はコンピュータのCPUに相当し、コンピュータのメモリカードIFに接続されたメモリカード112aから画像データを読み込んで表示部110の代わりにモニタに表示する。なお、画像合成プログラムがコンピュータにインストールされているものとする。   Note that the image processing apparatus may be realized by a computer. In this case, the control unit 108 corresponds to the CPU of the computer, reads image data from the memory card 112a connected to the memory card IF of the computer, and displays it on the monitor instead of the display unit 110. It is assumed that the image composition program is installed in the computer.

[合成撮影モード]
次に、本実施形態に係る電子カメラ101の「合成撮影モード」について説明する。一般に、電子カメラで撮影可能なダイナミックレンジを越える被写体(夜景など)を撮影する場合、明るい部分の白飛びや暗い部分の黒潰れが生じる。そこで、明るい部分を適正露光で撮影した画像と、暗い部分を適正露光で撮影した画像とを合成して、明るい部分も暗い部分もきれいに撮影された画像を作成することが行われている。
[Composite shooting mode]
Next, the “composite shooting mode” of the electronic camera 101 according to the present embodiment will be described. In general, when shooting a subject (such as a night view) that exceeds the dynamic range that can be shot with an electronic camera, white portions in bright portions and black portions in dark portions occur. Therefore, an image in which a bright part is photographed with appropriate exposure and an image in which a dark part is photographed with appropriate exposure are combined to create an image in which both a bright part and a dark part are clearly photographed.

例えば図2において、被写体151の例に示すように、夜景を背景として人物を撮影する場合(撮影構図152)、フラッシュ有りで撮影した画像153とフラッシュ無しで撮影した画像154とを合成して、人物と背景の両方を良好な露出(適正または適正に近い露出)になるように合成した画像155を得ることができる。   For example, in FIG. 2, as shown in the example of the subject 151, when a person is photographed against a night scene (shooting composition 152), an image 153 shot with a flash and an image 154 shot without a flash are combined, It is possible to obtain an image 155 in which both the person and the background are combined so as to have good exposure (appropriate or close to appropriate exposure).

画像153と画像154とを重ね合わせる合成処理では、重ね合わせに先だって位置合わせが行われる。画像153と画像154とでは主要被写体の明るさが大きく異なるため、色の比較や輪郭の比較などによる主要被写体の位置検出や同じ被写体であるか否かの判別を正確に行うことができず、重ね合わせる2つの画像の主要被写体の位置合わせが難しくなる。   In the composition process for superimposing the image 153 and the image 154, alignment is performed prior to the superposition. Since the brightness of the main subject is greatly different between the image 153 and the image 154, the position detection of the main subject or the determination of whether or not they are the same subject cannot be accurately performed by comparing the colors or the contours. It becomes difficult to align the main subject of the two images to be superimposed.

特に、図2に示したように夜景を背景として人物を撮影する場合、フラッシュ有りで撮影した画像153には、人物が明るく写っているが背景の夜景は暗く写っている。一方、フラッシュ無しで撮影した画像154には、背景の夜景が明るく写っているが人物は暗く写っている。したがって、これらの画像の位置合わせを行う際には、比較に好適な特徴点が十分に存在せず、十分な位置合わせの精度が得られない可能性がある。位置合わせの精度が低い場合、これらの画像の信号を加算または平均して合成する処理(単純合成と称する)を行った場合、主要被写体の位置がブレて合成され、合成処理により生成される画像の画質が低下する可能性がある。   In particular, as shown in FIG. 2, when a person is photographed with a night view as a background, the image 153 photographed with a flash shows the person brightly but the background night scene appears dark. On the other hand, in the image 154 taken without the flash, the night scene of the background appears bright, but the person appears dark. Therefore, when aligning these images, there are not enough feature points suitable for comparison, and there is a possibility that sufficient alignment accuracy cannot be obtained. When the alignment accuracy is low, when the processing of adding or averaging the signals of these images (referred to as simple combining) is performed, the position of the main subject is combined and the image generated by the combining processing Image quality may be degraded.

そこで、本実施形態に係る電子カメラ101では、位置合わせの方法を工夫することにより、連写された複数枚の画像の中に輝度が大きく異なる画像がある場合でも、主要被写体の位置ずれが少なくなるように合成することができる。   In view of this, in the electronic camera 101 according to the present embodiment, the position adjustment method is devised to reduce the position of the main subject even when there are images with significantly different luminances in a plurality of continuously shot images. Can be synthesized.

[画像合成方法]
次に、本実施形態に係る電子カメラ101における画像合成方法について説明する。図3は、連写された複数枚の画像例として、連写枚数が5枚の場合の撮影画像例を示してある。図3において、撮影順に、画像161は1枚目(最初)に撮影される画像、画像162は2枚目に撮影される画像、画像163は3枚目に撮影される画像、画像164は4枚目に撮影される画像、画像165は5枚目(最後)に撮影される画像である。また、画像161、画像162、画像164および画像165の4枚はフラッシュ無しで撮影した画像、画像163はフラッシュ有りで撮影した画像である。ここで、フラッシュ無しの撮影では、合成処理により生成される画像において、背景である被写体の明るさが適正露出になるように絞り値やシャッタ速度が制御される。
[Image composition method]
Next, an image composition method in the electronic camera 101 according to the present embodiment will be described. FIG. 3 shows an example of a photographed image when the number of continuous shots is five as an example of a plurality of continuously shot images. In FIG. 3, the image 161 is the first (first) image, the image 162 is the second image, the image 163 is the third image, and the image 164 is 4 in the order of shooting. An image captured on the first sheet, image 165, is an image captured on the fifth (last) image. Four images 161, 162, 164, and 165 are images taken without a flash, and an image 163 is an image taken with a flash. Here, in shooting without flash, the aperture value and the shutter speed are controlled so that the brightness of the subject as the background is adequately exposed in the image generated by the synthesis process.

なお、図3の例は一例であり、フラッシュ有りで撮影した画像の前後に、少なくとも1枚ずつのフラッシュ無しで撮影した画像が含まれれば、それぞれの画像の枚数および撮影順はどのような組み合わせであっても良い。   Note that the example in FIG. 3 is an example. If images taken without a flash are included before and after an image taken with a flash, any combination of the number of images and the order of shooting are included. It may be.

図3の例に示すように、フラッシュ無しで撮影した4枚の画像(画像161、画像162、画像164および画像165)と、フラッシュ有りで撮影した画像(画像163)を比較すると、写っている被写体が大きく異なる。したがって、これらの画像の画像情報に基づいて位置合わせを行うのは困難である。一方、フラッシュ無しで撮影した4枚の画像(画像161、画像162、画像164および画像165)同士を比較すると、写っている被写体が略同様である。したがって、これらの画像の画像情報に基づいて位置合わせを行うのは比較的容易である。   As shown in the example of FIG. 3, four images (image 161, image 162, image 164, and image 165) photographed without a flash and an image photographed with a flash (image 163) are shown. The subject is very different. Therefore, it is difficult to perform alignment based on the image information of these images. On the other hand, when four images (image 161, image 162, image 164, and image 165) photographed without a flash are compared with each other, the photographed subject is substantially the same. Therefore, it is relatively easy to perform alignment based on the image information of these images.

そこで、本実施形態に係る電子カメラ101では、図3の例のように、連写された複数枚の画像を合成する時の位置合わせの方法を工夫している。先ず、フラッシュ無しで撮影した4枚の画像(画像161、画像162、画像164および画像165)同士を比較して位置合わせを行う。次に、フラッシュ無しで撮影した4枚の画像の位置合わせ結果に基づいて、フラッシュ有りで撮影した画像の相対的な位置を推定する。   In view of this, in the electronic camera 101 according to the present embodiment, as in the example of FIG. 3, a method of alignment when combining a plurality of continuously shot images is devised. First, four images (image 161, image 162, image 164, and image 165) photographed without a flash are compared to perform alignment. Next, the relative position of the image photographed with the flash is estimated based on the alignment result of the four images photographed without the flash.

[画像処理部107の構成例]
次に、画像処理部107の構成例について図4を用いて説明する。なお、図4において、図1と同符号のものは同じものを示す。図4において、画像処理部107は、合成部201を有する。さらに、合成部201は、位置合わせ処理部251と、位置推定部252と、合成処理部253とで構成される。また、制御部108は、操作部111で「合成撮影モード」が選択された場合に、合成画像を生成する処理を実行する合成画像撮影制御部301を有する。
[Configuration Example of Image Processing Unit 107]
Next, a configuration example of the image processing unit 107 will be described with reference to FIG. In FIG. 4, the same reference numerals as those in FIG. In FIG. 4, the image processing unit 107 includes a synthesis unit 201. Further, the synthesis unit 201 includes an alignment processing unit 251, a position estimation unit 252, and a synthesis processing unit 253. Further, the control unit 108 includes a composite image capturing control unit 301 that executes a process of generating a composite image when the “composite capturing mode” is selected by the operation unit 111.

先ず撮影者は、操作部111の撮影モード選択ダイヤル111aで「合成撮影モード」を選択する。そして、撮影者がレリーズボタン111bを押下すると、制御部108の合成画像撮影制御部301は、メモリ109に予め記憶された「合成撮影モード」のパラメータを参照して撮影を開始する。ここで、メモリ109に記憶された「合成撮影モード」のパラメータは、例えば、連写枚数:5枚、フラッシュ撮影位置:3枚目とする。   First, the photographer selects “composite shooting mode” with the shooting mode selection dial 111 a of the operation unit 111. When the photographer presses the release button 111 b, the composite image capturing control unit 301 of the control unit 108 starts capturing with reference to the “composite capturing mode” parameter stored in advance in the memory 109. Here, the “composite shooting mode” parameters stored in the memory 109 are, for example, the number of continuous shots: 5 and the flash shooting position: 3rd.

そして、レリーズボタン111bの押下により、合成画像撮影制御部301は、撮像部104に指令して連写を開始する。ここでは、時間的に連続する2枚の画像を画像バッファ106に取り込んだ後、補助光源113を発光させて3枚目の画像を撮影して画像バッファ106に取り込む。さらに、補助光源113を発光させずに、時間的に連続する2枚の画像を画像バッファ106に取り込む。なお、この段階で、画像バッファ106に取り込まれた5枚の撮影画像をメモリカード112aに保存するようにしてもよい。   When the release button 111b is pressed, the composite image capturing control unit 301 instructs the image capturing unit 104 to start continuous shooting. Here, after two images that are temporally continuous are captured in the image buffer 106, the auxiliary light source 113 is caused to emit light, and a third image is captured and captured in the image buffer 106. Further, two images that are temporally continuous are taken into the image buffer 106 without causing the auxiliary light source 113 to emit light. At this stage, the five captured images captured in the image buffer 106 may be stored in the memory card 112a.

次に、合成画像撮影制御部301は、画像処理部107に指令して、画像バッファ106に取り込まれた5枚の撮影画像を合成する処理を画像処理部107に指令する。画像処理部107の合成部202における位置合わせ処理部251は、図3で説明したように、フラッシュ無しで撮影した4枚の画像同士を比較することにより位置合わせを行う。   Next, the composite image capturing control unit 301 instructs the image processing unit 107 to instruct the image processing unit 107 to synthesize the five captured images captured in the image buffer 106. As described with reference to FIG. 3, the alignment processing unit 251 in the composition unit 202 of the image processing unit 107 performs alignment by comparing four images captured without a flash.

位置推定部252は、位置合わせ処理部251で行われた位置合わせの結果に基づいて、フラッシュ有りで撮影した画像の相対的な位置を推定する。   The position estimation unit 252 estimates the relative position of the image captured with the flash based on the result of the alignment performed by the alignment processing unit 251.

合成処理部253は、位置合わせ処理部251で行われた位置合わせの結果と、位置推定部252で行われたフラッシュ有りで撮影した画像の相対的な位置の推定結果とに基づいて、画像バッファ106に取り込まれた5枚の撮影画像を合成する合成処理を行う。   Based on the result of the alignment performed by the alignment processing unit 251 and the estimation result of the relative position of the image taken with the flash performed by the position estimation unit 252, the composition processing unit 253 A synthesis process for synthesizing the five photographed images captured in 106 is performed.

次に、「合成撮影モード」で画像を撮影する時の処理および撮影された画像を合成する時の詳細な処理についてそれぞれ説明する。   Next, a process for capturing an image in the “composite shooting mode” and a detailed process for combining captured images will be described.

図5は、「合成撮影モード」で画像を撮影する時の処理を示したフローチャートである。なお、図5の処理は、制御部108の合成画像撮影制御部301が行う。   FIG. 5 is a flowchart showing processing when an image is captured in the “composite shooting mode”. 5 is performed by the composite image capturing control unit 301 of the control unit 108.

(ステップS101)撮影者は、撮影を開始する前に、操作部111の撮影モード選択ダイヤル111aで「合成撮影モード」を選択する。   (Step S101) The photographer selects “composite shooting mode” with the shooting mode selection dial 111a of the operation unit 111 before starting shooting.

(ステップS102)合成画像撮影制御部301は、撮影者が操作部111のレリーズボタン111bを押下したか否かを判別し、レリーズボタン111bが押下されると次のステップに進む。なお、この時点で、合成画像撮影制御部301は、連写中に次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1(1枚目)に設定する。また、カウンタは、制御部108で実行される画像処理プログラムのソフト的な変数である。   (Step S102) The composite image capturing control unit 301 determines whether or not the photographer has pressed the release button 111b of the operation unit 111, and proceeds to the next step when the release button 111b is pressed. At this time, the composite image capturing control unit 301 sets the count value of the counter indicating the number of the next image to be captured during continuous shooting to 1 (first image). The counter is a software variable of an image processing program executed by the control unit 108.

(ステップS103)合成画像撮影制御部301は、メモリ109に記憶されている「合成撮影モード」のパラメータを参照して、カウンタのカウント値がフラッシュ撮影する画像位置(ここでの例では3枚目)であるか否かを判別する。そして、フラッシュ撮影する画像位置である場合はステップS104に進み、フラッシュ撮影する画像位置ではない場合はステップS105に進む。   (Step S103) The composite image shooting control unit 301 refers to the “synthetic shooting mode” parameter stored in the memory 109, and the count value of the counter indicates the image position for flash shooting (in this example, the third frame). ). If it is an image position for flash photography, the process proceeds to step S104. If it is not an image position for flash photography, the process proceeds to step S105.

(ステップS104)合成画像撮影制御部301は、光学系102の絞り値およびメカニカルシャッタ103のシャッタ速度を制御して補助光源113を発光させ、撮像素子104で撮像した画像をA/D変換部105を介して画像バッファ106に取り込む(フラッシュ有り撮影)。そして、合成画像撮影制御部301は、次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1つ増やす。なお、このフラッシュ撮影では、適正露出になるように制御される。   (Step S <b> 104) The composite image shooting control unit 301 controls the aperture value of the optical system 102 and the shutter speed of the mechanical shutter 103 to cause the auxiliary light source 113 to emit light, and the image captured by the image sensor 104 is A / D conversion unit 105. To the image buffer 106 (shooting with flash). Then, the composite image capturing control unit 301 increments the count value of the counter that indicates how many images are to be captured next. In this flash photography, the exposure is controlled so as to achieve an appropriate exposure.

(ステップS105)合成画像撮影制御部301は、光学系102の絞り値およびメカニカルシャッタ103のシャッタ速度を制御して、撮像素子104で撮像した画像をA/D変換部105を介して画像バッファ106に取り込む(フラッシュ無し撮影)。そして、合成画像撮影制御部301は、次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1つ増やす。なお、この撮影では、合成画像撮影制御部301は、メモリ109に記憶されている「合成撮影モード」のパラメータを参照して撮影する。また、フラッシュ無し撮影での適正露出は、レリーズボタン111b押下時の測光値(例えば撮像素子104の出力から測光)により求められているものとする。   (Step S <b> 105) The composite image capturing control unit 301 controls the aperture value of the optical system 102 and the shutter speed of the mechanical shutter 103, and images captured by the image sensor 104 via the A / D conversion unit 105. (Shooting without flash). Then, the composite image capturing control unit 301 increments the count value of the counter that indicates how many images are to be captured next. In this photographing, the composite image photographing control unit 301 performs photographing with reference to the “synthetic photographing mode” parameter stored in the memory 109. In addition, it is assumed that the proper exposure in shooting without flash is obtained from a photometric value when the release button 111b is pressed (for example, photometry from the output of the image sensor 104).

(ステップS106)合成画像撮影制御部301は、カウンタのカウント値が示す撮影済の画像枚数(カウント値は次の撮影画像の枚数なので撮影済みの枚数より1枚多くなっているため1つ減らした枚数とする)がメモリ109に記憶されている「合成撮影モード」の連写枚数に一致するか否かを判別する。そして、連写枚数の撮影が終了している場合は「合成撮影モード」を終了し、連写枚数の撮影が終了していない場合はステップS103に戻って同様の撮影処理を繰り返す。例えば、「合成撮影モード」のパラメータの連写枚数が5枚で、次に撮影する画像が何枚目であるかを示すカウンタのカウント値が6(枚目)である場合は撮影を終了し、カウント値が5枚目以下である場合はステップS103に戻る。   (Step S106) The composite image capturing control unit 301 reduces the number of captured images indicated by the count value of the counter (the count value is the number of the next captured image, which is one more than the number of captured images, so it is reduced by one). It is determined whether or not (the number of images) matches the number of consecutive shots in the “composite shooting mode” stored in the memory 109. If the continuous shooting has been completed, the “composite shooting mode” is ended. If the continuous shooting has not been completed, the process returns to step S103 to repeat the same shooting process. For example, if the continuous shooting number of the “composite shooting mode” parameter is 5 and the count value of the counter indicating the number of the next image to be shot is 6 (the number), the shooting is ended. If the count value is less than or equal to the fifth sheet, the process returns to step S103.

このようにして、「合成撮影モード」が撮影モード選択ダイヤル111aで選択されている場合にレリーズボタン111bが押下されると、メモリ109に記憶されている「合成撮影モード」のパラメータに従って、所定の画像位置でフラッシュ撮影が行われ、連写された所定枚数の画像が画像バッファ106に取り込まれる。   In this way, when the “composite shooting mode” is selected with the shooting mode selection dial 111 a, when the release button 111 b is pressed, a predetermined composite mode is stored according to the “composite shooting mode” parameter stored in the memory 109. Flash shooting is performed at the image position, and a predetermined number of images taken continuously are taken into the image buffer 106.

(ステップS107)合成画像撮影制御部301は、ステップS106で画像バッファ106に取り込まれた連写画像を、メモリカードIF112を介してメモリカード112aに保存する。或いは、表示部110に合成画像を表示する。このとき、合成画像撮影制御部301は、各画像に対応づけて撮影時刻を記録する。なお、撮影時刻は、例えば、フラッシュ無しで撮影した画像については、露光開始から露光終了までの中間の時刻を撮影時刻とし、フラッシュ有りで撮影した画像については、フラッシュの発光を開始した時刻を撮影時刻とする。さらに、合成画像撮影制御部301は、各画像に対応づけて、ジャイロセンサ114の出力値も記録する。   (Step S107) The composite image capturing control unit 301 stores the continuous shot image captured in the image buffer 106 in Step S106 in the memory card 112a via the memory card IF 112. Alternatively, the composite image is displayed on the display unit 110. At this time, the composite image shooting control unit 301 records the shooting time in association with each image. Note that the shooting time is, for example, for an image shot without a flash, an intermediate time from the start of exposure to the end of exposure is set as the shooting time, and for an image shot with flash, the time when the flash emission is started is shot. Time. Furthermore, the composite image capturing control unit 301 also records the output value of the gyro sensor 114 in association with each image.

なお、メモリカード112aをコンピュータや専用の画像処理装置などに接続して「合成撮影モード」で撮影された複数枚の画像の合成処理をコンピュータや画像処理装置で行うことができる。そして、この場合、コンピュータや画像処理装置は、後述する画像合成処理を実行する画像処理プログラムが搭載されている。   The memory card 112a can be connected to a computer, a dedicated image processing device, or the like, and a plurality of images shot in the “composite shooting mode” can be combined by the computer or the image processing device. In this case, the computer and the image processing apparatus are equipped with an image processing program for executing image composition processing described later.

次に、「合成撮影モード」で連写撮影された複数枚の画像を合成する処理について、図6のフローチャートを用いて説明する。なお、図6の処理は、制御部108の合成画像撮影制御部301の指令により、画像処理部107が行う。なお、画像処理部107は、図4で説明した処理ブロックを有する。   Next, a process of combining a plurality of images continuously shot in the “composite shooting mode” will be described with reference to the flowchart of FIG. The processing in FIG. 6 is performed by the image processing unit 107 in accordance with a command from the composite image capturing control unit 301 of the control unit 108. Note that the image processing unit 107 includes the processing blocks described with reference to FIG.

(ステップS201)位置合わせ処理部251は、画像バッファ106から「合成撮影モード」で撮影された複数枚の画像を読み出す。なお、コンピュータや画像処理装置の場合は、メモリカード112aから「合成撮影モード」で撮影された複数枚の画像を読み出す。   (Step S <b> 201) The alignment processing unit 251 reads out a plurality of images shot in the “composite shooting mode” from the image buffer 106. In the case of a computer or an image processing apparatus, a plurality of images shot in the “composite shooting mode” are read from the memory card 112a.

(ステップS202)位置合わせ処理部251は、ステップS201で読み出した複数枚の画像のうち、フラッシュ無しで撮影した4枚の画像間の位置合わせ処理を行う。4枚の画像(図3の画像161、画像162、画像164および画像165)間の位置合わせ処理は、どのような順番で行っても良い。例えば、画像161および画像162の位置合わせと、画像162および画像164の位置合わせと、画像164および画像165の位置合わせとを順次行っても良いし、画像161を基準画像として、画像161および画像162の位置合わせと、画像161および画像164の位置合わせと、画像161および画像165の位置合わせとを順次行っても良い。   (Step S202) The alignment processing unit 251 performs an alignment process between four images captured without a flash among the plurality of images read out in step S201. The alignment processing between the four images (image 161, image 162, image 164, and image 165 in FIG. 3) may be performed in any order. For example, the alignment of the image 161 and the image 162, the alignment of the image 162 and the image 164, and the alignment of the image 164 and the image 165 may be sequentially performed. The image 161 and the image The alignment of 162, the alignment of the images 161 and 164, and the alignment of the images 161 and 165 may be sequentially performed.

位置合わせ処理は、公知技術と同様に、画像情報に基づいて行われる。なお、フラッシュ無しで撮影した4枚の画像(図3の画像161、画像162、画像164および画像165)は、何れもフラッシュ無しで撮影された画像なので、主要被写体の露出条件が類似しており、色の比較や輝度の比較などによる主要被写体の位置検出や同じ被写体であるか否かの判別を正確に行うことができる。   The alignment process is performed based on the image information as in the known technique. Note that the four images (image 161, image 162, image 164, and image 165 in FIG. 3) shot without the flash are all images shot without the flash, and therefore the exposure conditions of the main subjects are similar. Thus, it is possible to accurately detect the position of the main subject and determine whether or not the subject is the same subject by comparing the colors and the luminance.

また、位置合わせ処理部251は、位置合わせ処理にジャイロセンサ114の出力値を加味しても良い。例えば、図7に示すように、ジャイロセンサ114の出力値に基づいて、画像の移動量を求め、この移動量を打ち消すようにずれ量を求める。なお、電子カメラ101がレンズシフト機能やセンサシフト機能を有する場合には、ジャイロセンサ114の出力値に、レンズやセンサのシフト量を加味してずれ量を求めればよい。また、ジャイロセンサ114の出力値に基づく位置合わせ処理を行ってから、上述した画像情報に基づいた位置合わせ処理を行うことにより、画像情報に基づいた位置合わせ処理を行う範囲を制限することも可能である。すなわち、ジャイロセンサ114の出力値に基づく位置合わせ処理により大まかな位置合わせを行い、範囲を限定した上で、画像情報に基づいた詳細な位置合わせ処理を行うことができる。   The alignment processing unit 251 may add the output value of the gyro sensor 114 to the alignment process. For example, as shown in FIG. 7, the movement amount of the image is obtained based on the output value of the gyro sensor 114, and the deviation amount is obtained so as to cancel the movement amount. If the electronic camera 101 has a lens shift function or a sensor shift function, the shift amount may be obtained by adding the shift amount of the lens or sensor to the output value of the gyro sensor 114. It is also possible to limit the range in which the alignment process based on the image information is performed by performing the alignment process based on the image information described above after performing the alignment process based on the output value of the gyro sensor 114. It is. That is, it is possible to perform rough alignment by alignment processing based on the output value of the gyro sensor 114, and to perform detailed alignment processing based on image information after limiting the range.

(ステップS203)位置推定部252は、ステップS202で行った位置合わせ処理の結果に基づいて、フラッシュ有りで撮影した画像の相対的な位置の推定を行う。   (Step S203) The position estimation unit 252 estimates the relative position of the image captured with the flash based on the result of the alignment process performed in step S202.

位置推定部252は、以下のA〜Cの3つの方法で、フラッシュ有りで撮影した画像の相対的な位置の推定を行う。   The position estimation unit 252 estimates the relative position of an image captured with a flash by the following three methods A to C.

(A)ジャイロセンサ114の出力に基づく位置の推定
位置推定部252は、フラッシュ無しで撮影した4枚の画像(図3の画像161、画像162、画像164および画像165)の少なくとも1枚と、フラッシュ有りで撮影した画像(図3の画像163)とについて、ジャイロセンサ114の出力に基づいて、ステップS202で説明した処理と同様に位置合わせ処理を行い、フラッシュ有りで撮影した画像の位置を推定する。このとき、比較の対象とするのは、フラッシュ無しで撮影した4枚の画像のうち、何れの画像であっても良いが、時間的に近い画像162や画像164を比較の対象とすると好ましい。
(A) Position Estimation Based on Output of Gyro Sensor 114 The position estimation unit 252 includes at least one of four images (image 161, image 162, image 164, and image 165 in FIG. 3) captured without a flash, For the image taken with the flash (image 163 in FIG. 3), alignment processing is performed in the same manner as the processing described in step S202 based on the output of the gyro sensor 114, and the position of the image taken with the flash is estimated. To do. At this time, the comparison target may be any of the four images captured without the flash, but it is preferable to compare the images 162 and 164 that are close in time.

(B)フラッシュ無しで撮影した画像の位置合わせ処理結果に基づく位置の推定
位置推定部252は、ステップS202で説明したフラッシュ無しで撮影した4枚の画像(図3の画像161、画像162、画像164および画像165)間の位置合わせ処理の結果に基づいて、フラッシュ有りで撮影した画像の位置を推定する。
(B) Position Estimation Based on Position Registration Processing Result of Image Taken without Flash The position estimation unit 252 has four images (image 161, image 162, image in FIG. 3) taken without a flash described in step S202. 164 and the image 165) are used to estimate the position of the image taken with the flash.

図8は、各画像の撮影時刻と、位置の関係を示す一例である。図8の横軸は、各画像の撮影時刻(T1〜T5)を示し、縦軸は各画像のX方向の位置を示す。なお、図8において、経過時間(ΔT1〜ΔT4)のうち、ΔT2のみ他の経過時間より長いのは、3枚目の撮影がフラッシュ有りの撮影のため、撮影準備に時間を要するためである。   FIG. 8 is an example showing the relationship between the shooting time and position of each image. The horizontal axis in FIG. 8 indicates the shooting time (T1 to T5) of each image, and the vertical axis indicates the position in the X direction of each image. In FIG. 8, among the elapsed times (ΔT1 to ΔT4), only ΔT2 is longer than the other elapsed times because the third frame is shot with a flash and it takes time to prepare for shooting.

ステップS202の位置合わせ処理の結果、1枚目の画像の撮影時刻=T1、X方向の位置=P1であり、2枚目の画像の撮影時刻=T2、X方向の位置=P2であり、4枚目の画像の撮影時刻=T4、X方向の位置=P4であり、5枚目の画像の撮影時刻=T5、X方向の位置=P4である場合、フラッシュ有りで撮影した画像である3枚目の画像(撮影時刻=T3)のX方向の位置が未知である。   As a result of the alignment processing in step S202, the shooting time of the first image = T1, the position in the X direction = P1, the shooting time of the second image = T2, the position in the X direction = P2, and 4 If the shooting time of the first image = T4, the position in the X direction = P4, the shooting time of the fifth image = T5, and the position in the X direction = P4, three images taken with the flash The position in the X direction of the eye image (shooting time = T3) is unknown.

そこで、位置推定部252は、まず、フラッシュ無しで撮影した4枚の画像について、撮影時刻とX方向の位置との関係をプロットし、これらの点を通るスプライン曲線Lを作成する。そして、スプライン曲線L上において、撮影時刻T3に対応するX方向の位置を、フラッシュ有りで撮影した画像である3枚目の画像のX方向の位置(=P3)とする。   Therefore, the position estimation unit 252 first plots the relationship between the shooting time and the position in the X direction for four images shot without a flash, and creates a spline curve L that passes through these points. On the spline curve L, the position in the X direction corresponding to the shooting time T3 is set as the position in the X direction (= P3) of the third image, which is an image shot with flash.

なお、フラッシュ無しで撮影した画像が2枚の場合には、スプライン曲線に代えて一時補間を行えばよい。   If there are two images taken without a flash, temporary interpolation may be performed instead of the spline curve.

また、位置推定部252は、Y方向についても、X方向と同様の処理を行い、フラッシュ有りで撮影した画像である3枚目の画像のY方向の位置を推定する。   Also, the position estimation unit 252 performs the same process as the X direction for the Y direction, and estimates the position of the third image, which is an image taken with a flash, in the Y direction.

(C)画像情報に基づく位置の推定
位置推定部252は、フラッシュ無しで撮影した4枚の画像(図3の画像161、画像162、画像164および画像165)の少なくとも1枚と、フラッシュ有りで撮影した画像(図3の画像163)とについて、画像情報に基づいて公知技術と同様に位置合わせ処理を行い、フラッシュ有りで撮影した画像の位置を推定する。このとき、比較の対象とするのは、フラッシュ無しで撮影した4枚の画像のうち、何れの画像であっても良いが、時間的に近い画像162や画像164を比較の対象とすると好ましい。
(C) Position Estimation Based on Image Information The position estimation unit 252 includes at least one of four images (image 161, image 162, image 164, and image 165 in FIG. 3) taken without a flash and a flash. With respect to the photographed image (image 163 in FIG. 3), alignment processing is performed based on the image information in the same manner as a known technique, and the position of the photographed image with the flash is estimated. At this time, the comparison target may be any of the four images captured without the flash, but it is preferable to compare the images 162 and 164 that are close in time.

なお、位置推定部252は、位置合わせ処理に先立って、フラッシュ有りで撮影した画像に対して所定のゲイン調整を行ってから、位置合わせ処理を行っても良い。上述した所定のゲイン調整とは、フラッシュ有りで撮影した画像の背景部分の輝度レベルを、フラッシュ無しで撮影した画像の背景部分の輝度レベルに合わせるための調整である。このようなゲイン調整を行うことにより、フラッシュ有りで撮影した画像の背景部分に写っている点光源などの高輝度部分を、フラッシュ無しで撮影した画像の相当部分と比較可能な程度に強調することができる。なお、ゲイン調整は、フラッシュ有りで撮影した画像のコピーに対して行っても良いし、フラッシュ有りで撮影した画像そのものに行っても良い。フラッシュ有りで撮影した画像そのものにゲイン調整を行った場合には、位置の推定後に逆方向のゲイン調整を行えば良い。   Note that the position estimation unit 252 may perform the alignment process after performing a predetermined gain adjustment on the image captured with the flash prior to the alignment process. The predetermined gain adjustment described above is an adjustment for adjusting the luminance level of the background portion of the image photographed with the flash to the luminance level of the background portion of the image photographed without the flash. By performing such gain adjustment, highlight high-intensity parts such as point light sources in the background part of images taken with a flash so that they can be compared with the equivalent parts of images taken without a flash. Can do. The gain adjustment may be performed on a copy of an image photographed with a flash, or may be performed on an image itself photographed with a flash. When gain adjustment is performed on the image itself taken with the flash, the gain adjustment in the reverse direction may be performed after the position is estimated.

位置推定部252は、上述した3つの方法の何れか1つを行ってフラッシュ有りで撮影した画像の位置を推定しても良いし、2つ以上の方法を組み合わせても良い。例えば、(A)で説明した推定の結果に基づいて、(B)と(C)との少なくとも一方の推定処理の処理範囲を限定することにより、処理負荷を軽減するとともに、効率よく推定処理を行うことができる。同様に、(B)で説明した推定の結果に基づいて、(C)の推定処理の処理範囲を限定することにより、処理負荷を軽減するとともに、効率よく推定処理を行うことができる。   The position estimation unit 252 may estimate the position of an image captured with a flash by performing any one of the three methods described above, or may combine two or more methods. For example, by limiting the processing range of at least one of the estimation processes (B) and (C) based on the estimation result described in (A), the processing load is reduced and the estimation process is efficiently performed. It can be carried out. Similarly, by limiting the processing range of the estimation process of (C) based on the estimation result described in (B), the processing load can be reduced and the estimation process can be performed efficiently.

さらに、上述した各種方法のうち、どのような方法で推定処理を行うかは、操作部111を介したユーザ操作に基づいて指定可能としても良い。   Further, of the various methods described above, which method is used for the estimation process may be specified based on a user operation via the operation unit 111.

(ステップS204)合成処理部253は、ステップS202で行った位置合わせ処理の結果と、ステップS203で行った位置の推定の結果とに基づいて、ステップS201で読み出した複数枚の画像の合成処理を行う。   (Step S204) The composition processing unit 253 performs the composition processing of the plurality of images read out in step S201 based on the result of the alignment process performed in step S202 and the result of the position estimation performed in step S203. Do.

合成処理は、公知技術と同様に行われる。合成処理部253は、例えば、位置合わせや位置の推定の結果に基づいて、合成位置を決定し、各画像の対応する画素の信号を加算または平均する。また、カラー画像の場合は、各色毎に同様の処理を行う。   The synthesizing process is performed in the same manner as a known technique. For example, the composition processing unit 253 determines a composition position based on the result of alignment or position estimation, and adds or averages the signals of the corresponding pixels of each image. In the case of a color image, the same processing is performed for each color.

なお、合成処理によって生成される画像は、手ぶれなどの影響により画角がずれているので合成後の画像に違和感が生じる場合がある。このような場合には、合成後の処理として、画像161から画像165までの画角の重複する部分を切り取るトリミング処理を行い、トリミング後の画像を最終画像としてメモリカード112aに保存するようにしてもよい。   Note that the angle of view of the image generated by the synthesis process is shifted due to the influence of camera shake or the like, so that there may be a feeling of strangeness in the synthesized image. In such a case, as a post-combination process, a trimming process is performed to cut out overlapping portions of the angle of view from the image 161 to the image 165, and the trimmed image is stored in the memory card 112a as a final image. Also good.

(ステップS205)画像処理部107は、合成処理部253による合成処理によって生成された画像を出力する。なお、合成後の画像は、次の撮影が行われるまで、一旦、画像バッファ106に保持される。そして、制御部108は、画像バッファ106に保持されている合成後の画像を表示部110に表示するとともに、合成後の画像の画像データに予め決められたファイル名(例えば通し番号や撮影日時など)を自動的に付加してメモリカードIF112を介してメモリカード112aに保存する。   (Step S <b> 205) The image processing unit 107 outputs an image generated by the composition processing by the composition processing unit 253. Note that the combined image is temporarily held in the image buffer 106 until the next shooting is performed. Then, the control unit 108 displays the combined image held in the image buffer 106 on the display unit 110 and a file name (for example, a serial number and a shooting date / time) determined in advance for the image data of the combined image. Is automatically added and stored in the memory card 112a via the memory card IF 112.

このようにして、本実施形態に係る電子カメラ101は、複数の非発光撮影画像を互いに比較し、複数の非発光撮影画像間のずれ量を算出するとともに、算出されたずれ量に基づいて、発光撮影画像の相対的なずれ量を推定する。したがって、輝度が大きく異なる画像の重ね合せを行う場合に、被写体の位置合わせを正確に行うことができる。   In this way, the electronic camera 101 according to the present embodiment compares a plurality of non-light-emitting captured images with each other, calculates a shift amount between the plurality of non-light-emitting captured images, and based on the calculated shift amount, A relative shift amount of the luminescence image is estimated. Therefore, the subject can be accurately aligned when superimposing images with greatly different luminances.

また、本実施形態に係る電子カメラ101は、複数の非発光撮影画像間のずれ量と、推定した発光撮影画像の相対的なずれ量とに基づいて、複数枚の画像を合成する合成処理を行う。したがって、背景はノイズが少なく、画面全体が適切な明るさの合成画像を得ることができる。   In addition, the electronic camera 101 according to the present embodiment performs a combining process for combining a plurality of images based on a shift amount between a plurality of non-light-emitting captured images and an estimated relative shift amount of the light-emitting captured images. Do. Therefore, the background has less noise, and a composite image having an appropriate brightness on the entire screen can be obtained.

(変形例)
上記実施形態では、連写する枚数が5枚で、3枚目のみフラッシュ有りで撮影を行い、前後の2枚ずつはフラッシュ無しで撮影を行う例を示したが、本発明はこの例に限定されない。例えば、連写する枚数は、フラッシュ有り撮影とフラッシュ無し撮影との両方が含まれ、3枚以上であれば何枚であっても良い。
(Modification)
In the above-described embodiment, the number of continuous shots is five, and only the third image is shot with flash, and the previous and second images are shot without flash. However, the present invention is limited to this example. Not. For example, the number of continuous shots includes both shooting with flash and shooting without flash, and may be any number as long as it is three or more.

例えば、フラッシュ無し撮影、フラッシュ有り撮影、フラッシュ無し撮影の順に3枚の連写を行う場合には、前後のフラッシュ無し撮影により生成した画像間の位置合わせ処理の結果に基づいて、真ん中のフラッシュ有り撮影により生成した画像の相対的なずれ量を推定することができる。逆に、フラッシュ有り撮影、フラッシュ無し撮影、フラッシュ有り撮影の順に3枚の連写を行う場合には、前後のフラッシュ有り撮影により生成した画像間の位置合わせ処理の結果に基づいて、真ん中のフラッシュ無し撮影により生成した画像の相対的なずれ量を推定することができる。何れの場合も、写っている被写体が略同様である画像同士の比較により位置合わせ処理を行い、その結果に基づいて、位置が未知の画像の相対的な位置を推定すればよい。   For example, in the case of three consecutive shots in order of shooting without flash, shooting with flash, and shooting without flash, there is a flash in the middle based on the result of alignment processing between images generated by shooting without flash before and after It is possible to estimate a relative shift amount of an image generated by photographing. On the other hand, when three consecutive shots are taken in the order of shooting with flash, shooting without flash, and shooting with flash, the middle flash is based on the result of registration processing between the images generated by shooting with flash before and after. It is possible to estimate a relative shift amount of an image generated by non-photographing. In any case, alignment processing may be performed by comparing images in which the captured subjects are substantially the same, and the relative position of an image whose position is unknown may be estimated based on the result.

また、フラッシュ有り撮影により生成した画像が2枚以上であっても良い。フラッシュ有り撮影により生成した画像が時間的に連続している場合、まず、これらのフラッシュ有り撮影により生成した画像間の位置合わせ処理を行い、合成処理を行う。そして、合成処理後のフラッシュ有り撮影により生成した画像の相対的な位置を、上記実施形態と同様に推定すればよい。また、フラッシュ有り撮影により生成した画像が離散的に生成される(時間的に連続していない)場合、フラッシュ有り撮影により生成した画像ごとに、その前後のフラッシュ無し撮影により生成した画像に基づいて、上記実施形態と同様の処理を行えばよい。   Further, two or more images generated by shooting with flash may be used. When images generated by shooting with flash are temporally continuous, first, alignment processing between images generated by shooting with flash is performed, and then synthesis processing is performed. And the relative position of the image produced | generated by the imaging | photography with flash | flush after a synthesis process should just be estimated similarly to the said embodiment. In addition, when images generated by shooting with flash are generated discretely (not temporally continuous), each image generated by shooting with flash is based on images generated by shooting without flash before and after the shooting. The same processing as in the above embodiment may be performed.

また、上記実施形態においては、電子カメラ101に「合成撮影モード」を備え、この「合成撮影モード」の実行時に一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、「夜景モード」など、本発明の処理が有効な撮影モードがユーザに選択された際に、自動で一連の処理を行っても良い。また、被写体情報など基づいてカメラ側で撮影モードを設定する構成においては、本発明の処理が有効と判断できる場合に自動で一連の処理を行っても良い。また、上記実施形態で説明した一連の処理を、その他の処理と組み合わせて実行しても良い。   In the above-described embodiment, the electronic camera 101 is provided with the “composite shooting mode”, and the series of processing is performed when the “composite shooting mode” is executed. However, the present invention is not limited to this example. For example, when a user selects a shooting mode in which the processing of the present invention is effective, such as “night scene mode”, a series of processing may be automatically performed. In the configuration in which the shooting mode is set on the camera side based on subject information and the like, a series of processing may be automatically performed when it can be determined that the processing of the present invention is effective. The series of processes described in the above embodiment may be executed in combination with other processes.

また、上記実施形態で説明した電子カメラの構成は一例であり、本発明はこの例に限定されない。例えば、一眼レフタイプのカメラであっても良いし、携帯電話などの情報端末に搭載されたカメラであっても良い。何れの場合も、上述した一連の処理を実行可能なプログラムを予め記憶していれば良い。また、上記実施形態で説明した処理をコンピュータで実現するためのプログラムも本発明の具体的態様として有効である。このプログラムは、媒体に記録されたものであっても良いし、インターネットなどの通信を介してサーバーなどからダウンロード可能なものであっても良い。   The configuration of the electronic camera described in the above embodiment is an example, and the present invention is not limited to this example. For example, a single-lens reflex camera or a camera mounted on an information terminal such as a mobile phone may be used. In any case, a program that can execute the above-described series of processes may be stored in advance. A program for realizing the processing described in the above embodiment by a computer is also effective as a specific aspect of the present invention. This program may be recorded on a medium, or may be downloaded from a server or the like via communication such as the Internet.

以上、本発明に係る画像処理装置および電子カメラ、並びに画像処理プログラムについて、各実施形態で例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   As described above, the image processing apparatus, the electronic camera, and the image processing program according to the present invention have been described by way of example in each embodiment. However, in various other forms without departing from the spirit or main features thereof. Can be implemented. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

101…電子カメラ,104…撮像素子,107…画像処理部,108…制御部,113…補助光源,114…ジャイロセンサ,201…合成部,251…位置合わせ処理部,252…位置推定部,253…合成処理部,301…合成画像撮影制御部 DESCRIPTION OF SYMBOLS 101 ... Electronic camera, 104 ... Image pick-up element, 107 ... Image processing part, 108 ... Control part, 113 ... Auxiliary light source, 114 ... Gyro sensor, 201 ... Composition part, 251 ... Positioning process part, 252 ... Position estimation part, 253 ... Composition processing unit 301 ... Composite image photographing control unit

Claims (15)

補助光源による発光の有無が異なる2種類の画像からなり、前記2種類の画像のうち一方の種類の画像の前後に、前記発光の有無が異なる他方の種類の画像を少なくとも1枚ずつ含む時間的に連続して撮影された複数枚の画像を入力する画像入力部と、
前記2種類の画像のうち一方の種類の複数の前記画像を互いに比較し、前記一方の種類の複数の前記画像間のずれ量を算出する算出部と、
前記算出部により算出された前記ずれ量に基づいて、前記2種類の画像のうち前記他方の種類の前記画像の相対的なずれ量を推定する推定部と
を有することを特徴とする画像処理装置。
It consists of two types of images that differ in the presence or absence of light emission by the auxiliary light source, and includes at least one image of the other type that differs in the presence or absence of the light emission before and after one of the two types of images. An image input unit for inputting a plurality of images taken continuously,
A calculation unit that compares the plurality of images of one type of the two types of images with each other, and calculates a shift amount between the plurality of images of the one type;
An image processing apparatus comprising: an estimation unit configured to estimate a relative shift amount of the other type of the image among the two types of images based on the shift amount calculated by the calculation unit. .
請求項1に記載の画像処理装置において、
前記画像入力部は、前記補助光源を発光させて撮影した少なくとも1枚の発光撮影画像と、前記少なくとも1枚の発光撮影画像の前後に前記補助光源を発光させずに撮影した少なくとも1枚ずつの非発光撮影画像とを含む時間的に連続して撮影された複数枚の画像を入力し、
前記算出部は、複数の前記非発光撮影画像を互いに比較し、複数の前記非発光撮影画像間の前記ずれ量を算出し、
前記推定部は、前記算出部により算出された前記ずれ量に基づいて、前記少なくとも1枚の発光撮影画像の相対的なずれ量を推定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image input unit includes at least one light-emitting photographed image taken by emitting the auxiliary light source, and at least one piece photographed without emitting the auxiliary light source before and after the at least one light-emitting photographed image. Enter multiple images taken continuously in time, including non-flash images,
The calculation unit compares a plurality of the non-light-emitting captured images with each other, calculates the shift amount between the plurality of non-light-emitting captured images,
The image processing apparatus, wherein the estimating unit estimates a relative shift amount of the at least one light-emitting photographed image based on the shift amount calculated by the calculation unit.
請求項1または請求項2に記載の画像処理装置において、
前記算出部による算出結果と、前記推定部による推定結果とに基づいて、前記画像入力部により入力した前記複数枚の画像を合成する合成処理を行う画像合成部をさらに有する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
An image synthesizing unit that performs a synthesizing process for synthesizing the plurality of images input by the image input unit based on a calculation result by the calculation unit and an estimation result by the estimation unit. Processing equipment.
請求項1から請求項3の何れか1項に記載の画像処理装置において、
前記推定部は、前記画像入力部により入力した前記複数枚の画像の撮影時刻と、各画像の位置との関係について、内挿処理を行うことにより、前記ずれ量を推定する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The estimation unit estimates the shift amount by performing an interpolation process on the relationship between the shooting time of the plurality of images input by the image input unit and the position of each image. Image processing device.
請求項1から請求項4の何れか1項に記載の画像処理装置において、
前記画像入力部は、前記複数枚の画像が撮影された際の撮像装置の動き情報を、前記複数枚の画像とともに入力し、
前記算出部は、前記動き情報を加味して前記ずれ量を算出し、
前記推定部は、前記動き情報を加味して前記ずれ量を推定する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The image input unit inputs movement information of the imaging device when the plurality of images are taken together with the plurality of images,
The calculation unit calculates the shift amount in consideration of the motion information,
The said estimation part estimates the said deviation | shift amount in consideration of the said motion information. The image processing apparatus characterized by the above-mentioned.
請求項1から請求項5の何れか1項に記載の画像処理装置において、
前記推定部は、前記2種類の画像のうち前記補助光源を発光させて撮影した少なくとも1枚の画像に対して所定のゲイン調整を行い、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像と、前記2種類の画像のうち前記補助光源を発光させずに撮影した少なくとも1枚の画像とを比較し、比較結果を加味して前記ずれ量を推定する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5,
The estimation unit performs a predetermined gain adjustment on at least one image captured by emitting the auxiliary light source among the two types of images, and captured the auxiliary light source after the gain adjustment. Comparing at least one image and at least one image of the two types of images taken without causing the auxiliary light source to emit light, and estimating the amount of deviation in consideration of the comparison result. An image processing apparatus.
請求項6に記載の画像処理装置において、
前記推定部は、前記補助光源を発光させずに撮影した少なくとも1枚の画像における高輝度部分の画像と、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像において前記高輝度部分に対応する部分の画像とを比較する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 6.
The estimation unit includes the high brightness portion in an image of a high-intensity portion in at least one image captured without causing the auxiliary light source to emit light, and in at least one image captured by emitting the auxiliary light source after the gain adjustment. An image processing apparatus that compares an image of a portion corresponding to a luminance portion.
時間的に連続して複数枚の画像を撮影する撮像部と、
補助光源を発光する発光部と、
前記複数枚の画像のうち予め設定した時間位置の画像を撮影する時に前記発光部の前記補助光源を発光させ、補助光源による発光の有無が異なる2種類の画像からなり、前記2種類の画像のうち一方の種類の画像の前後に、前記発光の有無が異なる他方の種類の画像を少なくとも1枚ずつ含む時間的に連続して撮影された複数枚の画像を前記撮像部により生成させる制御部と、
前記2種類の画像のうち一方の種類の複数の前記画像を互いに比較し、前記一方の種類の複数の前記画像間のずれ量を算出する算出部と、
前記算出部により算出された前記ずれ量に基づいて、前記2種類の画像のうち前記他方の種類の前記画像の相対的なずれ量を推定する推定部と
を有することを特徴とする電子カメラ。
An imaging unit that captures a plurality of images continuously in time;
A light emitting section for emitting an auxiliary light source;
Of the plurality of images, the auxiliary light source of the light emitting unit is caused to emit light when taking an image at a preset time position, and the two types of images are different in the presence or absence of light emission by the auxiliary light source. A control unit for generating, by the imaging unit, a plurality of images taken continuously in time before and after one type of image, including at least one image of the other type with or without the emission of light. ,
A calculation unit that compares the plurality of images of one type of the two types of images with each other, and calculates a shift amount between the plurality of images of the one type;
An electronic camera comprising: an estimation unit configured to estimate a relative shift amount of the other type of the image among the two types of images based on the shift amount calculated by the calculation unit.
請求項8に記載の電子カメラにおいて、
前記制御部は、前記補助光源を発光させて撮影した少なくとも1枚の発光撮影画像と、前記少なくとも1枚の発光撮影画像の前後に前記補助光源を発光させずに撮影した少なくとも1枚ずつの非発光撮影画像とを含む時間的に連続して撮影された複数枚の画像を前記撮像部により生成させ、
前記算出部は、複数の前記非発光撮影画像を互いに比較し、複数の前記非発光撮影画像間の前記ずれ量を算出し、
前記推定部は、前記算出部により算出された前記ずれ量に基づいて、前記少なくとも1枚の発光撮影画像の相対的なずれ量を推定する
ことを特徴とする電子カメラ。
The electronic camera according to claim 8,
The control unit includes at least one light-emitting photographed image taken by emitting the auxiliary light source and at least one non-photographed image taken without causing the auxiliary light source to emit light before and after the at least one light-emitting photographed image. A plurality of images that are continuously captured in time including a flash image are generated by the imaging unit,
The calculation unit compares a plurality of the non-light-emitting captured images with each other, calculates the shift amount between the plurality of non-light-emitting captured images,
The electronic camera is characterized in that the estimation unit estimates a relative shift amount of the at least one light-emitting photographed image based on the shift amount calculated by the calculation unit.
請求項8または請求項9に記載の電子カメラにおいて、
前記算出部による算出結果と、前記推定部による推定結果とに基づいて、前記撮像部により生成した前記複数枚の画像を合成する合成処理を行う画像合成部をさらに有する
ことを特徴とする電子カメラ。
The electronic camera according to claim 8 or 9,
An electronic camera further comprising: an image composition unit that performs composition processing for compositing the plurality of images generated by the imaging unit based on a calculation result by the calculation unit and an estimation result by the estimation unit. .
請求項8から請求項10の何れか1項に記載の電子カメラにおいて、
前記推定部は、前記撮像部により生成した前記複数枚の画像の撮影時刻と、各画像の位置との関係について、内挿処理を行うことにより、前記ずれ量を推定する
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 8 to 10,
The estimation unit estimates the shift amount by performing an interpolation process on the relationship between the shooting time of the plurality of images generated by the imaging unit and the position of each image. camera.
請求項8から請求項11の何れか1項に記載の電子カメラにおいて、
前記撮像部による撮影時の電子カメラの動きを検出する検出部をさらに備え、
前記算出部は、前記検出部により検出した動き情報を加味して前記ずれ量を算出し、
前記推定部は、前記動き情報を加味して前記ずれ量を推定する
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 8 to 11,
A detection unit for detecting movement of the electronic camera during shooting by the imaging unit;
The calculation unit calculates the shift amount in consideration of motion information detected by the detection unit,
The said estimation part estimates the said deviation | shift amount in consideration of the said motion information. The electronic camera characterized by the above-mentioned.
請求項8から請求項12の何れか1項に記載の電子カメラにおいて、
前記推定部は、前記2種類の画像のうち前記補助光源を発光させて撮影した少なくとも1枚の画像に対して所定のゲイン調整を行い、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像と、前記2種類の画像のうち前記補助光源を発光させずに撮影した少なくとも1枚の画像とを比較し、比較結果を加味して前記ずれ量を推定する
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 8 to 12,
The estimation unit performs a predetermined gain adjustment on at least one image captured by emitting the auxiliary light source among the two types of images, and captured the auxiliary light source after the gain adjustment. Comparing at least one image and at least one image of the two types of images taken without causing the auxiliary light source to emit light, and estimating the amount of deviation in consideration of the comparison result. Electronic camera.
請求項13に記載の電子カメラにおいて、
前記推定部は、前記補助光源を発光させずに撮影した少なくとも1枚の画像における高輝度部分の画像と、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像において前記高輝度部分に対応する部分の画像とを比較する
ことを特徴とする電子カメラ。
The electronic camera according to claim 13.
The estimation unit includes the high brightness portion in an image of a high-intensity portion in at least one image captured without causing the auxiliary light source to emit light, and in at least one image captured by emitting the auxiliary light source after the gain adjustment. An electronic camera characterized by comparing an image of a portion corresponding to a luminance portion.
補助光源による発光の有無が異なる2種類の画像からなり、前記2種類の画像のうち一方の種類の画像の前後に、前記発光の有無が異なる他方の種類の画像を少なくとも1枚ずつ含む時間的に連続して撮影された複数枚の画像を入力する画像入力手順と、
前記2種類の画像のうち一方の種類の複数の前記画像を互いに比較し、前記一方の種類の複数の前記画像間のずれ量を算出する算出手順と、
前記算出部により算出された前記ずれ量に基づいて、前記2種類の画像のうち前記他方の種類の前記画像の相対的なずれ量を推定する推定手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。
It consists of two types of images that differ in the presence or absence of light emission by the auxiliary light source, and includes at least one image of the other type that differs in the presence or absence of the light emission before and after one of the two types of images. An image input procedure to input multiple images taken consecutively,
A calculation procedure for comparing the plurality of images of one type of the two types of images with each other and calculating a shift amount between the plurality of images of the one type;
A computer is configured to execute an estimation procedure for estimating a relative shift amount of the other type of the two types of images based on the shift amount calculated by the calculation unit. Image processing program.
JP2011290244A 2011-12-29 2011-12-29 Image processing device, electronic camera, and image processing program Pending JP2013141105A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011290244A JP2013141105A (en) 2011-12-29 2011-12-29 Image processing device, electronic camera, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011290244A JP2013141105A (en) 2011-12-29 2011-12-29 Image processing device, electronic camera, and image processing program

Publications (1)

Publication Number Publication Date
JP2013141105A true JP2013141105A (en) 2013-07-18

Family

ID=49038189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011290244A Pending JP2013141105A (en) 2011-12-29 2011-12-29 Image processing device, electronic camera, and image processing program

Country Status (1)

Country Link
JP (1) JP2013141105A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015040967A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Imaging apparatus and its control method, program and storage medium
US9712756B2 (en) 2013-08-21 2017-07-18 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP2019534515A (en) * 2016-11-03 2019-11-28 クゥアルコム・インコーポレイテッドQualcomm Incorporated Improved depth map image for mobile devices
US10942607B2 (en) 2015-11-13 2021-03-09 Maxell, Ltd. Manipulation detection device and video display system that are capable detecting an object on a video display surface
JP7009698B1 (en) 2020-10-07 2022-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Control device, image pickup device, control method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015040967A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Imaging apparatus and its control method, program and storage medium
US9712756B2 (en) 2013-08-21 2017-07-18 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US10003753B2 (en) 2013-08-21 2018-06-19 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US10313604B2 (en) 2013-08-21 2019-06-04 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US10506173B2 (en) 2013-08-21 2019-12-10 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US10942607B2 (en) 2015-11-13 2021-03-09 Maxell, Ltd. Manipulation detection device and video display system that are capable detecting an object on a video display surface
JP2019534515A (en) * 2016-11-03 2019-11-28 クゥアルコム・インコーポレイテッドQualcomm Incorporated Improved depth map image for mobile devices
JP7009698B1 (en) 2020-10-07 2022-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Control device, image pickup device, control method, and program
JP2022061603A (en) * 2020-10-07 2022-04-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Control device, imaging apparatus, control method and program

Similar Documents

Publication Publication Date Title
TWI508555B (en) Image processing apparatus and image processing method for performing image synthesis
KR101626780B1 (en) Imaging apparatus, image processing method, and image processing program
JP2012195660A (en) Image processing apparatus and electronic camera, and image processing program
JP6841933B2 (en) Image pickup device, finder device, control method of image pickup device, control method of finder device, control program of image pickup device and control program of finder device
JP2017108309A (en) Imaging apparatus and imaging method
JP2010213220A (en) Imaging apparatus, and imaging control method
JP6911136B2 (en) Imaging device, information acquisition method and information acquisition program
JP2013141105A (en) Image processing device, electronic camera, and image processing program
JP2008301371A (en) Imaging apparatus and image processing program
JP4865648B2 (en) Imaging device
JP5635450B2 (en) Imaging apparatus, finder and display method thereof
JP2016143951A (en) Image processing apparatus, imaging device, image processing method and image processing program
JP5854716B2 (en) Image processing apparatus, image processing method, and program
JP2003087645A (en) Digital camera
JP2010141609A (en) Imaging apparatus
JP5042453B2 (en) Strobe control device, strobe control program, strobe control method
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP6231814B2 (en) EXPOSURE DETERMINING DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM
JP4622668B2 (en) Electronic camera and image processing program
JP2012163679A (en) Imaging device, stroboscope control method, and stroboscope control program
JP2020129753A (en) Imaging apparatus and imaging method
JP2009182832A (en) Photographing device and through image displaying method
JP2008005248A (en) Imaging apparatus
JP2006157342A (en) Imaging apparatus
JP2009139423A (en) Imaging apparatus and subject distance calculating method