JP2013141105A - Image processing device, electronic camera, and image processing program - Google Patents
Image processing device, electronic camera, and image processing program Download PDFInfo
- Publication number
- JP2013141105A JP2013141105A JP2011290244A JP2011290244A JP2013141105A JP 2013141105 A JP2013141105 A JP 2013141105A JP 2011290244 A JP2011290244 A JP 2011290244A JP 2011290244 A JP2011290244 A JP 2011290244A JP 2013141105 A JP2013141105 A JP 2013141105A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- unit
- emitting
- shift amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理技術に関する。 The present invention relates to an image processing technique.
従来より、明るい部分を適正露光で撮影した画像と、暗い部分を適正露光で撮影した画像とを合成する手法が知られている。この手法は、例えば、電子カメラで撮影可能なダイナミックレンジを越える画像を撮影する場合、明るい部分の白飛びや暗い部分の黒潰れが生じるという問題に対応する場合などに用いられている。例えば、特許文献1の発明では、画像を重ね合わせる処理において、画像を分割して特徴検出を行った後、画像位置を合わせることにより、正確に被写体が重なるように被写体の位置を合わせる技術が検討されている。 Conventionally, a method for synthesizing an image obtained by photographing a bright part with appropriate exposure and an image obtained by photographing a dark part with appropriate exposure is known. This technique is used, for example, when dealing with the problem that bright areas are over-exposure and dark areas are black-out when an image exceeding the dynamic range that can be imaged with an electronic camera is taken. For example, in the invention of Patent Document 1, a technique for aligning the subject so that the subject overlaps accurately by dividing the image and performing feature detection in the process of superimposing the images and then aligning the image positions is studied. Has been.
しかし、特許文献1の発明における合成方法は、輝度が大きく異なる画像の重ね合せを行う際に、被写体の位置合わせを正確に行うことができない場合があった。位置合わせが正確に行われないと、合成処理により生成された画像の画質が低くなるというさらなる問題が発生する。 However, the composition method according to the invention of Patent Document 1 sometimes fails to accurately align the subject when superimposing images with greatly different luminances. If alignment is not performed accurately, there is a further problem that the image quality of the image generated by the synthesis process is lowered.
本発明は、輝度が大きく異なる画像の重ね合せを行う場合に、被写体の位置合わせを正確に行うことを目的とする。 An object of the present invention is to accurately align a subject when superimposing images having greatly different luminances.
本発明の画像処理装置は、補助光源による発光の有無が異なる2種類の画像からなり、前記2種類の画像のうち一方の種類の画像の前後に、前記発光の有無が異なる他方の種類の画像を少なくとも1枚ずつ含む時間的に連続して撮影された複数枚の画像を入力する画像入力部と、前記2種類の画像のうち一方の種類の複数の前記画像を互いに比較し、前記一方の種類の複数の前記画像間のずれ量を算出する算出部と、前記算出部により算出された前記ずれ量に基づいて、前記2種類の画像のうち前記他方の種類の前記画像の相対的なずれ量を推定する推定部とを有する。 The image processing apparatus according to the present invention includes two types of images that differ in the presence or absence of light emission by an auxiliary light source, and the other type of images that differ in the presence or absence of light emission before and after one of the two types of images. An image input unit for inputting a plurality of images taken continuously in time including at least one image and a plurality of images of one type of the two types of images, Based on the shift amount calculated by the calculation unit and a shift unit that calculates the shift amount between the plurality of types of images, the relative shift of the image of the other type among the two types of images. An estimation unit for estimating the quantity.
なお、前記画像入力部は、前記補助光源を発光させて撮影した少なくとも1枚の発光撮影画像と、前記少なくとも1枚の発光撮影画像の前後に前記補助光源を発光させずに撮影した少なくとも1枚ずつの非発光撮影画像とを含む時間的に連続して撮影された複数枚の画像を入力し、前記算出部は、複数の前記非発光撮影画像を互いに比較し、複数の前記非発光撮影画像間の前記ずれ量を算出し、前記推定部は、前記算出部により算出された前記ずれ量に基づいて、前記少なくとも1枚の発光撮影画像の相対的なずれ量を推定しても良い。 The image input unit includes at least one light-emitting photographed image taken by emitting the auxiliary light source, and at least one picture taken without emitting the auxiliary light source before and after the at least one light-emitting photographed image. A plurality of images taken continuously in time including each non-light-emitting photographed image, and the calculation unit compares the plurality of non-light-emitting photographed images with each other to obtain a plurality of the non-light-emitting photographed images. The shift amount may be calculated in between, and the estimation unit may estimate a relative shift amount of the at least one light-emitting photographed image based on the shift amount calculated by the calculation unit.
また、前記算出部による算出結果と、前記推定部による推定結果とに基づいて、前記画像入力部により入力した前記複数枚の画像を合成する合成処理を行う画像合成部をさらに有しても良い。 Further, the image processing apparatus may further include an image composition unit that performs composition processing for compositing the plurality of images input by the image input unit based on the calculation result by the calculation unit and the estimation result by the estimation unit. .
また、前記推定部は、前記画像入力部により入力した前記複数枚の画像の撮影時刻と、各画像の位置との関係について、内挿処理を行うことにより、前記ずれ量を推定しても良い。 In addition, the estimation unit may estimate the deviation amount by performing an interpolation process on the relationship between the shooting time of the plurality of images input by the image input unit and the position of each image. .
また、前記画像入力部は、前記複数枚の画像が撮影された際の撮像装置の動き情報を、前記複数枚の画像とともに入力し、前記算出部は、前記動き情報を加味して前記ずれ量を算出し、前記推定部は、前記動き情報を加味して前記ずれ量を推定しても良い。 In addition, the image input unit inputs motion information of the imaging device when the plurality of images are captured, together with the plurality of images, and the calculation unit takes into account the motion information and the shift amount The estimation unit may estimate the shift amount in consideration of the motion information.
また、前記推定部は、前記2種類の画像のうち前記補助光源を発光させて撮影した少なくとも1枚の画像に対して所定のゲイン調整を行い、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像と、前記2種類の画像のうち前記補助光源を発光させずに撮影した少なくとも1枚の画像とを比較し、比較結果を加味して前記ずれ量を推定しても良い。 Further, the estimation unit performs a predetermined gain adjustment on at least one image captured by causing the auxiliary light source to emit light among the two types of images, and causing the auxiliary light source after the gain adjustment to emit light. Even if at least one photographed image is compared with at least one image photographed without causing the auxiliary light source to emit light among the two types of images, the deviation amount is estimated by taking the comparison result into consideration good.
また、前記推定部は、前記補助光源を発光させずに撮影した少なくとも1枚の画像における高輝度部分の画像と、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像において前記高輝度部分に対応する部分の画像とを比較しても良い。 In addition, the estimation unit may include an image of a high-luminance portion in at least one image captured without causing the auxiliary light source to emit light, and at least one image captured by emitting the auxiliary light source after the gain adjustment. You may compare with the image of the part corresponding to the said high-intensity part.
また、上述した何れかの画像処理装置を有し、前記画像入力部を、撮像部および発光部で構成する電子カメラも本発明の具体的態様として有効である。 An electronic camera having any of the image processing apparatuses described above and having the image input unit composed of an imaging unit and a light emitting unit is also effective as a specific aspect of the present invention.
また、上述した何れかの画像処理装置の機能をコンピュータに実行させるための画像処理プログラムも、本発明の具体的態様として有効である。 An image processing program for causing a computer to execute the functions of any of the above-described image processing apparatuses is also effective as a specific aspect of the present invention.
本発明によれば、輝度が大きく異なる画像の重ね合せを行う場合に、被写体の位置合わせを正確に行うことができる。 According to the present invention, it is possible to accurately align a subject when superimposing images having greatly different luminances.
以下、本発明に係る画像処理装置および電子カメラ、並びに画像処理プログラムの実施形態について図面を用いて詳しく説明する。なお、以下の実施形態では、本発明に係る画像処理装置を含み、本発明に係る画像処理プログラムを利用する電子カメラの例について説明する。 Embodiments of an image processing apparatus, an electronic camera, and an image processing program according to the present invention will be described below in detail with reference to the drawings. In the following embodiment, an example of an electronic camera that includes the image processing apparatus according to the present invention and uses the image processing program according to the present invention will be described.
[電子カメラ101の構成例]
図1は、本実施形態に係る電子カメラ101の構成例を示す図である。図1において、電子カメラ101は、光学系102と、メカニカルシャッタ103と、撮像素子104と、A/D変換部105と、画像バッファ106と、画像処理部107と、制御部108と、メモリ109と、表示部110と、操作部111と、メモリカードIF(インターフェース)112と、補助光源113と、ジャイロセンサ114とで構成される。
[Configuration Example of Electronic Camera 101]
FIG. 1 is a diagram illustrating a configuration example of an
図1において、光学系102に入射される被写体光は、メカニカルシャッタ103を介して撮像素子104の受光面に入射される。ここで、光学系102は、ズームレンズやフォーカスレンズなどの複数枚のレンズおよびレンズ駆動部や絞り機構などを有し、制御部108によって、ズームレンズ位置、フォーカスレンズ位置、絞り値などが制御される。
In FIG. 1, the subject light incident on the
撮像素子104は、例えばCMOS型固体撮像素子で構成され、受光面に二次元状に配置された画素の光電変換部により受光量に応じた画像信号を出力する。
The
A/D変換部105は、撮像素子104が出力する画像信号を各画素毎にデジタル値の画像データに変換し、画像バッファ106に取り込む。
The A /
画像バッファ106は、例えば揮発性の高速メモリで構成される。画像バッファ106は、A/D変換部105が出力する画像データを一時的に記憶するだけでなく、画像処理部107が画像処理を行う時のバッファメモリとしても使用される。或いは撮影時の画像やメモリカードIF112に接続されたメモリカード112aに保存されている撮影済の画像を読み出して表示部110に表示する時の表示メモリとしても使用される。
The
画像処理部107は、画像バッファ106に取り込まれた画像データに対して、ホワイトバランス処理、色補間処理、ガンマ補正処理、彩度強調処理、輪郭強調処理などの画像処理を行う。また、画像処理部107は、画像処理後の画像データに対してJPEG規格などに準拠した画像圧縮方法を用いて圧縮処理を行う。さらに本実施形態に係る電子カメラ101では、後に説明するように、画像処理部107は連写された複数枚の画像を合成する画像合成処理を行う。
The
制御部108は、例えば内部に記憶されたプログラムに従って動作するCPUで構成される。制御部108は電子カメラ101の動作を制御し、例えば操作部111の撮影モード選択ダイヤル111aで電子カメラ101の撮影モードを設定したり、レリーズボタン111bの押下時には光学系102のレンズ制御や絞り制御を行ってメカニカルシャッタ103を開閉し、撮像素子104で被写体画像を撮像する。そして、制御部108は、撮像素子104から予め設定された解像度で画像信号を読み出し、A/D変換部105でデジタル値に変換された画像データを画像バッファ106に取り込む制御を行う。さらに、制御部108は、画像バッファ106に取り込まれた画像データに対して所定の画像処理を施すよう画像処理部107に指令し、画像処理後の画像データ(例えばJPEGデータ)に所定のファイル名やヘッダ情報を付加してメモリカードI/F112を介してメモリカード112aに保存する。或いは、画像バッファ106に取り込まれた画像データを表示部110に撮影画像として表示する。特に、本実施形態に係る電子カメラ101では、撮影モード選択ダイヤル111aで「合成撮影モード」が選択されている場合に、制御部108は、撮像素子104で予め設定された複数枚の画像を連写して画像バッファ106に取り込む。ここで、制御部108は、複数枚の画像を連写する時に予め設定された位置の画像だけ補助光源113を発光させて撮影する。そして、制御部108は、画像処理部107に指令して、取り込まれた複数枚の画像を合成する。なお、画像処理部107の画像合成処理については後で詳しく説明する。
The
メモリ109は、例えばフラッシュメモリなどの不揮発性の半導体メモリで構成される。電子カメラ101の撮影モードや露出情報、フォーカス情報などのパラメータが記憶される。制御部108は、これらのパラメータを参照して電子カメラ101の動作を制御する。特に本実施形態に係る電子カメラ101では、後に説明するように、「合成撮影モード」に関するパラメータがメモリ109に記憶される。なお、これらのパラメータは、操作部111を介して行われるユーザ操作に応じて適宜更新される。
The
表示部110は、液晶モニタなどで構成される。そして、制御部108によって、撮影画像や電子カメラ101の操作に必要な設定メニューなどが表示される。特に本実施形態に係る電子カメラ101では、操作部111の設定メニューボタン111cが押下された時に表示部110にメニュー画面を表示し、使用者は十字キー111dで「合成撮影モード」のパラメータ設定項目を選択して設定内容を変更することができる。
The
操作部111は、撮影モード選択ダイヤル111a、レリーズボタン111b、設定メニューボタン111c、十字キー111dなどで構成される。ユーザは、これらの操作ボタンを操作して電子カメラ101を使用する。例えば撮影モード選択ダイヤル111aでは、「オート撮影モード」、「高感度撮影モード」、「合成撮影モード」などを行う。なお、これらの操作部111の操作情報は制御部108に出力され、制御部108は操作部111から入力する操作情報に応じて電子カメラ101の動作を制御する。
The
メモリカードIF112は、電子カメラ101にメモリカード112aを接続するためのインターフェースである。そして、制御部108はメモリカードIF112を介してメモリカード112aに画像データを読み書きする。特に本実施形態に係る電子カメラ101では、「合成撮影モード」で合成された画像を保存する。なお、「合成撮影モード」で合成する前の複数枚の画像をメモリカード112aに保存するように、「合成撮影モード」の設定メニュー画面で設定できるようにしてもよい。この場合は、「合成撮影モード」でレリーズボタン111bが押下された場合に、連写された複数枚の画像を合成せずにメモリカード112aに保存する。或いは、合成処理を行った画像と連写された複数枚の画像の両方をメモリカード112aに保存するようにしてもよい。さらに、連写された複数枚の画像をまとめて管理できるように、例えば連写枚数が3枚の場合は、「gousei−1.jpg」、「gousei−2.jpg」、「gousei−3.jpg」として、同一名称で関連付けて末尾に撮影順序を示す番号を付加してメモリカード112aに保存する。或いは、「合成撮影モード」で連写撮影する毎にフォルダを作成し、連写された複数枚の画像を1つのフォルダにまとめて保存するようにしてもよい。または、画像ファイルのヘッダ情報として、複数枚の画像を関連付ける独自の情報を付加してもよい。さらに、この場合、補助光源113を発光して撮影された画像であるか否かの情報も付加するようにしてもよい。これにより、後から合成処理を行う際に、この情報を利用して同様の処理を行うことができる。また、ジャイロセンサ114による出力に基づく情報も付加するようにしてもよい。これにより、後から合成処理を行う際に、この情報を利用して同様の処理を行うことができる。
The memory card IF 112 is an interface for connecting the
補助光源113は、一般的なカメラに搭載されているフラッシュに相当し、撮影時に被写体に対して閃光を発する発光素子で構成される。そして、制御部108が指令するタイミングで閃光を発する。
The auxiliary
ジャイロセンサ114は、電子カメラ101の姿勢を検出するセンサであり、電子カメラ101の動きを角度や角速度の指標で検出するものである。ジャイロセンサ114の構成は公知技術と同様であるため説明を省略する。なお、ジャイロセンサ114は、後述する合成処理に用いる情報を取得するためだけに備えられたものでも良いし、手ぶれ補正機能などに利用するために備えられたものを兼用しても良い。
The
以上が電子カメラ101の構成および基本動作である。なお、電子カメラ101ではなく、本発明に係る単体の画像処理装置を構成する場合は、図1において、光学系102、メカニカルシャッタ103、撮像素子104、A/D変換部105、補助光源113およびジャイロセンサ114で構成される撮像に必要なブロックを取り除いた装置に対応し、メモリカード112aから画像バッファ106に画像データを読み出す制御部108の処理が画像処理装置の画像入力部の処理に対応する。そして、制御部108(画像処理装置の制御部に相当)は、撮影済みの画像データをメモリカード112aから画像バッファ106に読み出し、画像処理部107で画像処理を行って表示部110に表示する。或いは、画像処理後の画像データを再びメモリカード112aに保存する。ここで、画像処理装置の場合は、操作部111は、レリーズボタン111bの代わりにメモリカード112aから撮影済みの画像を画像バッファ106に読み出すための再生ボタンを設け、表示部110に表示された撮影済みの画像の中から画像処理を行う画像を十字キー111dで選択する。また、撮影モード選択ダイヤル111aの代わりに画像処理内容を選択するための画像処理選択ダイヤルを設け、十字キー111dで選択された画像に対して、画像処理選択ダイヤルで選択された画像処理を行う。例えば、画像処理選択ダイヤルで「合成処理モード」を選択すると、十字キー111dで選択された画像に対応する連写撮影された複数枚の画像データをメモリカード112aから画像バッファ106に読み出す。そして、画像バッファ106に読み出された連写された複数枚の画像データを画像処理部107で合成する処理は、電子カメラ101の場合と同じである。このように、電子カメラ101の「合成撮影モード」で撮影された複数枚の画像が記憶されたメモリカード112aから画像データを読み出して合成処理を行う専用の画像処理装置としても実現可能である。
The above is the configuration and basic operation of the
なお、画像処理装置をコンピュータで実現しても構わない。この場合、制御部108はコンピュータのCPUに相当し、コンピュータのメモリカードIFに接続されたメモリカード112aから画像データを読み込んで表示部110の代わりにモニタに表示する。なお、画像合成プログラムがコンピュータにインストールされているものとする。
Note that the image processing apparatus may be realized by a computer. In this case, the
[合成撮影モード]
次に、本実施形態に係る電子カメラ101の「合成撮影モード」について説明する。一般に、電子カメラで撮影可能なダイナミックレンジを越える被写体(夜景など)を撮影する場合、明るい部分の白飛びや暗い部分の黒潰れが生じる。そこで、明るい部分を適正露光で撮影した画像と、暗い部分を適正露光で撮影した画像とを合成して、明るい部分も暗い部分もきれいに撮影された画像を作成することが行われている。
[Composite shooting mode]
Next, the “composite shooting mode” of the
例えば図2において、被写体151の例に示すように、夜景を背景として人物を撮影する場合(撮影構図152)、フラッシュ有りで撮影した画像153とフラッシュ無しで撮影した画像154とを合成して、人物と背景の両方を良好な露出(適正または適正に近い露出)になるように合成した画像155を得ることができる。
For example, in FIG. 2, as shown in the example of the subject 151, when a person is photographed against a night scene (shooting composition 152), an
画像153と画像154とを重ね合わせる合成処理では、重ね合わせに先だって位置合わせが行われる。画像153と画像154とでは主要被写体の明るさが大きく異なるため、色の比較や輪郭の比較などによる主要被写体の位置検出や同じ被写体であるか否かの判別を正確に行うことができず、重ね合わせる2つの画像の主要被写体の位置合わせが難しくなる。
In the composition process for superimposing the
特に、図2に示したように夜景を背景として人物を撮影する場合、フラッシュ有りで撮影した画像153には、人物が明るく写っているが背景の夜景は暗く写っている。一方、フラッシュ無しで撮影した画像154には、背景の夜景が明るく写っているが人物は暗く写っている。したがって、これらの画像の位置合わせを行う際には、比較に好適な特徴点が十分に存在せず、十分な位置合わせの精度が得られない可能性がある。位置合わせの精度が低い場合、これらの画像の信号を加算または平均して合成する処理(単純合成と称する)を行った場合、主要被写体の位置がブレて合成され、合成処理により生成される画像の画質が低下する可能性がある。
In particular, as shown in FIG. 2, when a person is photographed with a night view as a background, the
そこで、本実施形態に係る電子カメラ101では、位置合わせの方法を工夫することにより、連写された複数枚の画像の中に輝度が大きく異なる画像がある場合でも、主要被写体の位置ずれが少なくなるように合成することができる。
In view of this, in the
[画像合成方法]
次に、本実施形態に係る電子カメラ101における画像合成方法について説明する。図3は、連写された複数枚の画像例として、連写枚数が5枚の場合の撮影画像例を示してある。図3において、撮影順に、画像161は1枚目(最初)に撮影される画像、画像162は2枚目に撮影される画像、画像163は3枚目に撮影される画像、画像164は4枚目に撮影される画像、画像165は5枚目(最後)に撮影される画像である。また、画像161、画像162、画像164および画像165の4枚はフラッシュ無しで撮影した画像、画像163はフラッシュ有りで撮影した画像である。ここで、フラッシュ無しの撮影では、合成処理により生成される画像において、背景である被写体の明るさが適正露出になるように絞り値やシャッタ速度が制御される。
[Image composition method]
Next, an image composition method in the
なお、図3の例は一例であり、フラッシュ有りで撮影した画像の前後に、少なくとも1枚ずつのフラッシュ無しで撮影した画像が含まれれば、それぞれの画像の枚数および撮影順はどのような組み合わせであっても良い。 Note that the example in FIG. 3 is an example. If images taken without a flash are included before and after an image taken with a flash, any combination of the number of images and the order of shooting are included. It may be.
図3の例に示すように、フラッシュ無しで撮影した4枚の画像(画像161、画像162、画像164および画像165)と、フラッシュ有りで撮影した画像(画像163)を比較すると、写っている被写体が大きく異なる。したがって、これらの画像の画像情報に基づいて位置合わせを行うのは困難である。一方、フラッシュ無しで撮影した4枚の画像(画像161、画像162、画像164および画像165)同士を比較すると、写っている被写体が略同様である。したがって、これらの画像の画像情報に基づいて位置合わせを行うのは比較的容易である。
As shown in the example of FIG. 3, four images (
そこで、本実施形態に係る電子カメラ101では、図3の例のように、連写された複数枚の画像を合成する時の位置合わせの方法を工夫している。先ず、フラッシュ無しで撮影した4枚の画像(画像161、画像162、画像164および画像165)同士を比較して位置合わせを行う。次に、フラッシュ無しで撮影した4枚の画像の位置合わせ結果に基づいて、フラッシュ有りで撮影した画像の相対的な位置を推定する。
In view of this, in the
[画像処理部107の構成例]
次に、画像処理部107の構成例について図4を用いて説明する。なお、図4において、図1と同符号のものは同じものを示す。図4において、画像処理部107は、合成部201を有する。さらに、合成部201は、位置合わせ処理部251と、位置推定部252と、合成処理部253とで構成される。また、制御部108は、操作部111で「合成撮影モード」が選択された場合に、合成画像を生成する処理を実行する合成画像撮影制御部301を有する。
[Configuration Example of Image Processing Unit 107]
Next, a configuration example of the
先ず撮影者は、操作部111の撮影モード選択ダイヤル111aで「合成撮影モード」を選択する。そして、撮影者がレリーズボタン111bを押下すると、制御部108の合成画像撮影制御部301は、メモリ109に予め記憶された「合成撮影モード」のパラメータを参照して撮影を開始する。ここで、メモリ109に記憶された「合成撮影モード」のパラメータは、例えば、連写枚数:5枚、フラッシュ撮影位置:3枚目とする。
First, the photographer selects “composite shooting mode” with the shooting mode selection dial 111 a of the
そして、レリーズボタン111bの押下により、合成画像撮影制御部301は、撮像部104に指令して連写を開始する。ここでは、時間的に連続する2枚の画像を画像バッファ106に取り込んだ後、補助光源113を発光させて3枚目の画像を撮影して画像バッファ106に取り込む。さらに、補助光源113を発光させずに、時間的に連続する2枚の画像を画像バッファ106に取り込む。なお、この段階で、画像バッファ106に取り込まれた5枚の撮影画像をメモリカード112aに保存するようにしてもよい。
When the
次に、合成画像撮影制御部301は、画像処理部107に指令して、画像バッファ106に取り込まれた5枚の撮影画像を合成する処理を画像処理部107に指令する。画像処理部107の合成部202における位置合わせ処理部251は、図3で説明したように、フラッシュ無しで撮影した4枚の画像同士を比較することにより位置合わせを行う。
Next, the composite image capturing
位置推定部252は、位置合わせ処理部251で行われた位置合わせの結果に基づいて、フラッシュ有りで撮影した画像の相対的な位置を推定する。
The
合成処理部253は、位置合わせ処理部251で行われた位置合わせの結果と、位置推定部252で行われたフラッシュ有りで撮影した画像の相対的な位置の推定結果とに基づいて、画像バッファ106に取り込まれた5枚の撮影画像を合成する合成処理を行う。
Based on the result of the alignment performed by the
次に、「合成撮影モード」で画像を撮影する時の処理および撮影された画像を合成する時の詳細な処理についてそれぞれ説明する。 Next, a process for capturing an image in the “composite shooting mode” and a detailed process for combining captured images will be described.
図5は、「合成撮影モード」で画像を撮影する時の処理を示したフローチャートである。なお、図5の処理は、制御部108の合成画像撮影制御部301が行う。
FIG. 5 is a flowchart showing processing when an image is captured in the “composite shooting mode”. 5 is performed by the composite image capturing
(ステップS101)撮影者は、撮影を開始する前に、操作部111の撮影モード選択ダイヤル111aで「合成撮影モード」を選択する。
(Step S101) The photographer selects “composite shooting mode” with the shooting mode selection dial 111a of the
(ステップS102)合成画像撮影制御部301は、撮影者が操作部111のレリーズボタン111bを押下したか否かを判別し、レリーズボタン111bが押下されると次のステップに進む。なお、この時点で、合成画像撮影制御部301は、連写中に次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1(1枚目)に設定する。また、カウンタは、制御部108で実行される画像処理プログラムのソフト的な変数である。
(Step S102) The composite image capturing
(ステップS103)合成画像撮影制御部301は、メモリ109に記憶されている「合成撮影モード」のパラメータを参照して、カウンタのカウント値がフラッシュ撮影する画像位置(ここでの例では3枚目)であるか否かを判別する。そして、フラッシュ撮影する画像位置である場合はステップS104に進み、フラッシュ撮影する画像位置ではない場合はステップS105に進む。
(Step S103) The composite image shooting
(ステップS104)合成画像撮影制御部301は、光学系102の絞り値およびメカニカルシャッタ103のシャッタ速度を制御して補助光源113を発光させ、撮像素子104で撮像した画像をA/D変換部105を介して画像バッファ106に取り込む(フラッシュ有り撮影)。そして、合成画像撮影制御部301は、次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1つ増やす。なお、このフラッシュ撮影では、適正露出になるように制御される。
(Step S <b> 104) The composite image shooting
(ステップS105)合成画像撮影制御部301は、光学系102の絞り値およびメカニカルシャッタ103のシャッタ速度を制御して、撮像素子104で撮像した画像をA/D変換部105を介して画像バッファ106に取り込む(フラッシュ無し撮影)。そして、合成画像撮影制御部301は、次に撮影する画像が何枚目であるかを示すカウンタのカウント値を1つ増やす。なお、この撮影では、合成画像撮影制御部301は、メモリ109に記憶されている「合成撮影モード」のパラメータを参照して撮影する。また、フラッシュ無し撮影での適正露出は、レリーズボタン111b押下時の測光値(例えば撮像素子104の出力から測光)により求められているものとする。
(Step S <b> 105) The composite image capturing
(ステップS106)合成画像撮影制御部301は、カウンタのカウント値が示す撮影済の画像枚数(カウント値は次の撮影画像の枚数なので撮影済みの枚数より1枚多くなっているため1つ減らした枚数とする)がメモリ109に記憶されている「合成撮影モード」の連写枚数に一致するか否かを判別する。そして、連写枚数の撮影が終了している場合は「合成撮影モード」を終了し、連写枚数の撮影が終了していない場合はステップS103に戻って同様の撮影処理を繰り返す。例えば、「合成撮影モード」のパラメータの連写枚数が5枚で、次に撮影する画像が何枚目であるかを示すカウンタのカウント値が6(枚目)である場合は撮影を終了し、カウント値が5枚目以下である場合はステップS103に戻る。
(Step S106) The composite image capturing
このようにして、「合成撮影モード」が撮影モード選択ダイヤル111aで選択されている場合にレリーズボタン111bが押下されると、メモリ109に記憶されている「合成撮影モード」のパラメータに従って、所定の画像位置でフラッシュ撮影が行われ、連写された所定枚数の画像が画像バッファ106に取り込まれる。
In this way, when the “composite shooting mode” is selected with the shooting mode selection dial 111 a, when the
(ステップS107)合成画像撮影制御部301は、ステップS106で画像バッファ106に取り込まれた連写画像を、メモリカードIF112を介してメモリカード112aに保存する。或いは、表示部110に合成画像を表示する。このとき、合成画像撮影制御部301は、各画像に対応づけて撮影時刻を記録する。なお、撮影時刻は、例えば、フラッシュ無しで撮影した画像については、露光開始から露光終了までの中間の時刻を撮影時刻とし、フラッシュ有りで撮影した画像については、フラッシュの発光を開始した時刻を撮影時刻とする。さらに、合成画像撮影制御部301は、各画像に対応づけて、ジャイロセンサ114の出力値も記録する。
(Step S107) The composite image capturing
なお、メモリカード112aをコンピュータや専用の画像処理装置などに接続して「合成撮影モード」で撮影された複数枚の画像の合成処理をコンピュータや画像処理装置で行うことができる。そして、この場合、コンピュータや画像処理装置は、後述する画像合成処理を実行する画像処理プログラムが搭載されている。
The
次に、「合成撮影モード」で連写撮影された複数枚の画像を合成する処理について、図6のフローチャートを用いて説明する。なお、図6の処理は、制御部108の合成画像撮影制御部301の指令により、画像処理部107が行う。なお、画像処理部107は、図4で説明した処理ブロックを有する。
Next, a process of combining a plurality of images continuously shot in the “composite shooting mode” will be described with reference to the flowchart of FIG. The processing in FIG. 6 is performed by the
(ステップS201)位置合わせ処理部251は、画像バッファ106から「合成撮影モード」で撮影された複数枚の画像を読み出す。なお、コンピュータや画像処理装置の場合は、メモリカード112aから「合成撮影モード」で撮影された複数枚の画像を読み出す。
(Step S <b> 201) The
(ステップS202)位置合わせ処理部251は、ステップS201で読み出した複数枚の画像のうち、フラッシュ無しで撮影した4枚の画像間の位置合わせ処理を行う。4枚の画像(図3の画像161、画像162、画像164および画像165)間の位置合わせ処理は、どのような順番で行っても良い。例えば、画像161および画像162の位置合わせと、画像162および画像164の位置合わせと、画像164および画像165の位置合わせとを順次行っても良いし、画像161を基準画像として、画像161および画像162の位置合わせと、画像161および画像164の位置合わせと、画像161および画像165の位置合わせとを順次行っても良い。
(Step S202) The
位置合わせ処理は、公知技術と同様に、画像情報に基づいて行われる。なお、フラッシュ無しで撮影した4枚の画像(図3の画像161、画像162、画像164および画像165)は、何れもフラッシュ無しで撮影された画像なので、主要被写体の露出条件が類似しており、色の比較や輝度の比較などによる主要被写体の位置検出や同じ被写体であるか否かの判別を正確に行うことができる。
The alignment process is performed based on the image information as in the known technique. Note that the four images (
また、位置合わせ処理部251は、位置合わせ処理にジャイロセンサ114の出力値を加味しても良い。例えば、図7に示すように、ジャイロセンサ114の出力値に基づいて、画像の移動量を求め、この移動量を打ち消すようにずれ量を求める。なお、電子カメラ101がレンズシフト機能やセンサシフト機能を有する場合には、ジャイロセンサ114の出力値に、レンズやセンサのシフト量を加味してずれ量を求めればよい。また、ジャイロセンサ114の出力値に基づく位置合わせ処理を行ってから、上述した画像情報に基づいた位置合わせ処理を行うことにより、画像情報に基づいた位置合わせ処理を行う範囲を制限することも可能である。すなわち、ジャイロセンサ114の出力値に基づく位置合わせ処理により大まかな位置合わせを行い、範囲を限定した上で、画像情報に基づいた詳細な位置合わせ処理を行うことができる。
The
(ステップS203)位置推定部252は、ステップS202で行った位置合わせ処理の結果に基づいて、フラッシュ有りで撮影した画像の相対的な位置の推定を行う。
(Step S203) The
位置推定部252は、以下のA〜Cの3つの方法で、フラッシュ有りで撮影した画像の相対的な位置の推定を行う。
The
(A)ジャイロセンサ114の出力に基づく位置の推定
位置推定部252は、フラッシュ無しで撮影した4枚の画像(図3の画像161、画像162、画像164および画像165)の少なくとも1枚と、フラッシュ有りで撮影した画像(図3の画像163)とについて、ジャイロセンサ114の出力に基づいて、ステップS202で説明した処理と同様に位置合わせ処理を行い、フラッシュ有りで撮影した画像の位置を推定する。このとき、比較の対象とするのは、フラッシュ無しで撮影した4枚の画像のうち、何れの画像であっても良いが、時間的に近い画像162や画像164を比較の対象とすると好ましい。
(A) Position Estimation Based on Output of
(B)フラッシュ無しで撮影した画像の位置合わせ処理結果に基づく位置の推定
位置推定部252は、ステップS202で説明したフラッシュ無しで撮影した4枚の画像(図3の画像161、画像162、画像164および画像165)間の位置合わせ処理の結果に基づいて、フラッシュ有りで撮影した画像の位置を推定する。
(B) Position Estimation Based on Position Registration Processing Result of Image Taken without Flash The
図8は、各画像の撮影時刻と、位置の関係を示す一例である。図8の横軸は、各画像の撮影時刻(T1〜T5)を示し、縦軸は各画像のX方向の位置を示す。なお、図8において、経過時間(ΔT1〜ΔT4)のうち、ΔT2のみ他の経過時間より長いのは、3枚目の撮影がフラッシュ有りの撮影のため、撮影準備に時間を要するためである。 FIG. 8 is an example showing the relationship between the shooting time and position of each image. The horizontal axis in FIG. 8 indicates the shooting time (T1 to T5) of each image, and the vertical axis indicates the position in the X direction of each image. In FIG. 8, among the elapsed times (ΔT1 to ΔT4), only ΔT2 is longer than the other elapsed times because the third frame is shot with a flash and it takes time to prepare for shooting.
ステップS202の位置合わせ処理の結果、1枚目の画像の撮影時刻=T1、X方向の位置=P1であり、2枚目の画像の撮影時刻=T2、X方向の位置=P2であり、4枚目の画像の撮影時刻=T4、X方向の位置=P4であり、5枚目の画像の撮影時刻=T5、X方向の位置=P4である場合、フラッシュ有りで撮影した画像である3枚目の画像(撮影時刻=T3)のX方向の位置が未知である。 As a result of the alignment processing in step S202, the shooting time of the first image = T1, the position in the X direction = P1, the shooting time of the second image = T2, the position in the X direction = P2, and 4 If the shooting time of the first image = T4, the position in the X direction = P4, the shooting time of the fifth image = T5, and the position in the X direction = P4, three images taken with the flash The position in the X direction of the eye image (shooting time = T3) is unknown.
そこで、位置推定部252は、まず、フラッシュ無しで撮影した4枚の画像について、撮影時刻とX方向の位置との関係をプロットし、これらの点を通るスプライン曲線Lを作成する。そして、スプライン曲線L上において、撮影時刻T3に対応するX方向の位置を、フラッシュ有りで撮影した画像である3枚目の画像のX方向の位置(=P3)とする。
Therefore, the
なお、フラッシュ無しで撮影した画像が2枚の場合には、スプライン曲線に代えて一時補間を行えばよい。 If there are two images taken without a flash, temporary interpolation may be performed instead of the spline curve.
また、位置推定部252は、Y方向についても、X方向と同様の処理を行い、フラッシュ有りで撮影した画像である3枚目の画像のY方向の位置を推定する。
Also, the
(C)画像情報に基づく位置の推定
位置推定部252は、フラッシュ無しで撮影した4枚の画像(図3の画像161、画像162、画像164および画像165)の少なくとも1枚と、フラッシュ有りで撮影した画像(図3の画像163)とについて、画像情報に基づいて公知技術と同様に位置合わせ処理を行い、フラッシュ有りで撮影した画像の位置を推定する。このとき、比較の対象とするのは、フラッシュ無しで撮影した4枚の画像のうち、何れの画像であっても良いが、時間的に近い画像162や画像164を比較の対象とすると好ましい。
(C) Position Estimation Based on Image Information The
なお、位置推定部252は、位置合わせ処理に先立って、フラッシュ有りで撮影した画像に対して所定のゲイン調整を行ってから、位置合わせ処理を行っても良い。上述した所定のゲイン調整とは、フラッシュ有りで撮影した画像の背景部分の輝度レベルを、フラッシュ無しで撮影した画像の背景部分の輝度レベルに合わせるための調整である。このようなゲイン調整を行うことにより、フラッシュ有りで撮影した画像の背景部分に写っている点光源などの高輝度部分を、フラッシュ無しで撮影した画像の相当部分と比較可能な程度に強調することができる。なお、ゲイン調整は、フラッシュ有りで撮影した画像のコピーに対して行っても良いし、フラッシュ有りで撮影した画像そのものに行っても良い。フラッシュ有りで撮影した画像そのものにゲイン調整を行った場合には、位置の推定後に逆方向のゲイン調整を行えば良い。
Note that the
位置推定部252は、上述した3つの方法の何れか1つを行ってフラッシュ有りで撮影した画像の位置を推定しても良いし、2つ以上の方法を組み合わせても良い。例えば、(A)で説明した推定の結果に基づいて、(B)と(C)との少なくとも一方の推定処理の処理範囲を限定することにより、処理負荷を軽減するとともに、効率よく推定処理を行うことができる。同様に、(B)で説明した推定の結果に基づいて、(C)の推定処理の処理範囲を限定することにより、処理負荷を軽減するとともに、効率よく推定処理を行うことができる。
The
さらに、上述した各種方法のうち、どのような方法で推定処理を行うかは、操作部111を介したユーザ操作に基づいて指定可能としても良い。
Further, of the various methods described above, which method is used for the estimation process may be specified based on a user operation via the
(ステップS204)合成処理部253は、ステップS202で行った位置合わせ処理の結果と、ステップS203で行った位置の推定の結果とに基づいて、ステップS201で読み出した複数枚の画像の合成処理を行う。
(Step S204) The
合成処理は、公知技術と同様に行われる。合成処理部253は、例えば、位置合わせや位置の推定の結果に基づいて、合成位置を決定し、各画像の対応する画素の信号を加算または平均する。また、カラー画像の場合は、各色毎に同様の処理を行う。
The synthesizing process is performed in the same manner as a known technique. For example, the
なお、合成処理によって生成される画像は、手ぶれなどの影響により画角がずれているので合成後の画像に違和感が生じる場合がある。このような場合には、合成後の処理として、画像161から画像165までの画角の重複する部分を切り取るトリミング処理を行い、トリミング後の画像を最終画像としてメモリカード112aに保存するようにしてもよい。
Note that the angle of view of the image generated by the synthesis process is shifted due to the influence of camera shake or the like, so that there may be a feeling of strangeness in the synthesized image. In such a case, as a post-combination process, a trimming process is performed to cut out overlapping portions of the angle of view from the
(ステップS205)画像処理部107は、合成処理部253による合成処理によって生成された画像を出力する。なお、合成後の画像は、次の撮影が行われるまで、一旦、画像バッファ106に保持される。そして、制御部108は、画像バッファ106に保持されている合成後の画像を表示部110に表示するとともに、合成後の画像の画像データに予め決められたファイル名(例えば通し番号や撮影日時など)を自動的に付加してメモリカードIF112を介してメモリカード112aに保存する。
(Step S <b> 205) The
このようにして、本実施形態に係る電子カメラ101は、複数の非発光撮影画像を互いに比較し、複数の非発光撮影画像間のずれ量を算出するとともに、算出されたずれ量に基づいて、発光撮影画像の相対的なずれ量を推定する。したがって、輝度が大きく異なる画像の重ね合せを行う場合に、被写体の位置合わせを正確に行うことができる。
In this way, the
また、本実施形態に係る電子カメラ101は、複数の非発光撮影画像間のずれ量と、推定した発光撮影画像の相対的なずれ量とに基づいて、複数枚の画像を合成する合成処理を行う。したがって、背景はノイズが少なく、画面全体が適切な明るさの合成画像を得ることができる。
In addition, the
(変形例)
上記実施形態では、連写する枚数が5枚で、3枚目のみフラッシュ有りで撮影を行い、前後の2枚ずつはフラッシュ無しで撮影を行う例を示したが、本発明はこの例に限定されない。例えば、連写する枚数は、フラッシュ有り撮影とフラッシュ無し撮影との両方が含まれ、3枚以上であれば何枚であっても良い。
(Modification)
In the above-described embodiment, the number of continuous shots is five, and only the third image is shot with flash, and the previous and second images are shot without flash. However, the present invention is limited to this example. Not. For example, the number of continuous shots includes both shooting with flash and shooting without flash, and may be any number as long as it is three or more.
例えば、フラッシュ無し撮影、フラッシュ有り撮影、フラッシュ無し撮影の順に3枚の連写を行う場合には、前後のフラッシュ無し撮影により生成した画像間の位置合わせ処理の結果に基づいて、真ん中のフラッシュ有り撮影により生成した画像の相対的なずれ量を推定することができる。逆に、フラッシュ有り撮影、フラッシュ無し撮影、フラッシュ有り撮影の順に3枚の連写を行う場合には、前後のフラッシュ有り撮影により生成した画像間の位置合わせ処理の結果に基づいて、真ん中のフラッシュ無し撮影により生成した画像の相対的なずれ量を推定することができる。何れの場合も、写っている被写体が略同様である画像同士の比較により位置合わせ処理を行い、その結果に基づいて、位置が未知の画像の相対的な位置を推定すればよい。 For example, in the case of three consecutive shots in order of shooting without flash, shooting with flash, and shooting without flash, there is a flash in the middle based on the result of alignment processing between images generated by shooting without flash before and after It is possible to estimate a relative shift amount of an image generated by photographing. On the other hand, when three consecutive shots are taken in the order of shooting with flash, shooting without flash, and shooting with flash, the middle flash is based on the result of registration processing between the images generated by shooting with flash before and after. It is possible to estimate a relative shift amount of an image generated by non-photographing. In any case, alignment processing may be performed by comparing images in which the captured subjects are substantially the same, and the relative position of an image whose position is unknown may be estimated based on the result.
また、フラッシュ有り撮影により生成した画像が2枚以上であっても良い。フラッシュ有り撮影により生成した画像が時間的に連続している場合、まず、これらのフラッシュ有り撮影により生成した画像間の位置合わせ処理を行い、合成処理を行う。そして、合成処理後のフラッシュ有り撮影により生成した画像の相対的な位置を、上記実施形態と同様に推定すればよい。また、フラッシュ有り撮影により生成した画像が離散的に生成される(時間的に連続していない)場合、フラッシュ有り撮影により生成した画像ごとに、その前後のフラッシュ無し撮影により生成した画像に基づいて、上記実施形態と同様の処理を行えばよい。 Further, two or more images generated by shooting with flash may be used. When images generated by shooting with flash are temporally continuous, first, alignment processing between images generated by shooting with flash is performed, and then synthesis processing is performed. And the relative position of the image produced | generated by the imaging | photography with flash | flush after a synthesis process should just be estimated similarly to the said embodiment. In addition, when images generated by shooting with flash are generated discretely (not temporally continuous), each image generated by shooting with flash is based on images generated by shooting without flash before and after the shooting. The same processing as in the above embodiment may be performed.
また、上記実施形態においては、電子カメラ101に「合成撮影モード」を備え、この「合成撮影モード」の実行時に一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、「夜景モード」など、本発明の処理が有効な撮影モードがユーザに選択された際に、自動で一連の処理を行っても良い。また、被写体情報など基づいてカメラ側で撮影モードを設定する構成においては、本発明の処理が有効と判断できる場合に自動で一連の処理を行っても良い。また、上記実施形態で説明した一連の処理を、その他の処理と組み合わせて実行しても良い。
In the above-described embodiment, the
また、上記実施形態で説明した電子カメラの構成は一例であり、本発明はこの例に限定されない。例えば、一眼レフタイプのカメラであっても良いし、携帯電話などの情報端末に搭載されたカメラであっても良い。何れの場合も、上述した一連の処理を実行可能なプログラムを予め記憶していれば良い。また、上記実施形態で説明した処理をコンピュータで実現するためのプログラムも本発明の具体的態様として有効である。このプログラムは、媒体に記録されたものであっても良いし、インターネットなどの通信を介してサーバーなどからダウンロード可能なものであっても良い。 The configuration of the electronic camera described in the above embodiment is an example, and the present invention is not limited to this example. For example, a single-lens reflex camera or a camera mounted on an information terminal such as a mobile phone may be used. In any case, a program that can execute the above-described series of processes may be stored in advance. A program for realizing the processing described in the above embodiment by a computer is also effective as a specific aspect of the present invention. This program may be recorded on a medium, or may be downloaded from a server or the like via communication such as the Internet.
以上、本発明に係る画像処理装置および電子カメラ、並びに画像処理プログラムについて、各実施形態で例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。 As described above, the image processing apparatus, the electronic camera, and the image processing program according to the present invention have been described by way of example in each embodiment. However, in various other forms without departing from the spirit or main features thereof. Can be implemented. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.
101…電子カメラ,104…撮像素子,107…画像処理部,108…制御部,113…補助光源,114…ジャイロセンサ,201…合成部,251…位置合わせ処理部,252…位置推定部,253…合成処理部,301…合成画像撮影制御部
DESCRIPTION OF
Claims (15)
前記2種類の画像のうち一方の種類の複数の前記画像を互いに比較し、前記一方の種類の複数の前記画像間のずれ量を算出する算出部と、
前記算出部により算出された前記ずれ量に基づいて、前記2種類の画像のうち前記他方の種類の前記画像の相対的なずれ量を推定する推定部と
を有することを特徴とする画像処理装置。 It consists of two types of images that differ in the presence or absence of light emission by the auxiliary light source, and includes at least one image of the other type that differs in the presence or absence of the light emission before and after one of the two types of images. An image input unit for inputting a plurality of images taken continuously,
A calculation unit that compares the plurality of images of one type of the two types of images with each other, and calculates a shift amount between the plurality of images of the one type;
An image processing apparatus comprising: an estimation unit configured to estimate a relative shift amount of the other type of the image among the two types of images based on the shift amount calculated by the calculation unit. .
前記画像入力部は、前記補助光源を発光させて撮影した少なくとも1枚の発光撮影画像と、前記少なくとも1枚の発光撮影画像の前後に前記補助光源を発光させずに撮影した少なくとも1枚ずつの非発光撮影画像とを含む時間的に連続して撮影された複数枚の画像を入力し、
前記算出部は、複数の前記非発光撮影画像を互いに比較し、複数の前記非発光撮影画像間の前記ずれ量を算出し、
前記推定部は、前記算出部により算出された前記ずれ量に基づいて、前記少なくとも1枚の発光撮影画像の相対的なずれ量を推定する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image input unit includes at least one light-emitting photographed image taken by emitting the auxiliary light source, and at least one piece photographed without emitting the auxiliary light source before and after the at least one light-emitting photographed image. Enter multiple images taken continuously in time, including non-flash images,
The calculation unit compares a plurality of the non-light-emitting captured images with each other, calculates the shift amount between the plurality of non-light-emitting captured images,
The image processing apparatus, wherein the estimating unit estimates a relative shift amount of the at least one light-emitting photographed image based on the shift amount calculated by the calculation unit.
前記算出部による算出結果と、前記推定部による推定結果とに基づいて、前記画像入力部により入力した前記複数枚の画像を合成する合成処理を行う画像合成部をさらに有する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
An image synthesizing unit that performs a synthesizing process for synthesizing the plurality of images input by the image input unit based on a calculation result by the calculation unit and an estimation result by the estimation unit. Processing equipment.
前記推定部は、前記画像入力部により入力した前記複数枚の画像の撮影時刻と、各画像の位置との関係について、内挿処理を行うことにより、前記ずれ量を推定する
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The estimation unit estimates the shift amount by performing an interpolation process on the relationship between the shooting time of the plurality of images input by the image input unit and the position of each image. Image processing device.
前記画像入力部は、前記複数枚の画像が撮影された際の撮像装置の動き情報を、前記複数枚の画像とともに入力し、
前記算出部は、前記動き情報を加味して前記ずれ量を算出し、
前記推定部は、前記動き情報を加味して前記ずれ量を推定する
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 4,
The image input unit inputs movement information of the imaging device when the plurality of images are taken together with the plurality of images,
The calculation unit calculates the shift amount in consideration of the motion information,
The said estimation part estimates the said deviation | shift amount in consideration of the said motion information. The image processing apparatus characterized by the above-mentioned.
前記推定部は、前記2種類の画像のうち前記補助光源を発光させて撮影した少なくとも1枚の画像に対して所定のゲイン調整を行い、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像と、前記2種類の画像のうち前記補助光源を発光させずに撮影した少なくとも1枚の画像とを比較し、比較結果を加味して前記ずれ量を推定する
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 5,
The estimation unit performs a predetermined gain adjustment on at least one image captured by emitting the auxiliary light source among the two types of images, and captured the auxiliary light source after the gain adjustment. Comparing at least one image and at least one image of the two types of images taken without causing the auxiliary light source to emit light, and estimating the amount of deviation in consideration of the comparison result. An image processing apparatus.
前記推定部は、前記補助光源を発光させずに撮影した少なくとも1枚の画像における高輝度部分の画像と、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像において前記高輝度部分に対応する部分の画像とを比較する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 6.
The estimation unit includes the high brightness portion in an image of a high-intensity portion in at least one image captured without causing the auxiliary light source to emit light, and in at least one image captured by emitting the auxiliary light source after the gain adjustment. An image processing apparatus that compares an image of a portion corresponding to a luminance portion.
補助光源を発光する発光部と、
前記複数枚の画像のうち予め設定した時間位置の画像を撮影する時に前記発光部の前記補助光源を発光させ、補助光源による発光の有無が異なる2種類の画像からなり、前記2種類の画像のうち一方の種類の画像の前後に、前記発光の有無が異なる他方の種類の画像を少なくとも1枚ずつ含む時間的に連続して撮影された複数枚の画像を前記撮像部により生成させる制御部と、
前記2種類の画像のうち一方の種類の複数の前記画像を互いに比較し、前記一方の種類の複数の前記画像間のずれ量を算出する算出部と、
前記算出部により算出された前記ずれ量に基づいて、前記2種類の画像のうち前記他方の種類の前記画像の相対的なずれ量を推定する推定部と
を有することを特徴とする電子カメラ。 An imaging unit that captures a plurality of images continuously in time;
A light emitting section for emitting an auxiliary light source;
Of the plurality of images, the auxiliary light source of the light emitting unit is caused to emit light when taking an image at a preset time position, and the two types of images are different in the presence or absence of light emission by the auxiliary light source. A control unit for generating, by the imaging unit, a plurality of images taken continuously in time before and after one type of image, including at least one image of the other type with or without the emission of light. ,
A calculation unit that compares the plurality of images of one type of the two types of images with each other, and calculates a shift amount between the plurality of images of the one type;
An electronic camera comprising: an estimation unit configured to estimate a relative shift amount of the other type of the image among the two types of images based on the shift amount calculated by the calculation unit.
前記制御部は、前記補助光源を発光させて撮影した少なくとも1枚の発光撮影画像と、前記少なくとも1枚の発光撮影画像の前後に前記補助光源を発光させずに撮影した少なくとも1枚ずつの非発光撮影画像とを含む時間的に連続して撮影された複数枚の画像を前記撮像部により生成させ、
前記算出部は、複数の前記非発光撮影画像を互いに比較し、複数の前記非発光撮影画像間の前記ずれ量を算出し、
前記推定部は、前記算出部により算出された前記ずれ量に基づいて、前記少なくとも1枚の発光撮影画像の相対的なずれ量を推定する
ことを特徴とする電子カメラ。 The electronic camera according to claim 8,
The control unit includes at least one light-emitting photographed image taken by emitting the auxiliary light source and at least one non-photographed image taken without causing the auxiliary light source to emit light before and after the at least one light-emitting photographed image. A plurality of images that are continuously captured in time including a flash image are generated by the imaging unit,
The calculation unit compares a plurality of the non-light-emitting captured images with each other, calculates the shift amount between the plurality of non-light-emitting captured images,
The electronic camera is characterized in that the estimation unit estimates a relative shift amount of the at least one light-emitting photographed image based on the shift amount calculated by the calculation unit.
前記算出部による算出結果と、前記推定部による推定結果とに基づいて、前記撮像部により生成した前記複数枚の画像を合成する合成処理を行う画像合成部をさらに有する
ことを特徴とする電子カメラ。 The electronic camera according to claim 8 or 9,
An electronic camera further comprising: an image composition unit that performs composition processing for compositing the plurality of images generated by the imaging unit based on a calculation result by the calculation unit and an estimation result by the estimation unit. .
前記推定部は、前記撮像部により生成した前記複数枚の画像の撮影時刻と、各画像の位置との関係について、内挿処理を行うことにより、前記ずれ量を推定する
ことを特徴とする電子カメラ。 The electronic camera according to any one of claims 8 to 10,
The estimation unit estimates the shift amount by performing an interpolation process on the relationship between the shooting time of the plurality of images generated by the imaging unit and the position of each image. camera.
前記撮像部による撮影時の電子カメラの動きを検出する検出部をさらに備え、
前記算出部は、前記検出部により検出した動き情報を加味して前記ずれ量を算出し、
前記推定部は、前記動き情報を加味して前記ずれ量を推定する
ことを特徴とする電子カメラ。 The electronic camera according to any one of claims 8 to 11,
A detection unit for detecting movement of the electronic camera during shooting by the imaging unit;
The calculation unit calculates the shift amount in consideration of motion information detected by the detection unit,
The said estimation part estimates the said deviation | shift amount in consideration of the said motion information. The electronic camera characterized by the above-mentioned.
前記推定部は、前記2種類の画像のうち前記補助光源を発光させて撮影した少なくとも1枚の画像に対して所定のゲイン調整を行い、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像と、前記2種類の画像のうち前記補助光源を発光させずに撮影した少なくとも1枚の画像とを比較し、比較結果を加味して前記ずれ量を推定する
ことを特徴とする電子カメラ。 The electronic camera according to any one of claims 8 to 12,
The estimation unit performs a predetermined gain adjustment on at least one image captured by emitting the auxiliary light source among the two types of images, and captured the auxiliary light source after the gain adjustment. Comparing at least one image and at least one image of the two types of images taken without causing the auxiliary light source to emit light, and estimating the amount of deviation in consideration of the comparison result. Electronic camera.
前記推定部は、前記補助光源を発光させずに撮影した少なくとも1枚の画像における高輝度部分の画像と、前記ゲイン調整後の前記補助光源を発光させて撮影した少なくとも1枚の画像において前記高輝度部分に対応する部分の画像とを比較する
ことを特徴とする電子カメラ。 The electronic camera according to claim 13.
The estimation unit includes the high brightness portion in an image of a high-intensity portion in at least one image captured without causing the auxiliary light source to emit light, and in at least one image captured by emitting the auxiliary light source after the gain adjustment. An electronic camera characterized by comparing an image of a portion corresponding to a luminance portion.
前記2種類の画像のうち一方の種類の複数の前記画像を互いに比較し、前記一方の種類の複数の前記画像間のずれ量を算出する算出手順と、
前記算出部により算出された前記ずれ量に基づいて、前記2種類の画像のうち前記他方の種類の前記画像の相対的なずれ量を推定する推定手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。 It consists of two types of images that differ in the presence or absence of light emission by the auxiliary light source, and includes at least one image of the other type that differs in the presence or absence of the light emission before and after one of the two types of images. An image input procedure to input multiple images taken consecutively,
A calculation procedure for comparing the plurality of images of one type of the two types of images with each other and calculating a shift amount between the plurality of images of the one type;
A computer is configured to execute an estimation procedure for estimating a relative shift amount of the other type of the two types of images based on the shift amount calculated by the calculation unit. Image processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011290244A JP2013141105A (en) | 2011-12-29 | 2011-12-29 | Image processing device, electronic camera, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011290244A JP2013141105A (en) | 2011-12-29 | 2011-12-29 | Image processing device, electronic camera, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013141105A true JP2013141105A (en) | 2013-07-18 |
Family
ID=49038189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011290244A Pending JP2013141105A (en) | 2011-12-29 | 2011-12-29 | Image processing device, electronic camera, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013141105A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015040967A (en) * | 2013-08-21 | 2015-03-02 | キヤノン株式会社 | Imaging apparatus and its control method, program and storage medium |
US9712756B2 (en) | 2013-08-21 | 2017-07-18 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
JP2019534515A (en) * | 2016-11-03 | 2019-11-28 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Improved depth map image for mobile devices |
US10942607B2 (en) | 2015-11-13 | 2021-03-09 | Maxell, Ltd. | Manipulation detection device and video display system that are capable detecting an object on a video display surface |
JP7009698B1 (en) | 2020-10-07 | 2022-01-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Control device, image pickup device, control method, and program |
-
2011
- 2011-12-29 JP JP2011290244A patent/JP2013141105A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015040967A (en) * | 2013-08-21 | 2015-03-02 | キヤノン株式会社 | Imaging apparatus and its control method, program and storage medium |
US9712756B2 (en) | 2013-08-21 | 2017-07-18 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
US10003753B2 (en) | 2013-08-21 | 2018-06-19 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
US10313604B2 (en) | 2013-08-21 | 2019-06-04 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
US10506173B2 (en) | 2013-08-21 | 2019-12-10 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
US10942607B2 (en) | 2015-11-13 | 2021-03-09 | Maxell, Ltd. | Manipulation detection device and video display system that are capable detecting an object on a video display surface |
JP2019534515A (en) * | 2016-11-03 | 2019-11-28 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Improved depth map image for mobile devices |
JP7009698B1 (en) | 2020-10-07 | 2022-01-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Control device, image pickup device, control method, and program |
JP2022061603A (en) * | 2020-10-07 | 2022-04-19 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Control device, imaging apparatus, control method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI508555B (en) | Image processing apparatus and image processing method for performing image synthesis | |
KR101626780B1 (en) | Imaging apparatus, image processing method, and image processing program | |
JP2012195660A (en) | Image processing apparatus and electronic camera, and image processing program | |
JP6841933B2 (en) | Image pickup device, finder device, control method of image pickup device, control method of finder device, control program of image pickup device and control program of finder device | |
JP2017108309A (en) | Imaging apparatus and imaging method | |
JP2010213220A (en) | Imaging apparatus, and imaging control method | |
JP6911136B2 (en) | Imaging device, information acquisition method and information acquisition program | |
JP2013141105A (en) | Image processing device, electronic camera, and image processing program | |
JP2008301371A (en) | Imaging apparatus and image processing program | |
JP4865648B2 (en) | Imaging device | |
JP5635450B2 (en) | Imaging apparatus, finder and display method thereof | |
JP2016143951A (en) | Image processing apparatus, imaging device, image processing method and image processing program | |
JP5854716B2 (en) | Image processing apparatus, image processing method, and program | |
JP2003087645A (en) | Digital camera | |
JP2010141609A (en) | Imaging apparatus | |
JP5042453B2 (en) | Strobe control device, strobe control program, strobe control method | |
JP4760496B2 (en) | Image data generation apparatus and image data generation method | |
JP6231814B2 (en) | EXPOSURE DETERMINING DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM | |
JP4622668B2 (en) | Electronic camera and image processing program | |
JP2012163679A (en) | Imaging device, stroboscope control method, and stroboscope control program | |
JP2020129753A (en) | Imaging apparatus and imaging method | |
JP2009182832A (en) | Photographing device and through image displaying method | |
JP2008005248A (en) | Imaging apparatus | |
JP2006157342A (en) | Imaging apparatus | |
JP2009139423A (en) | Imaging apparatus and subject distance calculating method |