JP2018067846A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2018067846A JP2018067846A JP2016206237A JP2016206237A JP2018067846A JP 2018067846 A JP2018067846 A JP 2018067846A JP 2016206237 A JP2016206237 A JP 2016206237A JP 2016206237 A JP2016206237 A JP 2016206237A JP 2018067846 A JP2018067846 A JP 2018067846A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input
- combining
- timing
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、入力画像を処理して出力する画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus that processes and outputs an input image, an image processing method, and a program.
以前より、露光時間を長くした撮影を行うことで、例えば走行している自動車のライトや花火の光等のような移動体の軌跡画像を取得可能とした表現技法がある。以下、長い露光時間による撮影を長秒撮影と表記し、長秒撮影により得られる画像を長秒画像と表記する。ただし、本技法の場合、ユーザ(撮影者)は、どの程度の露光時間で撮影を行えば、移動体の軌跡が所望する仕上がりとなる長秒画像を取得できるのかを、実際の撮影を行う前に想定しなければならず、これには或る程度の経験が必要となる。また、経験を積んだユーザであっても、常に所望する仕上がりの長秒画像を撮影できるとは限らない。 There is an expression technique that makes it possible to acquire a trajectory image of a moving object such as a light of a running car or a light of fireworks by performing shooting with a longer exposure time than before. Hereinafter, shooting with a long exposure time is referred to as long-second shooting, and an image obtained by long-second shooting is referred to as a long-second image. However, in the case of this technique, the user (photographer) can determine how long exposure time can be taken to obtain a long-second image with a desired trajectory of the moving object before performing actual shooting. This requires some experience. Further, even an experienced user cannot always take a desired long-second image.
このため、近年は、短い露光時間の撮影を短い時間間隔で連続して行って得られた複数の画像を合成することにより、長秒撮影による長秒画像に相当する画像を生成しつつ、その生成過程をカメラのライブビュー画面に逐次表示する技術が提案されている。以下、短い露光時間による撮影を短秒撮影と表記し、短秒撮影により得られた画像を短秒画像と表記し、短い時間間隔で連続した短秒撮影による複数の短秒画像を合成して生成される画像(長秒画像に相当する画像)を、疑似長秒画像と表記する。このようにして生成した疑似長秒画像をライブビュー画面に逐次表示することで、ユーザは、軌跡画像の仕上がりをリアルタイムに確認しながら、所望の仕上がりの画像(疑似長秒画像)を得ることができる。 Therefore, in recent years, by synthesizing a plurality of images obtained by continuously performing shooting with a short exposure time at a short time interval, an image corresponding to a long second image by long second shooting is generated. A technique for sequentially displaying the generation process on a live view screen of a camera has been proposed. In the following, shooting with a short exposure time is referred to as short-second shooting, images obtained by short-second shooting are referred to as short-second images, and multiple short-second images taken at short time intervals are synthesized. The generated image (an image corresponding to a long second image) is referred to as a pseudo long second image. By sequentially displaying the pseudo-long-second image generated in this way on the live view screen, the user can obtain a desired image (pseudo-long-second image) while confirming the finish of the trajectory image in real time. it can.
なお、特許文献1には、撮像部により撮像された複数フレームの撮影画像を合成して合成画像を生成する電子カメラが開示されている。また、特許文献1に記載の電子カメラは、ユーザ(撮影者)からの指示に基づいて撮像部による撮像の中止を判断するようになされている。
ここで、特許文献1に記載の電子カメラは、ユーザから撮影終了の指示がなされた時点で撮像部による撮像を中止し、その撮像が中止されるまでの間に得られた撮像画像を合成して合成画像(つまり疑似長秒画像)を生成する構成となされている。一方、ユーザは、電子カメラのモニタ画面に逐次表示されている合成画像を確認しつつ、所望の仕上がりの画像が表示されたときに、撮影終了の指示を入力する。しかしながら、撮像部で撮像された撮像画像に対し、モニタ画面に逐次表示されている合成結果は、少なくとも合成の処理時間分の遅延が生じている。したがって、ユーザが撮影終了指示を入力した時点でモニタ画面に表示されていた合成結果と、ユーザからの撮影終了指示により撮像が中止されるまでの間に取得されている撮像画像から生成される合成画像(疑似長秒画像)とは、一致していない。すなわち、撮像画像から生成された合成画像(疑似長秒画像)は、ユーザがモニタ画面で確認した所望の仕上がりの疑似長秒画像とは異なる仕上がりの画像になってしまう。
Here, the electronic camera described in
そこで、本発明は、ユーザが所望する仕上がりの合成画像が得られるようにすることを目的とする。 Therefore, an object of the present invention is to obtain a composite image having a finish desired by a user.
本発明は、順に入力された複数の入力画像を取得する取得手段と、前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成手段と、ユーザから終了指示が入力されたタイミングを検出する検出手段と、を有し、ユーザから終了指示が入力されたタイミングの検出までに前記合成手段による前記合成処理が完了している合成画像を、出力画像とすることを特徴とする。 The present invention is an acquisition unit that acquires a plurality of input images input in order, a combining unit that sequentially generates a composite image by using the input images in the input order, and ends from the user Detection means for detecting timing at which an instruction is input, and an output image is a combined image in which the combining processing by the combining means has been completed until detection of timing at which an end instruction is input from a user It is characterized by that.
本発明によれば、ユーザが所望する仕上がりの合成画像を得ることが可能となる。 According to the present invention, it is possible to obtain a composite image having a finish desired by a user.
以下、本発明の一実施形態を、添付の図面に基づいて詳細に説明する。本実施形態の画像処理装置は、デジタルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末等の各種携帯端末、工業用カメラ、車載カメラ、医療用カメラ等に適用可能である。本実施形態では、画像処理装置の一適用例として、デジタルカメラ等の撮像装置を挙げて説明する。また、本実施形態の撮像装置は、短い露光時間の撮影を短い時間間隔で連続して行って得た複数の画像から、長い露光時間で撮影された画像に相当する画像を逐次生成して画面上に逐次表示可能な機能を有している。本実施形態でも前述同様に、長い露光時間による撮影を長秒撮影と表記し、長秒撮影により得られる画像を長秒画像と表記する。また、短い露光時間による撮影を短秒撮影、短秒撮影により得られた画像を短秒画像、短い時間間隔で連続して行われた短秒撮影による複数の短秒画像を合成して生成される、長秒露光画像に相当する画像を、疑似長秒画像と表記する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. The image processing apparatus of the present embodiment can be applied to digital cameras, digital video cameras, various mobile terminals such as smartphones and tablet terminals having camera functions, industrial cameras, in-vehicle cameras, medical cameras, and the like. In the present embodiment, an imaging apparatus such as a digital camera will be described as an application example of the image processing apparatus. In addition, the imaging apparatus according to the present embodiment sequentially generates images corresponding to images shot with a long exposure time from a plurality of images obtained by continuously shooting with a short exposure time at short time intervals. It has a function that can be displayed sequentially. In the present embodiment, as described above, shooting with a long exposure time is referred to as long-second shooting, and an image obtained by long-second shooting is referred to as a long-second image. It is also generated by combining short-time shooting for short exposure time, short-second images for short-time shooting, and multiple short-second images for continuous shooting at short time intervals. An image corresponding to the long second exposure image is referred to as a pseudo long second image.
<本実施形態の撮像装置の概略構成>
図1は、本発明の画像処理装置の一実施形態としての撮像装置100の概略構成を示したブロック図である。図1に示した撮像装置100では、撮像装置100の各構成要素(各ブロック)が、例えばバスを介して接続されている。
システム制御部101は、例えばCPUであり、撮像装置100が備える各ブロックの制御プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行することにより撮像装置100の各ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、撮像装置100の各ブロックの制御プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100の各ブロックの動作により生成されたデータの一時的な記憶領域として用いられる。
<Schematic Configuration of Imaging Device of this Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an
The
光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群、絞り、シャッター等を有して構成される。光学系104は、被写体等の光学像を撮像部105の撮像面上に結像させる。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、光学系104により撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号を順次A/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換し、得られたデジタル画像データをRAM103に出力する。RAM103は、A/D変換部106から供給された画像データを一時的に記憶する。
The
画像処理部107は、RAM103に一時的に記憶された画像データに対して、ホワイトバランス調整、色補間、ガンマ処理、電子ズーム処理など、様々な画像処理を行う。また本実施形態の場合、画像処理部107は、疑似長秒画像生成のための画像処理をも行う。疑似長秒画像生成などの画像処理の詳細な説明は後述する。なお、画像処理部107における各画像処理は、CPU等がプログラムを実行することにより実現されてもよい。
The
表示部108は、液晶ディスプレイ(LCD)等の表示デバイスである。表示部108の画面上には、RAM103や後述する記録部109に記録された画像、ユーザからの指示を受け付けるための操作ユーザーインターフェイス画像等が表示される。また、表示部108には、撮像部105により撮像されているライブビュー画像の表示も行われる。詳細については後述するが、本実施形態では、短い時間間隔で連続して行われた短秒撮影による複数の短秒画像から逐次生成した疑似長秒画像を表示用画像とし、表示部108に逐次更新表示するような画像表示も可能となされている。
The
操作部110は、例えば表示部108の画面に設けられているいわゆるタッチセンサや、撮像装置100の筐体に設けられている各種ボタン、主に画像撮影の際に操作されるシャッターボタン等を含むユーザーインターフェイス部である。シャッターボタンは、いわゆる半押しと全押しの二段階の押下操作を検出可能なボタンである。シャッターボタンが半押しされたときには例えばピントや露出の固定などが行われ、全押しされたときに本撮影が行われる。また、シャッターボタンは、本実施形態における疑似長秒画像の撮影開始指示と撮影終了指示の際にも使用される。なお、シャッターボタンは、有線又は無線により撮像装置100と通信可能なリモートコントローラ等に設けられていてもよい。
The
<第1の実施形態>
以下、図1の撮像装置100における第1の実施形態の処理モードについて説明する。第1の実施形態の撮像装置100は、短い時間間隔で連続して行った短秒撮影による複数の短秒画像から逐次生成した疑似長秒画像を逐次更新表示する処理モードで動作可能となされている。以下、この処理モードを、疑似長秒モードと表記する。
<First Embodiment>
Hereinafter, the processing mode of the first embodiment in the
図2は、疑似長秒モードにおける第1の実施形態の撮像装置100の動作を示すフローチャートである。図2のフローチャートに示す各ステップの処理は、ROM102に記憶されているプログラムに基づいてシステム制御部101が撮像装置100の各部を制御し、また画像処理部107への入力や出力を制御することにより実現される。このことは後述する他のフローチャートでも同様である。また、本実施形態において、撮像部105における短秒画像の撮像タイミングと、表示部108に表示される画像の表示更新タイミングとは、それぞれ独立して制御されている。以下、図2のフローチャートでは、ステップS201とステップS202からなる短秒画像の撮影の際の処理と、ステップS204以降からなる画像表示と記録の際の処理とに分けて説明する。
FIG. 2 is a flowchart illustrating the operation of the
先ず、図2のステップS201からステップS203までの短秒画像の撮影の際の処理について説明する。
図2のフローチャートの処理は、例えば操作部110を介したユーザ(撮影者)からのモード指示等により本実施形態の撮像装置100が疑似長秒モードに移行したときにスタートする。疑似長秒モードに移行した後、操作部110を介してユーザから撮影開始指示が入力されると、システム制御部101は、短秒撮影の露出時間や撮影間隔等の撮影パラメータを設定する。そして、システム制御部101は、ステップS201において、撮像部105を制御し、撮影パラメータに従った撮像、つまり短秒画像を撮像させる。なお、本実施形態において、撮影開始指示は例えばシャッターボタンの全押しにより行われるとする。ステップS201の後、システム制御部101は、ステップS202に処理を進める。
First, the processing at the time of taking a short second image from step S201 to step S203 in FIG. 2 will be described.
The process of the flowchart in FIG. 2 starts when the
ステップS202では、システム制御部101は、ステップS201で撮像部105により逐次撮像された短秒画像のデータを、入力画像のデータとして、逐次、メモリ(RAM103)に記憶させる。また、ステップS202の処理と並行して、システム制御部101は、ステップS203において、操作部110からユーザによる撮影終了指示を検出したか否か判断する。本実施形態において、撮影終了指示は、前述した撮影開始指示に使用されたシャッターボタンがユーザにより再度全押しされることで行われる。システム制御部101は、ステップS203で撮影終了指示を検出していないと判断(No)した場合にはステップS201に処理を戻し、撮像部105に短秒画像の撮影を続けさせる。すなわち、ステップS201からステップS203までの処理は、撮影終了指示を検出するまで繰り返し行われる処理である。したがって、撮像装置100では、ユーザより撮影終了指示がなされるまで、短秒画像の撮影とメモリへの記憶が行われる。一方、ステップS203で撮影終了指示を検出したと判断(Yes)した場合、システム制御部101は、ステップS204に処理を進める。
In step S202, the
次に、ステップS204以降の画像表示と記録の際の処理の流れについて説明する。
ステップS204からステップS207までの処理は、システム制御部101による制御の下で画像処理部107により行われる処理である。ステップS204において、画像処理部107は、メモリ(RAM103)に記憶されている入力画像(短秒画像)のデータを取得する(メモリから読み出す)。ステップS204の後、画像処理部107は、ステップS205に処理を進める。
Next, the flow of processing at the time of image display and recording after step S204 will be described.
The processing from step S204 to step S207 is processing performed by the
ステップS205では、画像処理部107は、メモリから読み出した短秒画像を縮小する画像縮小処理を行う。本実施形態の場合、撮像部105の撮像画像(短秒画像)の画素数は表示部108の表示画素数より大きいため、画像処理部107は、短秒画像を縮小する画像縮小処理を行う。ステップS205の後、画像処理部107は、ステップS206に処理を進める。
In step S205, the
ステップS206では、画像処理部107は、ステップS205で縮小処理した短秒画像に対し、表示位置合わせの処理を行う。この表示位置合わせ処理は、本実施形態の撮像装置100が疑似長秒モードにおいてユーザにより手持ち撮影がなされる場合を想定して行われる処理であり、手持ち撮影による手振れが生じているときの位置ズレを吸収するために行われる。なお、手振れの検出や手振れによる位置ズレを吸収する処理等は公知の処理であるため、その図示や詳細な説明は省略する。ステップS206の後、画像処理部107は、ステップS207に処理を進める。
In step S206, the
ステップS207では、画像処理部107は、縮小処理した短秒画像の合成処理を行う。本実施形態の場合、合成処理は、比較明合成処理と呼ばれる処理により行われる。比較明合成処理は、基準画像と合成対象画像の同座標の画素の輝度値を比較し、輝度値が高い方(明るい方)の画素を採用するようにして合成画像を生成するような処理である。詳細は後述するが、本実施形態の場合、時系列順で前のフレームの画像又は合成済みの画像を基準画像とし、時系列順で次のフレームの画像を合成対象画像として、それらの画像を比較明合成処理することで合成画像が生成される。なお、撮影が開始された直後で、画像が最初の一枚目のフレームの短秒画像しか存在しないときには、ステップS207では比較明合成処理は行われない。本実施形態では、このような比較明合成処理を逐次行っていくことにより、疑似長秒画像を生成する。本実施形態における比較明合成処理とそれにより生成される疑似長秒画像の詳細については、後述する図3において説明する。ステップS207の後、システム制御部101は、ステップS208に処理を進める。
In step S207, the
ステップS208では、システム制御部101は、ステップS207で生成された疑似長秒画像を表示部108の画面上に表示させる。なお、撮影が開始された直後で、画像が最初の一枚目のフレームの短秒画像しか存在しない場合、ステップS208では、一枚目のフレームの短秒画像を縮小処理した画像の表示が行われる。また、システム制御部101は、疑似長秒画像の表示と共に、その疑似長秒画像を生成する際に用いられた短秒画像がそれぞれ撮像されたときの露光時間を加算して求めた秒数を、表示部108の画面上に表示させてもよい。例えば、短秒画像の露光時間がそれぞれ0.5秒で、疑似長秒画像の生成に用いられた短秒画像のフレーム数が10枚であった場合、システム制御部101は、それら10枚分の露出時間を加算した秒数である「5秒」の文字を表示させる。この秒数は、疑似長秒画像が、どの程度の露光時間の長秒撮影で得られる長秒画像に相当する画像であるかを表している。このように、疑似長秒画像と共に前述の秒数を表示することで、ユーザは、現在表示されている疑似長秒画像が、どの程度の長秒露光時間に相当する画像であるかを把握できるようになる。すなわち、ユーザは、その表示された秒数を、撮影終了指示を行うタイミングを決定する際の参考情報とすることができる。ステップS208の後、システム制御部101は、ステップS209に処理を進める。
In step S208, the
ステップS209と次のステップS210の処理は、システム制御部101による制御の下、画像処理部107により行われる。ステップS209において、画像処理部107は、記録用画像の位置合わせ処理を行う。この場合の記録用画像とは、撮像部105にて取得されてメモリに蓄積されている短秒画像である。この短秒画像に対する位置合わせ処理は、例えば前述したステップS206における位置合わせ処理と同じ処理でもよいし、異なる処理でもよい。一般的に、記録用画像に対する位置合わせ処理は、撮影後の処理であり、かつ記録用画像に対する処理であるため、処理時間よりも精度を重視した処理であることが望ましい。
The processing in step S209 and the next step S210 is performed by the
ステップS209の後、ステップS210の処理に進むと、画像処理部107は、撮像部105にて取得されてメモリに蓄積されている短秒画像の合成処理を行う。なお、撮影が開始された直後で、最初の一枚目のフレームの短秒画像のみしか取得されていないときには、ステップS209では合成処理は行われない。また、このときの合成処理は、前述したステップS207における合成処理と同様の比較明合成処理でもよいし、別の合成処理により疑似長秒画像を生成できるような処理が行われてもよい。別の合成処理としては、一例として、基準画像と合成対象画像の同座標の画素において、より高輝度の画素に対して、その輝度に応じた重みを持たせて加算平均するような合成処理を挙げることができる。この合成処理では、具体的には、基準画像と合成対象画像の同座標の画素に、輝度の重みに応じたゲインを乗算した後に加算平均することで合成画像が生成される。この合成処理によれば、例えば動いている被写体における合成の切り替わりが目立ち難い合成画像を得ることができる。そして、ステップS210における合成処理で生成された疑似長秒画像のデータは、後に、システム制御部101による制御の下、出力画像のデータとして記録部109に送られ、記録媒体に記録されることになる。記録用の疑似長秒画像のデータは、記録媒体に記録される場合だけでなく、ネットワーク等を介して出力等されてもよい。ステップS210の後、システム制御部101は、ステップS211に処理を進める。
After step S209, when the process proceeds to step S210, the
ステップS211では、システム制御部101は、操作部110からユーザによる撮影終了指示を検出したか否かを判断する。撮影終了指示は、ステップS203の場合と同様に、ユーザが操作部110のシャッターボタンを全押しすることで行われる。システム制御部101は、ステップS211において、撮影終了指示が検出されていないと判断(No)した場合には、ステップS204に処理を戻す。これにより、次のフレームの短秒画像に対して前述したステップS204以降の処理が行われることになる。一方、ステップS211において、撮影終了指示が検出されたと判断(Yes)した場合には、システム制御部101は、図2のフローチャートの処理を終了する。
In step S <b> 211, the
以下、比較明合成処理について具体例を挙げて説明する。
なお、以下の説明では、表示用の疑似長秒画像と記録用の疑似長秒画像を生成する際の短秒画像を区別せずに、短秒画像として説明する。
Hereinafter, the comparatively bright combination process will be described with a specific example.
In the following description, the display pseudo-second image and the short pseudo-second image for generating the recording pseudo-second image are not distinguished from each other, and are described as short-second images.
比較明合成処理は、前述したように、基準画像と合成対象画像の輝度を比較し、高輝度領域を合成対象画像の領域として採用することで合成画像を生成する処理である。本実施形態において、時系列順の複数の画像から疑似長秒画像を逐次生成する際には、時系列順で前の画像が基準画像となされ、時系列順で次の画像が合成対象画像となされ、それらを比較明合成するような処理が、時系列順に繰り返される。本実施形態の場合、時系列順の最初の1フレーム目の短秒画像は基準画像となり、次の2フレーム目の短秒画像は合成対象画像となる。さらに次の3フレーム目の短秒画像が合成対象画像となる際の基準画像には、1フレーム目と2フレーム目の比較明合成処理で生成された合成画像が用いられる。その後は、時系列順で前の比較明合成処理で生成された合成画像が基準画像となされ、時系列順で次のフレームの短秒画像が合成対象画像となされて、比較明合成を行うような処理が、時系列順に逐次繰り返される。したがって、例えば夜間にライトを点灯させて走行している自動車を撮像した時系列順の複数の短秒画像から疑似長秒画像を逐次生成した場合、ライトの光のような高輝度部分の軌跡が流れて、疑似的に長秒露光で撮影されたような画像が生成される。 As described above, the comparatively bright combination process is a process of generating a composite image by comparing the luminance of the reference image and the compositing target image and adopting the high luminance region as the compositing target image region. In this embodiment, when sequentially generating pseudo long-second images from a plurality of images in time series order, the previous image in the time series order is used as the reference image, and the next image in the time series order is the synthesis target image. A process of making them comparatively bright and composite is repeated in chronological order. In the case of the present embodiment, the first short-second image in the first frame in time series order is a reference image, and the next short-second image in the second frame is a synthesis target image. Further, the composite image generated by the comparatively bright composite processing of the first frame and the second frame is used as the reference image when the short second image of the next third frame becomes the composition target image. After that, the synthesized image generated in the previous comparative bright synthesis process in time series order is used as the reference image, and the short second image of the next frame in time series order is used as the synthesis target image, so that comparative bright synthesis is performed. Such processing is sequentially repeated in time series. Therefore, for example, when a pseudo long-second image is sequentially generated from a plurality of short-second images in time series in which a vehicle traveling with lights turned on at night is taken, the locus of a high-intensity part such as light light is An image is generated as if it was captured by pseudo-second exposure.
図3を用い、本実施形態の撮像装置100において、例えば夜間にライトを点灯させて走行している自動車を撮像した時系列順の例えば三つの短秒画像A,B,Cから、比較明合成処理により疑似長秒画像が生成される様子を具体的に説明する。図3では、画像301が短秒画像Aであり、画像302が短秒画像Bであり、画像303が短秒画像Cであるとする。
3, in the
図3の各短秒画像301,302,303には、それぞれ図中矢印に示す方向に走行している自動車321,322,323が被写体(移動体)として写っている。各短秒画像301,302,303の図中の矢印tは、被写体の自動車321,322,323が短秒撮影の露光時間内に移動した移動量と移動方向を表しているとする。なお、各自動車321,322,323の画像は、実際には、各短秒画像301,302,303の撮像時の露光時間内の移動量に応じて流れた画像となるが、図3では図示を簡略化するためにライトの光のみが流れた画像として描いている。これは後述する画像304,305についても同様とする。また、図3の例では、各自動車321,322,323の移動により流れたライトの光が、それぞれ光の軌跡311,312,313として描かれている。
In each of the short-
この図3の例において、画像処理部107は、先ず時系列順で前の二つの短秒画像301と短秒画像302とを比較明合成処理330して合成画像304を生成する。比較明合成処理330で生成された合成画像304は、短秒画像301内のライトの光の軌跡311と、短秒画像302内のライトの光の軌跡312とが繋がった、光の軌跡314を有する画像となる。そして、この合成画像304は、短秒画像301と短秒画像302を基に合成された疑似長秒画像となる。なお、合成画像304の図中の矢印tは、短秒画像301と短秒画像302内の両矢印tを合わせたものとなり、疑似長秒画像(304)における長秒露光相当の時間内の自動車(321,322)の移動量と移動方向を表している。
In the example of FIG. 3, the
さらに、画像処理部107は、短秒画像301及び短秒画像302から生成した合成画像304と、短秒画像301,302よりも時系列で後の短秒画像303とを、比較明合成処理331して合成画像305を生成する。比較明合成処理331で生成された合成画像305は、合成画像304内の光の軌跡314と、短秒画像303内の光の軌跡313とが繋がった、光の軌跡315を有する画像となる。そして、この合成画像305は、合成画像304と短秒画像303を基に生成された疑似長秒画像となる。なお、合成画像305の図中の矢印tは、合成画像304内の矢印tと短秒画像303内の両矢印tとを合わせたものとなり、疑似長秒画像(305)における長秒露光相当の時間内の自動車(321,322,323)の移動量と移動方向を表している。
Further, the
次に、前述した撮像タイミングと表示更新タイミングについて、図4を参照しながら説明する。
図4において、撮影指示タイミング403は、ユーザが、撮影開始指示と撮影終了指示とを行ったタイミングを表している。具体的には、撮影指示タイミング403内の縦線431は、ユーザによりシャッターボタンが全押しされた際に操作部110から出力された信号を、システム制御部101が撮影開始指示の信号として検出したタイミングを表している。また、撮影指示タイミング403内の縦線432は、撮影が開始された後に、ユーザによりシャッターボタンが再度全押しされたことで操作部110から出力された信号を、システム制御部101が撮影終了指示の信号として検出したタイミングを表している。システム制御部101は、撮影終了指示を受け取ったか否かを、前述した図2のステップS203又はステップS211で判断している。
Next, the imaging timing and display update timing described above will be described with reference to FIG.
In FIG. 4, the
また、図4において、撮像タイミング401内の各縦線411は、撮影開始後にそれぞれ短秒画像のフレームが撮像されたタイミングを表している。すなわち、前述した図2のステップS201による短秒画像の撮像は、撮像タイミング401内の各縦線411で表されるタイミング毎に行われている。また、図2のステップS202とステップS203の処理は、一つのフレームの短秒画像の撮像が行われて次のフレームの短秒画像の撮像が行われるまでの間に行われる。このように、図2のステップS201からステップS203の処理は、ステップS203で撮影終了指示が検出されたと判断されるまで、撮像タイミング401の各縦線411で表されるタイミング毎に繰り返される。これにより、撮影開始指示から撮影終了指示までの間、時系列順に各短秒画像が取得されることになる。また、図4の例では、撮影開始後の時系列順に取得された各短秒画像のフレームが、それぞれ1,2,3,4,・・・の数字により表されている。
In FIG. 4, each
図4の表示更新タイミング402内の各縦線421は、表示部108において表示が更新されるタイミングを表している。すなわち、撮影開始直後の最初の一枚目のフレーム1の表示がなされた後、図2のステップS204からステップS208までで生成される表示用の各疑似長秒画像の表示の更新は、表示更新タイミング402内の各縦線421のタイミング毎に行われる。また、表示更新タイミング402内の"1〜2","1〜3","1〜4","1〜5",・・・の各数字は、疑似長秒画像が撮像タイミング401の何れのフレームを基に生成されたものであるかを表している。なお、表示更新タイミング402内の"1"は最初の一枚目のフレーム1を表している。例えば疑似長秒画像"1〜2"は、フレーム1とフレーム2の短秒画像から生成された画像であることを表し、疑似長秒画像"1〜3"は、疑似長秒画像"1〜2"とフレーム3の短秒画像とから生成された画像であることを表している。疑似長秒画像"1〜4"は、疑似長秒画像"1〜3"とフレーム4の短秒画像とから生成され、疑似長秒画像"1〜5"は、疑似長秒画像"1〜4"とフレーム5の短秒画像とから生成された画像であることを表している。以下同様である。また、図4から判るように、各疑似長秒画像"1〜2","1〜3","1〜4",・・・は、図2のステップS204〜S208に要する処理時間の分だけ、撮像タイミング401の各フレーム1,2,3,4,・・・からそれぞれ遅延している。なお、図2のステップS209とステップS210における記録用の疑似長秒画像の生成タイミングの図示は省略しているが、記録用の疑似長秒画像の生成タイミングは、図4の表示更新タイミング402より僅かに遅れたタイミングとなる。記録用の疑似長秒画像の生成タイミングの具体例については、後述する図6により詳細に説明する。
Each
前述したように図4の例の場合、撮影指示タイミング403内の縦線432のタイミングで、ユーザから撮影終了指示が入力されている。また、ユーザから撮影終了指示が入力された時点では、撮像タイミング401の例に示されているように、撮像部105においてフレーム11の短秒画像の撮影が終わっている。一方で、前述したステップS204〜ステップS208の処理時間の遅延があるため、ユーザから撮影終了指示が入力された時点で表示部108に表示されているのは、疑似長秒画像"1〜7"になっている。ここで、ユーザは、表示部108の表示を見て疑似長秒画像の仕上がり具合を確認し、その表示されている疑似長秒画像が所望の仕上がり具合になったと判断したときに、撮影終了指示を入力すると考えられる。しがたって、図4の例において、ユーザが所望した仕上がり具合の疑似長秒画像は、撮影指示タイミング403で撮影終了指示が入力されたタイミング(縦線432)で、表示部108に表示されていた疑似長秒画像"1〜7"であると考えられる。
As described above, in the example of FIG. 4, a shooting end instruction is input from the user at the timing of the
これに対し、ユーザから撮影終了指示が入力された時点において、撮像部105では既にフレーム1〜フレーム11までの各短秒画像の撮像が終わっている。したがって、ユーザから撮影終了指示が入力された時点では、図1のRAM103(メモリ)には、フレーム11(少なくともフレーム8〜11)までの短秒画像のデータが保持されていることになる。ここで、もしも、メモリに残っているフレーム11までの各短秒画像を用いた記録用の疑似長秒画像が生成されたとすると、その記録用の疑似長秒画像は、ユーザが所望した疑似長秒画像"1〜7"とは仕上がり具合が異なった画像になってしまう。なお、フレーム11までの各短秒画像を用いた疑似長秒画像は、表示更新タイミング402の例を用いて説明すると、縦線422のタイミングで生成される疑似長秒画像("1〜11")となる。すなわち、この疑似長秒画像("1〜11")は、ユーザが所望した疑似長秒画像"1〜7"とは仕上がり具合が異なった画像となる。
On the other hand, at the time when a shooting end instruction is input from the user, the
そこで、本実施形態の撮像装置100は、撮像タイミング401と、表示更新タイミング402及び図4には不図示の記録用の疑似長秒画像の生成タイミングとを、独立して制御可能となされている。すなわち、図2のフローチャートでは、ステップS203,S211で撮影終了指示が検出されたと判断(Yes)された場合には処理が終了され、ステップS204のメモリからの短秒画像の読み出し以降の処理(ステップS210までの処理)は行われない。したがって、ユーザから撮影終了指示が入力された時の記録用の疑似長秒画像は、表示用と同様に疑似長秒画像"1〜7"となり、ユーザが意図していないフレーム11の短秒画像までの疑似長秒画像("1〜11")が生成されることはない。
Therefore, the
このように本実施形態の撮像装置100によれば、ユーザが撮影終了指示を入力した時点で表示部108に表示されている疑似長秒画像、つまりユーザが意図した仕上がりの疑似長秒画像が、記録用の疑似長秒画像として生成される。したがって、本実施形態によれば、ユーザが所望する仕上がりの疑似長秒画像が得られる。
As described above, according to the
また、本実施形態の撮像装置100の場合、撮影終了指示は、ユーザが例えばシャッターボタンを全押し操作することで行われる。ここで、シャッターボタンの全押し操作のように撮像装置100に対して物理的な力が加えられると、撮像装置100に振動等が伝わり撮影画像がぶれてしまう虞がある。この場合、そのぶれが生じた撮影画像を合成して疑似長秒画像が生成されると、画質が低下する虞がある。これに対し、本実施形態の場合、ユーザが撮影終了指示の入力のためにシャッターボタンを全押し操作した際に撮像部105で取得された短秒画像は、記録用の疑似長秒画像の生成には用いられないため、ぶれのない良好な画質の疑似長秒画像が得られる。
In the case of the
<第2の実施形態>
前述した第1の実施形態は、ユーザから撮影終了指示が入力された時点で合成処理が完了している疑似長秒画像を記録等する例となされている。以下の第2の実施形態においても第1の実施形態と同様に、撮影終了指示が入力された時点で合成処理が完了している疑似長秒画像を、ユーザが所望した仕上がりの画像とする。第2の実施形態の場合は、撮影終了指示が入力された時点で既にメモリに保持されてはいるが、疑似長秒画像の生成には使用されていない短秒画像のデータを用い、疑似長秒画像生成時の合成処理とは別の画像処理を行う。具体的には、第2の実施形態では、メモリに保持されているが疑似長秒画像の生成に使用しなかった短秒画像を用い、既に合成処理が完了している疑似長秒画像に対し、例えば低輝度領域(つまり暗部)のノイズを改善する処理を行って画質の向上を図る。なお、第2の実施形態における撮像装置100の概略構成は、前述した図1と同様であるため、その図示と各部の説明は省略する。
<Second Embodiment>
The first embodiment described above is an example of recording a pseudo long-second image in which the composition process is completed when a shooting end instruction is input from the user. Also in the following second embodiment, similarly to the first embodiment, a pseudo long-second image that has been combined at the time when a photographing end instruction is input is set as a finished image desired by the user. In the case of the second embodiment, the pseudo-long image data, which is already stored in the memory when the photographing end instruction is input but is not used to generate the pseudo-long-second image, is used. Image processing different from the composition processing at the time of generating the second image is performed. Specifically, in the second embodiment, a short second image that is stored in the memory but is not used to generate the pseudo long second image is used, and the pseudo long second image that has already been combined is processed. For example, processing for improving noise in a low luminance region (that is, a dark portion) is performed to improve image quality. Note that the schematic configuration of the
図5は、第2の実施形態において、疑似長秒モードで前述同様に疑似長秒画像を生成するとともに、その疑似長秒画像の生成に使用しなかった短秒画像を用いて、疑似長秒画像の暗部ノイズを改善する処理の流れを示すフローチャートである。図5のフローチャートにおいて、ステップS501からステップS511までの各処理は、図2のフローチャートのステップS201からステップS211での各処理とそれぞれ同じ処理であり、それらの説明は省略する。第2の実施形態の図5のフローチャートでは、ステップS512とステップS513の処理が追加されており、以下、これらステップS512とステップS513について説明する。 FIG. 5 shows a pseudo long-second image generated in the pseudo long-second mode in the second embodiment in the same manner as described above, and using a short-second image that was not used to generate the pseudo-long-second image. It is a flowchart which shows the flow of the process which improves the dark part noise of an image. In the flowchart of FIG. 5, each process from step S501 to step S511 is the same as each process from step S201 to step S211 in the flowchart of FIG. 2, and description thereof will be omitted. In the flowchart of FIG. 5 of the second embodiment, processes of step S512 and step S513 are added, and hereinafter, step S512 and step S513 will be described.
システム制御部101は、図5のステップS511において、操作部110を介してユーザからの撮影終了指示を検出したと判断(Yes)した場合、図5のステップS512に処理を進める。ステップS512の処理は、システム制御部101による制御の下で画像処理部107により行われる。
If the
ステップS512では、画像処理部107は、撮影終了指示が入力された時点で既にメモリ(RAM103)に保持されてはいるが、疑似長秒画像の生成には使用されていない短秒画像(複数の短秒画像)のデータを、メモリから取得する。そして、画像処理部107は、メモリから取得したそれら各短秒画像を、画素毎に加算平均することで合成する。以下、この加算平均合成処理により生成される合成画像を、加算平均画像と表記する。なお、各短秒画像の加算平均合成処理は、各短秒画像の全体を加算平均合成する例の他に、各短秒画像の低輝度領域(暗部)のみを加算平均合成する処理であってもよい。複数の短秒画像を加算平均合成処理した加算平均画像は、加算平均によりノイズ成分が平滑化されてノイズが改善した画像になる。例えば夜間に撮影された短秒画像は特に低輝度領域である暗部でノイズの目立つ画像になり易いが、本実施形態のように複数の短秒画像を加算平均合成処理した場合は、それら暗部のノイズが改善された画像が得られる。ステップS512の後、画像処理部107は、ステップS513に処理を進める。
In step S512, the
ステップS513では、画像処理部107は、出力画像生成処理として、ステップS510で生成した疑似長秒画像と、ステップS512で生成された加算平均画像とを用いて、比較暗合成処理を行う。本実施形態における比較暗合成処理は、ステップS512で生成された加算平均画像と、ステップS510で生成された疑似長秒画像とを、それぞれ所定輝度値と比較した結果に基づく合成処理である。具体的には、例えば所定輝度値以上の輝度値が高い領域は疑似長秒画像を、一方、所定輝度値よりも輝度値が低い領域は加算平均画像を採用するようにして、それら疑似長秒画像と加算平均画像を合成する。これにより、光の軌跡等の輝度が高い領域は疑似長秒画像の領域が採用され、背景の暗部等の輝度が低い領域は加算平均画像の領域が採用されるようになり、暗部のノイズが改善された疑似長秒画像が得られることになる。
In step S513, the
また、ステップS513における合成処理は、基準画像と合成対象画像の同座標の画素の輝度値を比較して、輝度値が低い方(暗い方)の画素を採用するようにして合成画像を生成するような処理であってもよい。この例の場合、ステップS512で生成された加算平均画像が基準画像となされ、ステップS510で生成された疑似長秒画像が合成対象画像となされて、それら画像の合成処理が行われる。これにより、ステップS510で生成された疑似長秒画像の低輝度領域(輝度値が低い暗部)が、ステップS512で生成された加算平均画像の低輝度領域により置き換えられることになり、暗部のノイズが改善された疑似長秒画像が得られる。 Further, in the synthesis process in step S513, the luminance value of the pixel at the same coordinate in the reference image and the synthesis target image is compared, and a synthesized image is generated so as to adopt a pixel with a lower luminance value (darker). Such processing may be used. In the case of this example, the addition average image generated in step S512 is used as a reference image, the pseudo long-second image generated in step S510 is used as a synthesis target image, and the synthesis process of these images is performed. As a result, the low-brightness area (dark part with low luminance value) of the pseudo long-second image generated in step S510 is replaced with the low-brightness area of the addition average image generated in step S512, and noise in the dark part is generated. An improved pseudo long second image is obtained.
以下、図5のステップS512とステップS513の処理について、図6と図7を用いてさらに詳細に説明する。図6の前に図7から説明する。
図7の画像701は、夜間にライトを点灯させて走行している自動車を撮像した三つの短秒画像A,B,Cから図5のステップS509〜ステップS510により生成された記録用の疑似長秒画像(疑似長秒画像A+B+C)であるとする。なお、疑似長秒画像701は、前述した図3の合成画像305(疑似長秒画像)で説明したのと同様の光の軌跡315を有する画像であるとする。また、図7の画像702と画像703は、撮影終了指示が入力された時点でメモリに保持されてはいるが、疑似長秒画像の生成には使用されていない短秒画像(短秒画像Dと短秒画像E)であるとする。また、疑似長秒画像701の領域711、短秒画像702の領域712、短秒画像703の領域713は、それぞれ暗い背景領域であるとする。なお、疑似長秒画像701は、それぞれ短い露光時間の短秒画像A,B,Cを比較明合成処理した画像であるため、暗い背景領域711は例えば適正露光の画像と比べるとSNが低く、暗部ノイズが多い領域になっていると考えられる。短秒画像D,Eについても同様に、短い露光時間の画像であるため、それぞれ暗い背景領域712,713は適正露光の画像と比べるとSNが低く、暗部ノイズが多い領域になっていると考えられる。
Hereinafter, the processing in steps S512 and S513 in FIG. 5 will be described in more detail with reference to FIGS. 7 will be described before FIG.
An
第2の実施形態では、図5のステップS512において、短秒画像702と短秒画像703とが加算平均合成処理721により合成される。加算平均合成処理721により得られた加算平均画像705は、前述したように暗い背景領域714の暗部ノイズが改善された画像となる。そして、第2の実施形態では、図5のステップS513において、加算平均画像705と疑似長秒画像701とが比較暗合成処理722により合成される。この比較暗合成処理722により得られた画像704は、疑似長秒画像701の暗い背景領域711が、加算平均画像705の暗い背景領域714により置き換えられた背景領域715を有する疑似長秒画像となる。すなわち、疑似長秒画像704は、暗部ノイズが改善した画像となる。第2の実施形態では、この暗部ノイズが改善された疑似長秒画像704が、出力画像生成処理により生成された出力画像、つまり最終的な記録用の疑似長秒画像となされる。
In the second embodiment, the short-second image 702 and the short-second image 703 are combined by the addition
また、本実施形態では、疑似長秒画像701と加算平均画像705の合成処理が、比較暗合成処理722となされている例を挙げたが、比較暗合成処理722ではなく別の手法による合成処理であってもよい。例えば、画像処理部107は、前述した疑似長秒画像701を生成した際の短秒画像A,B,C、さらに短秒画像702(D),703(E)から、自動車等の移動体領域を検出し、その移動体領域におけるオプティカフフローを求めて動体判定を行う。そして画像処理部107は、疑似長秒画像701の中で、動体と判定された領域はそのまま用い、一方、動体でない領域(背景領域711)については、加算平均画像705の中の動体でない領域(背景領域714)により置き換えるような合成処理を行う。この例においても、暗部ノイズが改善された疑似長秒画像が得られる。
In the present embodiment, the example in which the synthesis process of the pseudo long-
また前述の例では、疑似長秒画像701の背景領域711を、加算平均画像705の背景領域714により置き換える処理は、二値的に背景領域711を背景領域714に切り替える処理となされている。これら背景領域711を背景領域714に置き換える処理は、二値的な切り替え処理ではなく、例えば疑似長秒画像701の輝度情報を基に前述同様の重み付けを行って、その重みに応じたゲインを乗算した後に加算するような処理であってもよい。
In the above-described example, the process of replacing the
次に、図6を用いて、前述した図5のフローチャートの処理が行われるタイミングについて説明する。なお、図6は前述した図4と同様にして表される図である。図6において、撮影指示タイミング603は、ユーザがシャッターボタンの操作により撮影開始指示と撮影終了指示とを行ったタイミングを表し、縦線631は撮影開始指示、縦線632は撮影終了指示がなされたタイミングを表している。また、撮像タイミング601内の各縦線611は撮影開始後に短秒画像の各フレームが撮像されたタイミングを表し、撮影開始後の時系列順に取得された各短秒画像のフレームがそれぞれ1,2,3,・・・で表されている。また、表示更新タイミング602内の各縦線621は表示が更新されるタイミングを表し、"1"は最初の一枚目のフレームを、"1〜2","1〜3",・・・は疑似長秒画像の生成に用いられた各フレームを表している。また、各疑似長秒画像"1〜2","1〜3",・・・は、図5のステップS504〜S508に要する処理時間の分だけ、撮像タイミング601の各フレーム1,2,3,・・・からそれぞれ遅延している。
Next, the timing at which the processing of the flowchart of FIG. 5 described above is performed will be described with reference to FIG. FIG. 6 is a diagram expressed in the same manner as FIG. 4 described above. In FIG. 6, a
図6において、記録画像生成タイミング604は、図5のステップS509〜ステップS510で記録用の疑似長秒画像が生成されるタイミングを表している。すなわち、撮影開始直後の最初の一枚目のフレーム1の短秒画像から最初の記録用の画像が生成された後、記録画像生成タイミング604内の各縦線641のタイミングで、逐次、記録用の疑似長秒画像が生成される。また、記録画像生成タイミング604の中の"1〜2","1〜3",・・・の数字は、記録用の疑似長秒画像が何れのフレームを基に生成されたものであるかを表している。なお、本実施形態の場合、図5に示すように、ステップS509〜ステップS510による記録用の疑似長秒画像の生成処理は、ステップS504〜ステップS508による表示用の疑似長秒画像の生成と表示処理の後に行われている。このため、図6に示すように、記録画像生成タイミング604は、表示更新タイミング602より僅かに遅れたタイミングとなっている。
In FIG. 6, a recorded
図6の例では、撮影指示タイミング603内の縦線632のタイミングでユーザから撮影終了指示が入力され、その撮影終了指示の入力時点では撮像タイミング601のフレーム11の撮影が終わっている。一方、撮影終了指示の入力時点では、図5のステップS504〜ステップS508の処理時間による遅延があるため、表示部108には疑似長秒画像"1〜7"が表示されている。つまり、ユーザが所望した仕上がりの疑似長秒画像は、表示部108に表示されている疑似長秒画像"1〜7"であると考えられる。第2の実施形態の撮像装置100においても、前述の第1の実施形態の場合と同様に、記録用の疑似長秒画像は、撮影終了指示が入力された時点の疑似長秒画像、つまり疑似長秒画像"1〜7"となされる。このように第2の実施形態においても、第1の実施形態と同様、ユーザが撮影終了指示を入力した時点で表示されていた疑似長秒画像、つまりユーザが意図した仕上がりの疑似長秒画像が、記録用の疑似長秒画像として生成される。したがって、ユーザが所望する仕上がりの疑似長秒画像が得られる。
In the example of FIG. 6, a shooting end instruction is input from the user at the timing of the
さらに、第2の実施形態の場合は、図5のステップS512とステップS513で説明したように、撮影終了指示入力時点で疑似長秒画像の生成に使用されていない各短秒画像を加算平均合成した加算平均画像と、疑似長秒画像とを比較暗合成する。なお、図6の例では、フレーム区間652で示されるフレーム8,9,10,11の各短秒画像が、撮影終了指示入力時点で疑似長秒画像の生成に使用されていない短秒画像である。一方、フレーム区間651で示される各フレーム1,2,3,・・・,7の各短秒画像は、撮影終了指示入力時点で疑似長秒画像の生成に使用された短秒画像である。前述した第1の実施形態では、フレーム区間652の各フレーム8,9,10,11の短秒画像は使用されないが、第2の実施形態では、これらフレーム8,9,10,11の各短秒画像を加算平均合成して加算平均画像が生成される。そして、第2の実施形態では、フレーム区間651の各フレームの短秒画像から生成された疑似長秒画像と、フレーム区間652の各フレームの短秒画像から生成された加算平均画像とが、比較暗合成処理される。図6の例では、記録画像生成タイミング604の縦線642のタイミングで、比較暗合成処理後の疑似長秒画像が生成されている。
Further, in the case of the second embodiment, as described in step S512 and step S513 in FIG. 5, each short second image that is not used for generating the pseudo long second image at the time of inputting the photographing end instruction is added and averaged combined. The dark average synthesized image and the pseudo long-second image are subjected to comparative dark synthesis. In the example of FIG. 6, the short-second images of the
前述したように、第2の実施形態では、第1の実施形態と同様に、ユーザが所望する仕上がりの疑似長秒画像を得ることができ、また、ぶれのない良好な画質の疑似長秒画像を得ることができる。さらに、第2の実施形態によれば、ユーザから撮影終了指示が入力された時点で疑似長秒画像の生成に用いなかった各短秒画像を加算平均合成した加算平均画像と、疑似長秒画像とを比較暗合成処理している。これにより、第2の実施形態では、暗部のノイズを改善した画質の良い疑似長秒画像を得ることができる。 As described above, in the second embodiment, as in the first embodiment, it is possible to obtain a pseudo long-second image having a desired finish by the user, and also to obtain a pseudo long-second image having good image quality without blurring. Can be obtained. Further, according to the second embodiment, an addition average image obtained by adding and synthesizing each short second image that was not used for generation of the pseudo long second image when the photographing end instruction is input from the user, and the pseudo long second image And comparative dark synthesis processing. As a result, in the second embodiment, it is possible to obtain a pseudo long-second image with good image quality and improved noise in the dark part.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、本発明は、上述の実施形態の各機能は回路(例えばASIC)とプログラムとの協働により実現することも可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. In the present invention, each function of the above-described embodiment can be realized by cooperation of a circuit (for example, ASIC) and a program.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
101 システム制御部、102 ROM、103 RAM、104 光学系、105 撮像部、106 A/D変換部、107 画像処理部、108 表示部、109 記録部、110 操作部 101 system control unit, 102 ROM, 103 RAM, 104 optical system, 105 imaging unit, 106 A / D conversion unit, 107 image processing unit, 108 display unit, 109 recording unit, 110 operation unit
Claims (14)
前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成手段と、
ユーザから終了指示が入力されたタイミングを検出する検出手段と、を有し、
ユーザから終了指示が入力されたタイミングの検出までに前記合成手段による前記合成処理が完了している合成画像を、出力画像とすることを特徴とする画像処理装置。 Acquisition means for acquiring a plurality of input images input in order;
Using the input images in the input order, and sequentially performing a combining process to generate a combined image;
Detecting means for detecting timing when an end instruction is input from the user,
An image processing apparatus, wherein an output image is a combined image in which the combining process by the combining unit is completed before detection of a timing when an end instruction is input from a user.
前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成手段と、
ユーザから終了指示が入力されたタイミングを検出する検出手段と、
前記取得手段により取得された複数の入力画像のうち、ユーザから終了指示が入力されたタイミングまでに前記合成手段による前記合成処理が行われていない複数の入力画像を、逐次、加算平均して加算平均画像を生成する加算平均手段と、
前記ユーザから終了指示が入力されたタイミングまでに前記合成手段による前記合成処理が完了している合成画像と、前記加算平均画像と、を合成して出力画像を生成する出力画像生成手段と、
を有することを特徴とする画像処理装置。 Acquisition means for acquiring a plurality of input images input in order;
Using the input images in the input order, and sequentially performing a combining process to generate a combined image;
Detecting means for detecting timing when an end instruction is input from a user;
Among a plurality of input images acquired by the acquisition unit, a plurality of input images that have not been subjected to the combining process by the combining unit until the timing when the end instruction is input from the user are sequentially added and averaged and added. An averaging means for generating an average image;
Output image generation means for generating an output image by combining the combined image in which the combining processing by the combining means has been completed by the timing when an end instruction is input from the user and the addition average image;
An image processing apparatus comprising:
前記合成画像の輝度値と、前記加算平均画像の輝度値とを、所定輝度値と比較し、
前記所定輝度値以上の輝度値が高い領域は前記合成画像を採用し、前記所定輝度値よりも輝度値が低い領域は前記加算平均画像を採用するようにして、前記合成画像と前記加算平均画像を合成した画像を、前記出力画像とすることを特徴とする請求項2又は3に記載の画像処理装置。 The output image generation means includes
The luminance value of the composite image and the luminance value of the addition average image are compared with a predetermined luminance value,
The composite image and the addition average image are configured such that the region having a higher luminance value than the predetermined luminance value employs the composite image, and the region having a luminance value lower than the predetermined luminance value employs the addition average image. The image processing apparatus according to claim 2, wherein an image obtained by combining the images is used as the output image.
前記出力画像生成手段は、前記合成画像の中で前記移動体でない領域を、前記加算平均画像の中で前記移動体でない領域により置き換えるようにして合成を行った画像を、前記出力画像とすることを特徴とする請求項2乃至4の何れか1項に記載の画像処理装置。 A moving object determining means for determining an area of a moving object in the composite image and the addition average image;
The output image generation means sets an image obtained by combining an area that is not the moving body in the combined image with an area that is not the moving body in the addition average image as the output image. The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記表示手段は、前記合成画像の生成に用いられた複数の撮像画像がそれぞれ撮像された際の各露光時間を加算した時間を、前記合成画像とともに更新表示することを特徴とする請求項8に記載の画像処理装置。 The acquisition unit acquires a captured image as the input image,
9. The display unit according to claim 8, wherein the display unit updates and displays, together with the composite image, a time obtained by adding the exposure times when the plurality of captured images used to generate the composite image are captured. The image processing apparatus described.
前記合成手段は、前記取得手段に記憶された入力画像を前記入力の順に読み出し、所定の処理時間を要する前記合成処理を行うことを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。 The acquisition means acquires and stores a captured image as the input image,
The said synthetic | combination means reads the input image memorize | stored in the said acquisition means in order of the said input, The said synthetic | combination process which requires predetermined | prescribed processing time is performed, The any one of Claim 1 thru | or 9 characterized by the above-mentioned. Image processing device.
前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成工程と、
ユーザから終了指示が入力されたタイミングを検出する検出工程と、を有し、
ユーザから終了指示が入力されたタイミングの検出までに前記合成工程による前記合成処理が完了している合成画像を、出力画像とすることを特徴とする画像処理装置の画像処理方法。 An acquisition step of acquiring a plurality of input images sequentially input;
Using the input images in the input order, and sequentially performing a combining process to generate a combined image;
Detecting a timing at which an end instruction is input from the user, and
An image processing method for an image processing apparatus, wherein an output image is a combined image in which the combining process in the combining step is completed before detection of a timing at which an end instruction is input from a user.
前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成工程と、
ユーザから終了指示が入力されたタイミングを検出する検出工程と、
前記取得工程により取得された複数の入力画像のうち、ユーザから終了指示が入力されたタイミングまでに前記合成工程による前記合成処理が行われていない複数の入力画像を、逐次、加算平均して加算平均画像を生成する加算平均工程と、
前記ユーザから終了指示が入力されたタイミングまでに前記合成工程による前記合成処理が完了している合成画像と、前記加算平均画像と、を合成して出力画像を生成する出力画像生成工程と、
を有することを特徴とする画像処理装置の画像処理方法。 An acquisition step of acquiring a plurality of input images sequentially input;
Using the input images in the input order, and sequentially performing a combining process to generate a combined image;
A detection step of detecting a timing when an end instruction is input from the user;
Among a plurality of input images acquired in the acquisition step, a plurality of input images that have not been subjected to the combining process by the combining step until the timing when an end instruction is input from the user are sequentially added and averaged and added. An averaging process for generating an average image;
An output image generation step of generating an output image by combining the combined image in which the combining processing by the combining step is completed by the timing when an end instruction is input from the user and the addition average image;
An image processing method for an image processing apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016206237A JP6786346B2 (en) | 2016-10-20 | 2016-10-20 | Image processing equipment, image processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016206237A JP6786346B2 (en) | 2016-10-20 | 2016-10-20 | Image processing equipment, image processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018067846A true JP2018067846A (en) | 2018-04-26 |
JP6786346B2 JP6786346B2 (en) | 2020-11-18 |
Family
ID=62087285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016206237A Active JP6786346B2 (en) | 2016-10-20 | 2016-10-20 | Image processing equipment, image processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6786346B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180259A (en) * | 2002-09-30 | 2004-06-24 | Toshiba Corp | Image composing method, image composing device, and image composing program |
JP2009017078A (en) * | 2007-07-03 | 2009-01-22 | Fujifilm Corp | Digital still camera and its operation controlling method |
JP2009130887A (en) * | 2007-11-28 | 2009-06-11 | Olympus Imaging Corp | Imaging apparatus and method of controlling the same |
JP2013255180A (en) * | 2012-06-08 | 2013-12-19 | Olympus Corp | Image processing apparatus, image processing method, image processing program and imaging apparatus |
JP2016076847A (en) * | 2014-10-07 | 2016-05-12 | オリンパス株式会社 | Imaging apparatus and imaging method |
-
2016
- 2016-10-20 JP JP2016206237A patent/JP6786346B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180259A (en) * | 2002-09-30 | 2004-06-24 | Toshiba Corp | Image composing method, image composing device, and image composing program |
JP2009017078A (en) * | 2007-07-03 | 2009-01-22 | Fujifilm Corp | Digital still camera and its operation controlling method |
JP2009130887A (en) * | 2007-11-28 | 2009-06-11 | Olympus Imaging Corp | Imaging apparatus and method of controlling the same |
JP2013255180A (en) * | 2012-06-08 | 2013-12-19 | Olympus Corp | Image processing apparatus, image processing method, image processing program and imaging apparatus |
JP2016076847A (en) * | 2014-10-07 | 2016-05-12 | オリンパス株式会社 | Imaging apparatus and imaging method |
Also Published As
Publication number | Publication date |
---|---|
JP6786346B2 (en) | 2020-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5226600B2 (en) | Image deformation apparatus and operation control method thereof | |
KR101594300B1 (en) | A apparatus and method for estimating PSF | |
WO2013021767A1 (en) | Device and method for detecting moving objects | |
JP6659162B2 (en) | Imaging device, imaging device control method, and program | |
JP6643371B2 (en) | Imaging device, control method, and program | |
JP2017175364A (en) | Image processing device, imaging device, and control method of image processing device | |
JP6429915B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
JP2020108101A (en) | Information processing unit, imaging apparatus, information processing method and control method of imaging apparatus | |
US20150163396A1 (en) | Image processing device, display device, imaging apparatus, image processing method, and program | |
JP2012235198A (en) | Imaging apparatus | |
JP2020096280A (en) | Imaging apparatus, control method of imaging apparatus, and program | |
JP6762843B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6786346B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2015179968A (en) | Device, method and program | |
JP2019016893A (en) | Image processing apparatus, control method therefor, and program | |
JP6759039B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6157274B2 (en) | Imaging apparatus, information processing method, and program | |
JP2016208118A (en) | Image processing apparatus, image processing method, and program | |
JP2019216398A (en) | Imaging apparatus and control method therefor, and program | |
JP2020053960A (en) | Imaging apparatus, control method of the same, and program | |
JP6700937B2 (en) | Image processing apparatus, control method thereof, and program | |
JP2014138378A (en) | Image pickup device, control method thereof, and control program thereof | |
JP2016032180A (en) | Imaging apparatus, control method and program | |
JP2019075640A (en) | Image processing device and image processing method | |
JP5721552B2 (en) | Imaging apparatus and image composition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201028 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6786346 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |