JP2018067846A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2018067846A
JP2018067846A JP2016206237A JP2016206237A JP2018067846A JP 2018067846 A JP2018067846 A JP 2018067846A JP 2016206237 A JP2016206237 A JP 2016206237A JP 2016206237 A JP2016206237 A JP 2016206237A JP 2018067846 A JP2018067846 A JP 2018067846A
Authority
JP
Japan
Prior art keywords
image
input
combining
timing
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016206237A
Other languages
Japanese (ja)
Other versions
JP6786346B2 (en
Inventor
宏典 海田
Hironori Kaida
宏典 海田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016206237A priority Critical patent/JP6786346B2/en
Publication of JP2018067846A publication Critical patent/JP2018067846A/en
Application granted granted Critical
Publication of JP6786346B2 publication Critical patent/JP6786346B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a composite image with a finish desired by a user.SOLUTION: A RAM (103) holds a plurality of input images sequentially input from an imaging unit (105). An image processing unit (107) successively performs a combining process using the input images in the order of input to generate a composite image. A system control unit (101) regards a composite image completed by the image processing unit (107) as an output image by the timing when an end instruction is input from a user.SELECTED DRAWING: Figure 1

Description

本発明は、入力画像を処理して出力する画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus that processes and outputs an input image, an image processing method, and a program.

以前より、露光時間を長くした撮影を行うことで、例えば走行している自動車のライトや花火の光等のような移動体の軌跡画像を取得可能とした表現技法がある。以下、長い露光時間による撮影を長秒撮影と表記し、長秒撮影により得られる画像を長秒画像と表記する。ただし、本技法の場合、ユーザ(撮影者)は、どの程度の露光時間で撮影を行えば、移動体の軌跡が所望する仕上がりとなる長秒画像を取得できるのかを、実際の撮影を行う前に想定しなければならず、これには或る程度の経験が必要となる。また、経験を積んだユーザであっても、常に所望する仕上がりの長秒画像を撮影できるとは限らない。   There is an expression technique that makes it possible to acquire a trajectory image of a moving object such as a light of a running car or a light of fireworks by performing shooting with a longer exposure time than before. Hereinafter, shooting with a long exposure time is referred to as long-second shooting, and an image obtained by long-second shooting is referred to as a long-second image. However, in the case of this technique, the user (photographer) can determine how long exposure time can be taken to obtain a long-second image with a desired trajectory of the moving object before performing actual shooting. This requires some experience. Further, even an experienced user cannot always take a desired long-second image.

このため、近年は、短い露光時間の撮影を短い時間間隔で連続して行って得られた複数の画像を合成することにより、長秒撮影による長秒画像に相当する画像を生成しつつ、その生成過程をカメラのライブビュー画面に逐次表示する技術が提案されている。以下、短い露光時間による撮影を短秒撮影と表記し、短秒撮影により得られた画像を短秒画像と表記し、短い時間間隔で連続した短秒撮影による複数の短秒画像を合成して生成される画像(長秒画像に相当する画像)を、疑似長秒画像と表記する。このようにして生成した疑似長秒画像をライブビュー画面に逐次表示することで、ユーザは、軌跡画像の仕上がりをリアルタイムに確認しながら、所望の仕上がりの画像(疑似長秒画像)を得ることができる。   Therefore, in recent years, by synthesizing a plurality of images obtained by continuously performing shooting with a short exposure time at a short time interval, an image corresponding to a long second image by long second shooting is generated. A technique for sequentially displaying the generation process on a live view screen of a camera has been proposed. In the following, shooting with a short exposure time is referred to as short-second shooting, images obtained by short-second shooting are referred to as short-second images, and multiple short-second images taken at short time intervals are synthesized. The generated image (an image corresponding to a long second image) is referred to as a pseudo long second image. By sequentially displaying the pseudo-long-second image generated in this way on the live view screen, the user can obtain a desired image (pseudo-long-second image) while confirming the finish of the trajectory image in real time. it can.

なお、特許文献1には、撮像部により撮像された複数フレームの撮影画像を合成して合成画像を生成する電子カメラが開示されている。また、特許文献1に記載の電子カメラは、ユーザ(撮影者)からの指示に基づいて撮像部による撮像の中止を判断するようになされている。   Patent Document 1 discloses an electronic camera that generates a composite image by combining a plurality of frames of captured images captured by an imaging unit. Moreover, the electronic camera described in Patent Document 1 is configured to determine whether to stop imaging by the imaging unit based on an instruction from a user (photographer).

特開2006−332934号公報JP 2006-332934 A

ここで、特許文献1に記載の電子カメラは、ユーザから撮影終了の指示がなされた時点で撮像部による撮像を中止し、その撮像が中止されるまでの間に得られた撮像画像を合成して合成画像(つまり疑似長秒画像)を生成する構成となされている。一方、ユーザは、電子カメラのモニタ画面に逐次表示されている合成画像を確認しつつ、所望の仕上がりの画像が表示されたときに、撮影終了の指示を入力する。しかしながら、撮像部で撮像された撮像画像に対し、モニタ画面に逐次表示されている合成結果は、少なくとも合成の処理時間分の遅延が生じている。したがって、ユーザが撮影終了指示を入力した時点でモニタ画面に表示されていた合成結果と、ユーザからの撮影終了指示により撮像が中止されるまでの間に取得されている撮像画像から生成される合成画像(疑似長秒画像)とは、一致していない。すなわち、撮像画像から生成された合成画像(疑似長秒画像)は、ユーザがモニタ画面で確認した所望の仕上がりの疑似長秒画像とは異なる仕上がりの画像になってしまう。   Here, the electronic camera described in Patent Document 1 stops imaging by the imaging unit when an instruction to end shooting is given from the user, and synthesizes the captured images obtained until the imaging is stopped. Thus, a composite image (that is, a pseudo long-second image) is generated. On the other hand, the user inputs an instruction to end shooting when an image with a desired finish is displayed while checking the composite image sequentially displayed on the monitor screen of the electronic camera. However, the combined result that is sequentially displayed on the monitor screen with respect to the captured image captured by the image capturing unit has a delay of at least the combined processing time. Therefore, the composition generated from the combination result displayed on the monitor screen when the user inputs the photographing end instruction and the captured image acquired until the photographing is stopped by the photographing end instruction from the user. It does not match the image (pseudo long-second image). That is, the composite image (pseudo long-second image) generated from the captured image becomes an image having a different finish from the desired pseudo-long-second image confirmed on the monitor screen by the user.

そこで、本発明は、ユーザが所望する仕上がりの合成画像が得られるようにすることを目的とする。   Therefore, an object of the present invention is to obtain a composite image having a finish desired by a user.

本発明は、順に入力された複数の入力画像を取得する取得手段と、前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成手段と、ユーザから終了指示が入力されたタイミングを検出する検出手段と、を有し、ユーザから終了指示が入力されたタイミングの検出までに前記合成手段による前記合成処理が完了している合成画像を、出力画像とすることを特徴とする。   The present invention is an acquisition unit that acquires a plurality of input images input in order, a combining unit that sequentially generates a composite image by using the input images in the input order, and ends from the user Detection means for detecting timing at which an instruction is input, and an output image is a combined image in which the combining processing by the combining means has been completed until detection of timing at which an end instruction is input from a user It is characterized by that.

本発明によれば、ユーザが所望する仕上がりの合成画像を得ることが可能となる。   According to the present invention, it is possible to obtain a composite image having a finish desired by a user.

本実施形態の撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device of this embodiment. 第1の実施形態の疑似長秒モード時の動作のフローチャートである。It is a flowchart of the operation | movement at the time of pseudo | simulation long second mode of 1st Embodiment. 比較明合成を説明するための図である。It is a figure for demonstrating comparatively bright composition. 第1の実施形態における処理のタイミング図である。It is a timing diagram of the process in 1st Embodiment. 第2の実施形態の疑似長秒モード時の動作のフローチャートである。It is a flowchart of the operation | movement at the time of pseudo | simulation long second mode of 2nd Embodiment. 第2の実施形態における処理のタイミング図である。It is a timing diagram of the process in 2nd Embodiment. 第2の実施形態における合成処理を説明する図である。It is a figure explaining the synthetic | combination process in 2nd Embodiment.

以下、本発明の一実施形態を、添付の図面に基づいて詳細に説明する。本実施形態の画像処理装置は、デジタルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末等の各種携帯端末、工業用カメラ、車載カメラ、医療用カメラ等に適用可能である。本実施形態では、画像処理装置の一適用例として、デジタルカメラ等の撮像装置を挙げて説明する。また、本実施形態の撮像装置は、短い露光時間の撮影を短い時間間隔で連続して行って得た複数の画像から、長い露光時間で撮影された画像に相当する画像を逐次生成して画面上に逐次表示可能な機能を有している。本実施形態でも前述同様に、長い露光時間による撮影を長秒撮影と表記し、長秒撮影により得られる画像を長秒画像と表記する。また、短い露光時間による撮影を短秒撮影、短秒撮影により得られた画像を短秒画像、短い時間間隔で連続して行われた短秒撮影による複数の短秒画像を合成して生成される、長秒露光画像に相当する画像を、疑似長秒画像と表記する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. The image processing apparatus of the present embodiment can be applied to digital cameras, digital video cameras, various mobile terminals such as smartphones and tablet terminals having camera functions, industrial cameras, in-vehicle cameras, medical cameras, and the like. In the present embodiment, an imaging apparatus such as a digital camera will be described as an application example of the image processing apparatus. In addition, the imaging apparatus according to the present embodiment sequentially generates images corresponding to images shot with a long exposure time from a plurality of images obtained by continuously shooting with a short exposure time at short time intervals. It has a function that can be displayed sequentially. In the present embodiment, as described above, shooting with a long exposure time is referred to as long-second shooting, and an image obtained by long-second shooting is referred to as a long-second image. It is also generated by combining short-time shooting for short exposure time, short-second images for short-time shooting, and multiple short-second images for continuous shooting at short time intervals. An image corresponding to the long second exposure image is referred to as a pseudo long second image.

<本実施形態の撮像装置の概略構成>
図1は、本発明の画像処理装置の一実施形態としての撮像装置100の概略構成を示したブロック図である。図1に示した撮像装置100では、撮像装置100の各構成要素(各ブロック)が、例えばバスを介して接続されている。
システム制御部101は、例えばCPUであり、撮像装置100が備える各ブロックの制御プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行することにより撮像装置100の各ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、撮像装置100の各ブロックの制御プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100の各ブロックの動作により生成されたデータの一時的な記憶領域として用いられる。
<Schematic Configuration of Imaging Device of this Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus 100 as an embodiment of an image processing apparatus of the present invention. In the imaging apparatus 100 illustrated in FIG. 1, each component (each block) of the imaging apparatus 100 is connected via a bus, for example.
The system control unit 101 is, for example, a CPU, and reads out a control program for each block included in the imaging apparatus 100 from a ROM 102 described later, develops it in a RAM 103 described later, and executes it to control the operation of each block of the imaging apparatus 100. . The ROM 102 is a rewritable nonvolatile memory, and stores parameters necessary for the operation of each block in addition to the control program for each block of the imaging apparatus 100. The RAM 103 is a rewritable volatile memory, and is used as a temporary storage area for data generated by the operation of each block of the imaging apparatus 100.

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群、絞り、シャッター等を有して構成される。光学系104は、被写体等の光学像を撮像部105の撮像面上に結像させる。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、光学系104により撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号を順次A/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換し、得られたデジタル画像データをRAM103に出力する。RAM103は、A/D変換部106から供給された画像データを一時的に記憶する。   The optical system 104 includes a lens group including a zoom lens and a focus lens, a diaphragm, a shutter, and the like. The optical system 104 forms an optical image of a subject or the like on the imaging surface of the imaging unit 105. The imaging unit 105 is an imaging element such as a CCD or a CMOS sensor, for example. The imaging unit 105 photoelectrically converts an optical image formed on the imaging surface by the optical system 104 and sequentially converts the obtained analog image signals into the A / D conversion unit 106. Output to. The A / D converter 106 converts the input analog image signal into digital image data, and outputs the obtained digital image data to the RAM 103. The RAM 103 temporarily stores the image data supplied from the A / D conversion unit 106.

画像処理部107は、RAM103に一時的に記憶された画像データに対して、ホワイトバランス調整、色補間、ガンマ処理、電子ズーム処理など、様々な画像処理を行う。また本実施形態の場合、画像処理部107は、疑似長秒画像生成のための画像処理をも行う。疑似長秒画像生成などの画像処理の詳細な説明は後述する。なお、画像処理部107における各画像処理は、CPU等がプログラムを実行することにより実現されてもよい。   The image processing unit 107 performs various image processing such as white balance adjustment, color interpolation, gamma processing, and electronic zoom processing on the image data temporarily stored in the RAM 103. In the case of this embodiment, the image processing unit 107 also performs image processing for generating a pseudo long-second image. Detailed description of image processing such as pseudo long-second image generation will be described later. Note that each image processing in the image processing unit 107 may be realized by a CPU or the like executing a program.

表示部108は、液晶ディスプレイ(LCD)等の表示デバイスである。表示部108の画面上には、RAM103や後述する記録部109に記録された画像、ユーザからの指示を受け付けるための操作ユーザーインターフェイス画像等が表示される。また、表示部108には、撮像部105により撮像されているライブビュー画像の表示も行われる。詳細については後述するが、本実施形態では、短い時間間隔で連続して行われた短秒撮影による複数の短秒画像から逐次生成した疑似長秒画像を表示用画像とし、表示部108に逐次更新表示するような画像表示も可能となされている。   The display unit 108 is a display device such as a liquid crystal display (LCD). On the screen of the display unit 108, an image recorded in the RAM 103 or a recording unit 109, which will be described later, an operation user interface image for receiving an instruction from the user, and the like are displayed. The display unit 108 also displays a live view image captured by the imaging unit 105. Although details will be described later, in the present embodiment, a pseudo long-second image sequentially generated from a plurality of short-second images obtained by short-second shooting continuously performed at short time intervals is used as a display image, and is sequentially displayed on the display unit 108. Image display such as update display is also possible.

操作部110は、例えば表示部108の画面に設けられているいわゆるタッチセンサや、撮像装置100の筐体に設けられている各種ボタン、主に画像撮影の際に操作されるシャッターボタン等を含むユーザーインターフェイス部である。シャッターボタンは、いわゆる半押しと全押しの二段階の押下操作を検出可能なボタンである。シャッターボタンが半押しされたときには例えばピントや露出の固定などが行われ、全押しされたときに本撮影が行われる。また、シャッターボタンは、本実施形態における疑似長秒画像の撮影開始指示と撮影終了指示の際にも使用される。なお、シャッターボタンは、有線又は無線により撮像装置100と通信可能なリモートコントローラ等に設けられていてもよい。   The operation unit 110 includes, for example, a so-called touch sensor provided on the screen of the display unit 108, various buttons provided on the housing of the imaging apparatus 100, a shutter button that is mainly operated when taking an image, and the like. It is a user interface part. The shutter button is a button that can detect a two-step pressing operation of so-called half pressing and full pressing. When the shutter button is half-pressed, for example, focus or exposure is fixed, and when the shutter button is fully pressed, actual shooting is performed. The shutter button is also used in the pseudo long-second image photographing start instruction and photographing end instruction in the present embodiment. Note that the shutter button may be provided on a remote controller or the like that can communicate with the imaging device 100 by wire or wirelessly.

<第1の実施形態>
以下、図1の撮像装置100における第1の実施形態の処理モードについて説明する。第1の実施形態の撮像装置100は、短い時間間隔で連続して行った短秒撮影による複数の短秒画像から逐次生成した疑似長秒画像を逐次更新表示する処理モードで動作可能となされている。以下、この処理モードを、疑似長秒モードと表記する。
<First Embodiment>
Hereinafter, the processing mode of the first embodiment in the imaging apparatus 100 of FIG. 1 will be described. The imaging apparatus 100 according to the first embodiment can be operated in a processing mode in which pseudo long-second images sequentially generated from a plurality of short-second images obtained by short-time shooting continuously performed at short time intervals are sequentially updated and displayed. Yes. Hereinafter, this processing mode is referred to as a pseudo long second mode.

図2は、疑似長秒モードにおける第1の実施形態の撮像装置100の動作を示すフローチャートである。図2のフローチャートに示す各ステップの処理は、ROM102に記憶されているプログラムに基づいてシステム制御部101が撮像装置100の各部を制御し、また画像処理部107への入力や出力を制御することにより実現される。このことは後述する他のフローチャートでも同様である。また、本実施形態において、撮像部105における短秒画像の撮像タイミングと、表示部108に表示される画像の表示更新タイミングとは、それぞれ独立して制御されている。以下、図2のフローチャートでは、ステップS201とステップS202からなる短秒画像の撮影の際の処理と、ステップS204以降からなる画像表示と記録の際の処理とに分けて説明する。   FIG. 2 is a flowchart illustrating the operation of the imaging apparatus 100 according to the first embodiment in the pseudo long second mode. In the processing of each step shown in the flowchart of FIG. 2, the system control unit 101 controls each unit of the imaging apparatus 100 based on a program stored in the ROM 102, and controls input and output to the image processing unit 107. It is realized by. The same applies to other flowcharts described later. In the present embodiment, the imaging timing of the short second image in the imaging unit 105 and the display update timing of the image displayed on the display unit 108 are controlled independently. In the following, the flowchart of FIG. 2 will be described by dividing into processing at the time of taking a short second image consisting of step S201 and step S202, and processing at the time of image display and recording consisting of step S204 and subsequent steps.

先ず、図2のステップS201からステップS203までの短秒画像の撮影の際の処理について説明する。
図2のフローチャートの処理は、例えば操作部110を介したユーザ(撮影者)からのモード指示等により本実施形態の撮像装置100が疑似長秒モードに移行したときにスタートする。疑似長秒モードに移行した後、操作部110を介してユーザから撮影開始指示が入力されると、システム制御部101は、短秒撮影の露出時間や撮影間隔等の撮影パラメータを設定する。そして、システム制御部101は、ステップS201において、撮像部105を制御し、撮影パラメータに従った撮像、つまり短秒画像を撮像させる。なお、本実施形態において、撮影開始指示は例えばシャッターボタンの全押しにより行われるとする。ステップS201の後、システム制御部101は、ステップS202に処理を進める。
First, the processing at the time of taking a short second image from step S201 to step S203 in FIG. 2 will be described.
The process of the flowchart in FIG. 2 starts when the imaging apparatus 100 according to the present embodiment shifts to the pseudo long-second mode, for example, by a mode instruction from a user (photographer) via the operation unit 110. After the transition to the pseudo long second mode, when a shooting start instruction is input from the user via the operation unit 110, the system control unit 101 sets shooting parameters such as the exposure time and shooting interval of the short second shooting. In step S201, the system control unit 101 controls the imaging unit 105 to capture an image according to the imaging parameter, that is, capture a short second image. In the present embodiment, it is assumed that an instruction to start shooting is made, for example, when the shutter button is fully pressed. After step S201, the system control unit 101 advances the process to step S202.

ステップS202では、システム制御部101は、ステップS201で撮像部105により逐次撮像された短秒画像のデータを、入力画像のデータとして、逐次、メモリ(RAM103)に記憶させる。また、ステップS202の処理と並行して、システム制御部101は、ステップS203において、操作部110からユーザによる撮影終了指示を検出したか否か判断する。本実施形態において、撮影終了指示は、前述した撮影開始指示に使用されたシャッターボタンがユーザにより再度全押しされることで行われる。システム制御部101は、ステップS203で撮影終了指示を検出していないと判断(No)した場合にはステップS201に処理を戻し、撮像部105に短秒画像の撮影を続けさせる。すなわち、ステップS201からステップS203までの処理は、撮影終了指示を検出するまで繰り返し行われる処理である。したがって、撮像装置100では、ユーザより撮影終了指示がなされるまで、短秒画像の撮影とメモリへの記憶が行われる。一方、ステップS203で撮影終了指示を検出したと判断(Yes)した場合、システム制御部101は、ステップS204に処理を進める。   In step S202, the system control unit 101 causes the memory (RAM 103) to sequentially store the short-second image data sequentially captured by the imaging unit 105 in step S201 as input image data. In parallel with the processing in step S202, the system control unit 101 determines whether or not a shooting end instruction from the user is detected from the operation unit 110 in step S203. In the present embodiment, the shooting end instruction is performed when the shutter button used for the above-described shooting start instruction is fully pressed again by the user. If the system control unit 101 determines in step S203 that the shooting end instruction has not been detected (No), the system control unit 101 returns the processing to step S201 and causes the imaging unit 105 to continue shooting the short-second image. That is, the processing from step S201 to step S203 is processing that is repeatedly performed until a photographing end instruction is detected. Therefore, in the image capturing apparatus 100, a short-second image is captured and stored in the memory until the user gives an instruction to end the capturing. On the other hand, if it is determined in step S203 that a shooting end instruction has been detected (Yes), the system control unit 101 advances the process to step S204.

次に、ステップS204以降の画像表示と記録の際の処理の流れについて説明する。
ステップS204からステップS207までの処理は、システム制御部101による制御の下で画像処理部107により行われる処理である。ステップS204において、画像処理部107は、メモリ(RAM103)に記憶されている入力画像(短秒画像)のデータを取得する(メモリから読み出す)。ステップS204の後、画像処理部107は、ステップS205に処理を進める。
Next, the flow of processing at the time of image display and recording after step S204 will be described.
The processing from step S204 to step S207 is processing performed by the image processing unit 107 under the control of the system control unit 101. In step S204, the image processing unit 107 acquires (reads from the memory) data of the input image (short-second image) stored in the memory (RAM 103). After step S204, the image processing unit 107 advances the processing to step S205.

ステップS205では、画像処理部107は、メモリから読み出した短秒画像を縮小する画像縮小処理を行う。本実施形態の場合、撮像部105の撮像画像(短秒画像)の画素数は表示部108の表示画素数より大きいため、画像処理部107は、短秒画像を縮小する画像縮小処理を行う。ステップS205の後、画像処理部107は、ステップS206に処理を進める。   In step S205, the image processing unit 107 performs an image reduction process for reducing the short-second image read from the memory. In the present embodiment, since the number of pixels of the captured image (short-second image) of the imaging unit 105 is larger than the number of display pixels of the display unit 108, the image processing unit 107 performs image reduction processing for reducing the short-second image. After step S205, the image processing unit 107 advances the process to step S206.

ステップS206では、画像処理部107は、ステップS205で縮小処理した短秒画像に対し、表示位置合わせの処理を行う。この表示位置合わせ処理は、本実施形態の撮像装置100が疑似長秒モードにおいてユーザにより手持ち撮影がなされる場合を想定して行われる処理であり、手持ち撮影による手振れが生じているときの位置ズレを吸収するために行われる。なお、手振れの検出や手振れによる位置ズレを吸収する処理等は公知の処理であるため、その図示や詳細な説明は省略する。ステップS206の後、画像処理部107は、ステップS207に処理を進める。   In step S206, the image processing unit 107 performs display alignment processing on the short-second image reduced in step S205. This display alignment process is a process that is performed assuming that the imaging apparatus 100 of the present embodiment performs handheld shooting by the user in the pseudo long second mode. Done to absorb. In addition, since the process etc. which detect the camera shake, and absorb the position shift by camera shake are well-known processes, the illustration and detailed description are abbreviate | omitted. After step S206, the image processing unit 107 advances the process to step S207.

ステップS207では、画像処理部107は、縮小処理した短秒画像の合成処理を行う。本実施形態の場合、合成処理は、比較明合成処理と呼ばれる処理により行われる。比較明合成処理は、基準画像と合成対象画像の同座標の画素の輝度値を比較し、輝度値が高い方(明るい方)の画素を採用するようにして合成画像を生成するような処理である。詳細は後述するが、本実施形態の場合、時系列順で前のフレームの画像又は合成済みの画像を基準画像とし、時系列順で次のフレームの画像を合成対象画像として、それらの画像を比較明合成処理することで合成画像が生成される。なお、撮影が開始された直後で、画像が最初の一枚目のフレームの短秒画像しか存在しないときには、ステップS207では比較明合成処理は行われない。本実施形態では、このような比較明合成処理を逐次行っていくことにより、疑似長秒画像を生成する。本実施形態における比較明合成処理とそれにより生成される疑似長秒画像の詳細については、後述する図3において説明する。ステップS207の後、システム制御部101は、ステップS208に処理を進める。   In step S207, the image processing unit 107 performs a process for synthesizing the reduced second image. In the present embodiment, the synthesis process is performed by a process called a comparatively bright synthesis process. The comparatively bright combining process is a process in which the luminance value of the pixel at the same coordinate in the reference image and the image to be combined is compared, and a combined image is generated by adopting a pixel with a higher luminance value (brighter). is there. Although details will be described later, in the case of the present embodiment, the image of the previous frame or the synthesized image in the time series order is set as the reference image, and the image of the next frame in the time series order is set as the synthesis target image, and these images are used. A composite image is generated by performing comparatively bright combination processing. It should be noted that, immediately after the start of shooting, when there is only a short second image of the first frame as the first image, the comparatively bright combination process is not performed in step S207. In the present embodiment, a pseudo long-second image is generated by sequentially performing such comparatively bright combination processing. Details of the comparatively bright combination process and the pseudo long-second image generated thereby will be described in FIG. 3 to be described later. After step S207, the system control unit 101 advances the process to step S208.

ステップS208では、システム制御部101は、ステップS207で生成された疑似長秒画像を表示部108の画面上に表示させる。なお、撮影が開始された直後で、画像が最初の一枚目のフレームの短秒画像しか存在しない場合、ステップS208では、一枚目のフレームの短秒画像を縮小処理した画像の表示が行われる。また、システム制御部101は、疑似長秒画像の表示と共に、その疑似長秒画像を生成する際に用いられた短秒画像がそれぞれ撮像されたときの露光時間を加算して求めた秒数を、表示部108の画面上に表示させてもよい。例えば、短秒画像の露光時間がそれぞれ0.5秒で、疑似長秒画像の生成に用いられた短秒画像のフレーム数が10枚であった場合、システム制御部101は、それら10枚分の露出時間を加算した秒数である「5秒」の文字を表示させる。この秒数は、疑似長秒画像が、どの程度の露光時間の長秒撮影で得られる長秒画像に相当する画像であるかを表している。このように、疑似長秒画像と共に前述の秒数を表示することで、ユーザは、現在表示されている疑似長秒画像が、どの程度の長秒露光時間に相当する画像であるかを把握できるようになる。すなわち、ユーザは、その表示された秒数を、撮影終了指示を行うタイミングを決定する際の参考情報とすることができる。ステップS208の後、システム制御部101は、ステップS209に処理を進める。   In step S208, the system control unit 101 displays the pseudo long-second image generated in step S207 on the screen of the display unit 108. Note that, immediately after the start of shooting, if there is only a short second image of the first frame in the image, an image obtained by reducing the short second image of the first frame is displayed in step S208. Is called. Further, the system control unit 101 displays the number of seconds obtained by adding the exposure time when each of the short second images used for generating the pseudo long second image is captured together with the display of the pseudo long second image. Alternatively, it may be displayed on the screen of the display unit 108. For example, when the exposure time of each short-second image is 0.5 seconds and the number of frames of the short-second image used for generating the pseudo-long-second image is 10, the system control unit 101 sets the number of frames for 10 images. “5 seconds”, which is the number of seconds added to the exposure time, is displayed. This number of seconds represents how much the pseudo long-second image is an image corresponding to a long-second image obtained by long-second shooting with an exposure time. In this way, by displaying the above-mentioned number of seconds together with the pseudo long-second image, the user can grasp how much long-second exposure time the pseudo long-second image currently displayed corresponds to. It becomes like this. That is, the user can use the displayed number of seconds as reference information when determining the timing for instructing to end the shooting. After step S208, the system control unit 101 advances the process to step S209.

ステップS209と次のステップS210の処理は、システム制御部101による制御の下、画像処理部107により行われる。ステップS209において、画像処理部107は、記録用画像の位置合わせ処理を行う。この場合の記録用画像とは、撮像部105にて取得されてメモリに蓄積されている短秒画像である。この短秒画像に対する位置合わせ処理は、例えば前述したステップS206における位置合わせ処理と同じ処理でもよいし、異なる処理でもよい。一般的に、記録用画像に対する位置合わせ処理は、撮影後の処理であり、かつ記録用画像に対する処理であるため、処理時間よりも精度を重視した処理であることが望ましい。   The processing in step S209 and the next step S210 is performed by the image processing unit 107 under the control of the system control unit 101. In step S209, the image processing unit 107 performs registration processing of the recording image. The recording image in this case is a short-second image acquired by the imaging unit 105 and accumulated in the memory. The alignment process for the short second image may be the same process as the alignment process in step S206 described above, or may be a different process. In general, the registration process for the recording image is a process after photographing and a process for the recording image, and therefore, it is desirable that the process places more importance on the accuracy than the processing time.

ステップS209の後、ステップS210の処理に進むと、画像処理部107は、撮像部105にて取得されてメモリに蓄積されている短秒画像の合成処理を行う。なお、撮影が開始された直後で、最初の一枚目のフレームの短秒画像のみしか取得されていないときには、ステップS209では合成処理は行われない。また、このときの合成処理は、前述したステップS207における合成処理と同様の比較明合成処理でもよいし、別の合成処理により疑似長秒画像を生成できるような処理が行われてもよい。別の合成処理としては、一例として、基準画像と合成対象画像の同座標の画素において、より高輝度の画素に対して、その輝度に応じた重みを持たせて加算平均するような合成処理を挙げることができる。この合成処理では、具体的には、基準画像と合成対象画像の同座標の画素に、輝度の重みに応じたゲインを乗算した後に加算平均することで合成画像が生成される。この合成処理によれば、例えば動いている被写体における合成の切り替わりが目立ち難い合成画像を得ることができる。そして、ステップS210における合成処理で生成された疑似長秒画像のデータは、後に、システム制御部101による制御の下、出力画像のデータとして記録部109に送られ、記録媒体に記録されることになる。記録用の疑似長秒画像のデータは、記録媒体に記録される場合だけでなく、ネットワーク等を介して出力等されてもよい。ステップS210の後、システム制御部101は、ステップS211に処理を進める。   After step S209, when the process proceeds to step S210, the image processing unit 107 performs a process for synthesizing the short-second image acquired by the imaging unit 105 and stored in the memory. If only the short second image of the first first frame has been acquired immediately after shooting is started, the composition process is not performed in step S209. Further, the synthesis process at this time may be a comparatively bright synthesis process similar to the synthesis process in step S207 described above, or a process that can generate a pseudo long-second image by another synthesis process. As another example of the synthesis process, for example, a synthesis process in which pixels having the same coordinates in the reference image and the synthesis target image are subjected to addition averaging with a weight corresponding to the luminance of the pixel having a higher luminance. Can be mentioned. More specifically, in this synthesis process, a composite image is generated by multiplying pixels having the same coordinates in the reference image and the synthesis target image by a gain corresponding to the weight of the luminance and then averaging. According to this composition processing, for example, a composite image in which composition switching in a moving subject is not noticeable can be obtained. Then, the pseudo long-second image data generated by the synthesis processing in step S210 is later sent to the recording unit 109 as output image data under the control of the system control unit 101, and is recorded on the recording medium. Become. The data of the pseudo long-second image for recording may be output not only when recorded on the recording medium but also via a network or the like. After step S210, the system control unit 101 advances the process to step S211.

ステップS211では、システム制御部101は、操作部110からユーザによる撮影終了指示を検出したか否かを判断する。撮影終了指示は、ステップS203の場合と同様に、ユーザが操作部110のシャッターボタンを全押しすることで行われる。システム制御部101は、ステップS211において、撮影終了指示が検出されていないと判断(No)した場合には、ステップS204に処理を戻す。これにより、次のフレームの短秒画像に対して前述したステップS204以降の処理が行われることになる。一方、ステップS211において、撮影終了指示が検出されたと判断(Yes)した場合には、システム制御部101は、図2のフローチャートの処理を終了する。   In step S <b> 211, the system control unit 101 determines whether the user has detected a shooting end instruction from the operation unit 110. The shooting end instruction is issued when the user fully presses the shutter button of the operation unit 110, as in the case of step S203. If the system control unit 101 determines in step S211 that the photographing end instruction has not been detected (No), the system control unit 101 returns the process to step S204. As a result, the processing from step S204 described above is performed on the short-second image of the next frame. On the other hand, if it is determined in step S211 that a shooting end instruction has been detected (Yes), the system control unit 101 ends the process of the flowchart of FIG.

以下、比較明合成処理について具体例を挙げて説明する。
なお、以下の説明では、表示用の疑似長秒画像と記録用の疑似長秒画像を生成する際の短秒画像を区別せずに、短秒画像として説明する。
Hereinafter, the comparatively bright combination process will be described with a specific example.
In the following description, the display pseudo-second image and the short pseudo-second image for generating the recording pseudo-second image are not distinguished from each other, and are described as short-second images.

比較明合成処理は、前述したように、基準画像と合成対象画像の輝度を比較し、高輝度領域を合成対象画像の領域として採用することで合成画像を生成する処理である。本実施形態において、時系列順の複数の画像から疑似長秒画像を逐次生成する際には、時系列順で前の画像が基準画像となされ、時系列順で次の画像が合成対象画像となされ、それらを比較明合成するような処理が、時系列順に繰り返される。本実施形態の場合、時系列順の最初の1フレーム目の短秒画像は基準画像となり、次の2フレーム目の短秒画像は合成対象画像となる。さらに次の3フレーム目の短秒画像が合成対象画像となる際の基準画像には、1フレーム目と2フレーム目の比較明合成処理で生成された合成画像が用いられる。その後は、時系列順で前の比較明合成処理で生成された合成画像が基準画像となされ、時系列順で次のフレームの短秒画像が合成対象画像となされて、比較明合成を行うような処理が、時系列順に逐次繰り返される。したがって、例えば夜間にライトを点灯させて走行している自動車を撮像した時系列順の複数の短秒画像から疑似長秒画像を逐次生成した場合、ライトの光のような高輝度部分の軌跡が流れて、疑似的に長秒露光で撮影されたような画像が生成される。   As described above, the comparatively bright combination process is a process of generating a composite image by comparing the luminance of the reference image and the compositing target image and adopting the high luminance region as the compositing target image region. In this embodiment, when sequentially generating pseudo long-second images from a plurality of images in time series order, the previous image in the time series order is used as the reference image, and the next image in the time series order is the synthesis target image. A process of making them comparatively bright and composite is repeated in chronological order. In the case of the present embodiment, the first short-second image in the first frame in time series order is a reference image, and the next short-second image in the second frame is a synthesis target image. Further, the composite image generated by the comparatively bright composite processing of the first frame and the second frame is used as the reference image when the short second image of the next third frame becomes the composition target image. After that, the synthesized image generated in the previous comparative bright synthesis process in time series order is used as the reference image, and the short second image of the next frame in time series order is used as the synthesis target image, so that comparative bright synthesis is performed. Such processing is sequentially repeated in time series. Therefore, for example, when a pseudo long-second image is sequentially generated from a plurality of short-second images in time series in which a vehicle traveling with lights turned on at night is taken, the locus of a high-intensity part such as light light is An image is generated as if it was captured by pseudo-second exposure.

図3を用い、本実施形態の撮像装置100において、例えば夜間にライトを点灯させて走行している自動車を撮像した時系列順の例えば三つの短秒画像A,B,Cから、比較明合成処理により疑似長秒画像が生成される様子を具体的に説明する。図3では、画像301が短秒画像Aであり、画像302が短秒画像Bであり、画像303が短秒画像Cであるとする。   3, in the imaging apparatus 100 of the present embodiment, comparatively bright combination is performed from, for example, three short-second images A, B, and C in chronological order in which an image of a vehicle traveling with lights turned on at night is taken. A state in which a pseudo long-second image is generated by the processing will be specifically described. In FIG. 3, it is assumed that the image 301 is the short-second image A, the image 302 is the short-second image B, and the image 303 is the short-second image C.

図3の各短秒画像301,302,303には、それぞれ図中矢印に示す方向に走行している自動車321,322,323が被写体(移動体)として写っている。各短秒画像301,302,303の図中の矢印tは、被写体の自動車321,322,323が短秒撮影の露光時間内に移動した移動量と移動方向を表しているとする。なお、各自動車321,322,323の画像は、実際には、各短秒画像301,302,303の撮像時の露光時間内の移動量に応じて流れた画像となるが、図3では図示を簡略化するためにライトの光のみが流れた画像として描いている。これは後述する画像304,305についても同様とする。また、図3の例では、各自動車321,322,323の移動により流れたライトの光が、それぞれ光の軌跡311,312,313として描かれている。   In each of the short-time images 301, 302, and 303 in FIG. 3, automobiles 321, 322, and 323 running in the directions indicated by arrows in the drawing are shown as subjects (moving bodies). It is assumed that arrows t in the drawings of the respective short-second images 301, 302, and 303 represent the amount and direction of movement of the subject automobiles 321, 322, and 323 within the exposure time for short-second shooting. Note that the images of the cars 321, 322, and 323 are actually images that flow according to the amount of movement within the exposure time at the time of capturing the short-second images 301, 302, and 303, but are illustrated in FIG. 3. Is drawn as an image in which only the light of the light flows. The same applies to images 304 and 305 described later. In the example of FIG. 3, the light of the light that has flowed due to the movement of the automobiles 321, 322, and 323 is depicted as light tracks 311, 312, and 313, respectively.

この図3の例において、画像処理部107は、先ず時系列順で前の二つの短秒画像301と短秒画像302とを比較明合成処理330して合成画像304を生成する。比較明合成処理330で生成された合成画像304は、短秒画像301内のライトの光の軌跡311と、短秒画像302内のライトの光の軌跡312とが繋がった、光の軌跡314を有する画像となる。そして、この合成画像304は、短秒画像301と短秒画像302を基に合成された疑似長秒画像となる。なお、合成画像304の図中の矢印tは、短秒画像301と短秒画像302内の両矢印tを合わせたものとなり、疑似長秒画像(304)における長秒露光相当の時間内の自動車(321,322)の移動量と移動方向を表している。   In the example of FIG. 3, the image processing unit 107 first generates a composite image 304 by performing comparatively bright composite processing 330 on the previous two short-second images 301 and the short-second image 302 in time series order. The composite image 304 generated by the comparative bright combination processing 330 includes a light trajectory 314 in which the light light trajectory 311 in the short-second image 301 and the light light trajectory 312 in the short-second image 302 are connected. It becomes an image having. The composite image 304 is a pseudo long second image synthesized based on the short second image 301 and the short second image 302. The arrow t in the figure of the composite image 304 is a combination of the short-second image 301 and the double-headed arrow t in the short-second image 302, and the automobile within the time equivalent to the long-second exposure in the pseudo-long-second image (304). The moving amount and moving direction of (321, 322) are shown.

さらに、画像処理部107は、短秒画像301及び短秒画像302から生成した合成画像304と、短秒画像301,302よりも時系列で後の短秒画像303とを、比較明合成処理331して合成画像305を生成する。比較明合成処理331で生成された合成画像305は、合成画像304内の光の軌跡314と、短秒画像303内の光の軌跡313とが繋がった、光の軌跡315を有する画像となる。そして、この合成画像305は、合成画像304と短秒画像303を基に生成された疑似長秒画像となる。なお、合成画像305の図中の矢印tは、合成画像304内の矢印tと短秒画像303内の両矢印tとを合わせたものとなり、疑似長秒画像(305)における長秒露光相当の時間内の自動車(321,322,323)の移動量と移動方向を表している。   Further, the image processing unit 107 compares the composite image 304 generated from the short-second image 301 and the short-second image 302 and the short-second image 303 that is later in time series than the short-second images 301 and 302, by the comparatively bright composite processing 331. Thus, a composite image 305 is generated. The composite image 305 generated by the comparative bright combination processing 331 is an image having a light locus 315 in which the light locus 314 in the composite image 304 and the light locus 313 in the short-second image 303 are connected. The composite image 305 is a pseudo long-second image generated based on the composite image 304 and the short-second image 303. The arrow t in the figure of the composite image 305 is a combination of the arrow t in the composite image 304 and the double arrow t in the short-second image 303, which corresponds to the long-second exposure in the pseudo long-second image (305). The moving amount and moving direction of the automobile (321, 322, 323) within the time are shown.

次に、前述した撮像タイミングと表示更新タイミングについて、図4を参照しながら説明する。
図4において、撮影指示タイミング403は、ユーザが、撮影開始指示と撮影終了指示とを行ったタイミングを表している。具体的には、撮影指示タイミング403内の縦線431は、ユーザによりシャッターボタンが全押しされた際に操作部110から出力された信号を、システム制御部101が撮影開始指示の信号として検出したタイミングを表している。また、撮影指示タイミング403内の縦線432は、撮影が開始された後に、ユーザによりシャッターボタンが再度全押しされたことで操作部110から出力された信号を、システム制御部101が撮影終了指示の信号として検出したタイミングを表している。システム制御部101は、撮影終了指示を受け取ったか否かを、前述した図2のステップS203又はステップS211で判断している。
Next, the imaging timing and display update timing described above will be described with reference to FIG.
In FIG. 4, the shooting instruction timing 403 represents the timing when the user issues a shooting start instruction and a shooting end instruction. Specifically, a vertical line 431 in the shooting instruction timing 403 indicates that the signal output from the operation unit 110 when the shutter button is fully pressed by the user is detected by the system control unit 101 as a shooting start instruction signal. Represents timing. A vertical line 432 in the shooting instruction timing 403 indicates a signal output from the operation unit 110 when the shutter button is fully pressed again by the user after shooting is started. The timing detected as a signal is shown. The system control unit 101 determines in step S203 or step S211 of FIG. 2 described above whether an imaging end instruction has been received.

また、図4において、撮像タイミング401内の各縦線411は、撮影開始後にそれぞれ短秒画像のフレームが撮像されたタイミングを表している。すなわち、前述した図2のステップS201による短秒画像の撮像は、撮像タイミング401内の各縦線411で表されるタイミング毎に行われている。また、図2のステップS202とステップS203の処理は、一つのフレームの短秒画像の撮像が行われて次のフレームの短秒画像の撮像が行われるまでの間に行われる。このように、図2のステップS201からステップS203の処理は、ステップS203で撮影終了指示が検出されたと判断されるまで、撮像タイミング401の各縦線411で表されるタイミング毎に繰り返される。これにより、撮影開始指示から撮影終了指示までの間、時系列順に各短秒画像が取得されることになる。また、図4の例では、撮影開始後の時系列順に取得された各短秒画像のフレームが、それぞれ1,2,3,4,・・・の数字により表されている。   In FIG. 4, each vertical line 411 in the imaging timing 401 represents a timing at which a frame of a short second image is captured after the start of imaging. That is, the above-described imaging of the short second image in step S <b> 201 of FIG. 2 is performed at each timing represented by each vertical line 411 in the imaging timing 401. Further, the processing in step S202 and step S203 in FIG. 2 is performed between the time when the short-second image of one frame is captured and the time of the short-second image of the next frame is captured. As described above, the processing from step S201 to step S203 in FIG. 2 is repeated for each timing represented by each vertical line 411 of the imaging timing 401 until it is determined in step S203 that an imaging end instruction has been detected. As a result, each short second image is acquired in chronological order from the shooting start instruction to the shooting end instruction. In the example of FIG. 4, the frames of each short second image acquired in chronological order after the start of shooting are represented by numbers 1, 2, 3, 4,.

図4の表示更新タイミング402内の各縦線421は、表示部108において表示が更新されるタイミングを表している。すなわち、撮影開始直後の最初の一枚目のフレーム1の表示がなされた後、図2のステップS204からステップS208までで生成される表示用の各疑似長秒画像の表示の更新は、表示更新タイミング402内の各縦線421のタイミング毎に行われる。また、表示更新タイミング402内の"1〜2","1〜3","1〜4","1〜5",・・・の各数字は、疑似長秒画像が撮像タイミング401の何れのフレームを基に生成されたものであるかを表している。なお、表示更新タイミング402内の"1"は最初の一枚目のフレーム1を表している。例えば疑似長秒画像"1〜2"は、フレーム1とフレーム2の短秒画像から生成された画像であることを表し、疑似長秒画像"1〜3"は、疑似長秒画像"1〜2"とフレーム3の短秒画像とから生成された画像であることを表している。疑似長秒画像"1〜4"は、疑似長秒画像"1〜3"とフレーム4の短秒画像とから生成され、疑似長秒画像"1〜5"は、疑似長秒画像"1〜4"とフレーム5の短秒画像とから生成された画像であることを表している。以下同様である。また、図4から判るように、各疑似長秒画像"1〜2","1〜3","1〜4",・・・は、図2のステップS204〜S208に要する処理時間の分だけ、撮像タイミング401の各フレーム1,2,3,4,・・・からそれぞれ遅延している。なお、図2のステップS209とステップS210における記録用の疑似長秒画像の生成タイミングの図示は省略しているが、記録用の疑似長秒画像の生成タイミングは、図4の表示更新タイミング402より僅かに遅れたタイミングとなる。記録用の疑似長秒画像の生成タイミングの具体例については、後述する図6により詳細に説明する。   Each vertical line 421 in the display update timing 402 in FIG. 4 represents the timing at which the display is updated on the display unit 108. That is, after the display of the first frame 1 immediately after the start of photographing is performed, the display update of each pseudo long second image for display generated in steps S204 to S208 in FIG. This is performed for each vertical line 421 within the timing 402. In addition, the numbers “1 to 2”, “1 to 3”, “1 to 4”, “1 to 5”,... It is generated based on the frame. Note that “1” in the display update timing 402 represents the first frame 1. For example, the pseudo long second images “1 to 2” represent images generated from the short second images of the frame 1 and the frame 2, and the pseudo long second images “1 to 3” are the pseudo long second images “1 to 2”. 2 "and the image generated from the short-second image of frame 3. The pseudo long second images “1 to 4” are generated from the pseudo long second images “1 to 3” and the short second image of the frame 4, and the pseudo long second images “1 to 5” are the pseudo long second images “1 to 4”. This represents an image generated from 4 ″ and the short-second image of frame 5. The same applies hereinafter. Further, as can be seen from FIG. 4, each pseudo long second image “1-2”, “1-3”, “1-4”,... Is the amount of processing time required for steps S204 to S208 in FIG. However, it is delayed from each frame 1, 2, 3, 4,. Although the illustration of the generation timing of the pseudo long-second image for recording in steps S209 and S210 in FIG. 2 is omitted, the generation timing of the pseudo long-second image for recording is based on the display update timing 402 in FIG. The timing is slightly delayed. A specific example of the generation timing of the pseudo long second image for recording will be described in detail with reference to FIG.

前述したように図4の例の場合、撮影指示タイミング403内の縦線432のタイミングで、ユーザから撮影終了指示が入力されている。また、ユーザから撮影終了指示が入力された時点では、撮像タイミング401の例に示されているように、撮像部105においてフレーム11の短秒画像の撮影が終わっている。一方で、前述したステップS204〜ステップS208の処理時間の遅延があるため、ユーザから撮影終了指示が入力された時点で表示部108に表示されているのは、疑似長秒画像"1〜7"になっている。ここで、ユーザは、表示部108の表示を見て疑似長秒画像の仕上がり具合を確認し、その表示されている疑似長秒画像が所望の仕上がり具合になったと判断したときに、撮影終了指示を入力すると考えられる。しがたって、図4の例において、ユーザが所望した仕上がり具合の疑似長秒画像は、撮影指示タイミング403で撮影終了指示が入力されたタイミング(縦線432)で、表示部108に表示されていた疑似長秒画像"1〜7"であると考えられる。   As described above, in the example of FIG. 4, a shooting end instruction is input from the user at the timing of the vertical line 432 in the shooting instruction timing 403. Further, at the time when a shooting end instruction is input from the user, the shooting of the short-second image of the frame 11 is completed in the imaging unit 105 as shown in the example of the imaging timing 401. On the other hand, since there is a delay in the processing time of step S204 to step S208 described above, the pseudo long-second image “1-7” is displayed on the display unit 108 when the photographing end instruction is input from the user. It has become. Here, when the user confirms the finish of the pseudo long-second image by looking at the display on the display unit 108 and determines that the displayed pseudo-long-second image has a desired finish, an instruction to end shooting is given. Is considered to be entered. Therefore, in the example of FIG. 4, the pseudo long-second image of the finish desired by the user is displayed on the display unit 108 at the timing (vertical line 432) when the shooting end instruction is input at the shooting instruction timing 403. It is considered that the pseudo long second images are “1-7”.

これに対し、ユーザから撮影終了指示が入力された時点において、撮像部105では既にフレーム1〜フレーム11までの各短秒画像の撮像が終わっている。したがって、ユーザから撮影終了指示が入力された時点では、図1のRAM103(メモリ)には、フレーム11(少なくともフレーム8〜11)までの短秒画像のデータが保持されていることになる。ここで、もしも、メモリに残っているフレーム11までの各短秒画像を用いた記録用の疑似長秒画像が生成されたとすると、その記録用の疑似長秒画像は、ユーザが所望した疑似長秒画像"1〜7"とは仕上がり具合が異なった画像になってしまう。なお、フレーム11までの各短秒画像を用いた疑似長秒画像は、表示更新タイミング402の例を用いて説明すると、縦線422のタイミングで生成される疑似長秒画像("1〜11")となる。すなわち、この疑似長秒画像("1〜11")は、ユーザが所望した疑似長秒画像"1〜7"とは仕上がり具合が異なった画像となる。   On the other hand, at the time when a shooting end instruction is input from the user, the imaging unit 105 has already finished capturing each short second image from frame 1 to frame 11. Therefore, at the time when a photographing end instruction is input from the user, short-second image data up to frame 11 (at least frames 8 to 11) is held in the RAM 103 (memory) in FIG. Here, if a recording pseudo long second image using each short second image up to the frame 11 remaining in the memory is generated, the recording pseudo long second image has the pseudo length desired by the user. The second image “1-7” is an image having a different finish. The pseudo long second image using each short second image up to the frame 11 will be described with reference to the example of the display update timing 402. The pseudo long second image ("1 to 11") generated at the timing of the vertical line 422 is used. ) In other words, the pseudo long-second images ("1 to 11") are different from the pseudo long-second images "1 to 7" desired by the user.

そこで、本実施形態の撮像装置100は、撮像タイミング401と、表示更新タイミング402及び図4には不図示の記録用の疑似長秒画像の生成タイミングとを、独立して制御可能となされている。すなわち、図2のフローチャートでは、ステップS203,S211で撮影終了指示が検出されたと判断(Yes)された場合には処理が終了され、ステップS204のメモリからの短秒画像の読み出し以降の処理(ステップS210までの処理)は行われない。したがって、ユーザから撮影終了指示が入力された時の記録用の疑似長秒画像は、表示用と同様に疑似長秒画像"1〜7"となり、ユーザが意図していないフレーム11の短秒画像までの疑似長秒画像("1〜11")が生成されることはない。   Therefore, the imaging apparatus 100 according to the present embodiment can independently control the imaging timing 401, the display update timing 402, and the generation timing of the pseudo long second image for recording (not shown in FIG. 4). . That is, in the flowchart of FIG. 2, when it is determined that a shooting end instruction has been detected in steps S203 and S211 (Yes), the processing is ended, and processing after reading out the short second image from the memory in step S204 (step The process up to S210 is not performed. Therefore, the pseudo long-second image for recording when the photographing end instruction is input from the user is the pseudo long-second image “1 to 7” similarly to the display, and the short-second image of the frame 11 that is not intended by the user. The pseudo long second images ("1 to 11") up to are not generated.

このように本実施形態の撮像装置100によれば、ユーザが撮影終了指示を入力した時点で表示部108に表示されている疑似長秒画像、つまりユーザが意図した仕上がりの疑似長秒画像が、記録用の疑似長秒画像として生成される。したがって、本実施形態によれば、ユーザが所望する仕上がりの疑似長秒画像が得られる。   As described above, according to the imaging apparatus 100 of the present embodiment, the pseudo long second image displayed on the display unit 108 at the time when the user inputs the photographing end instruction, that is, the pseudo long second image of the finish intended by the user, It is generated as a pseudo long second image for recording. Therefore, according to the present embodiment, a pseudo long-second image having a finish desired by the user can be obtained.

また、本実施形態の撮像装置100の場合、撮影終了指示は、ユーザが例えばシャッターボタンを全押し操作することで行われる。ここで、シャッターボタンの全押し操作のように撮像装置100に対して物理的な力が加えられると、撮像装置100に振動等が伝わり撮影画像がぶれてしまう虞がある。この場合、そのぶれが生じた撮影画像を合成して疑似長秒画像が生成されると、画質が低下する虞がある。これに対し、本実施形態の場合、ユーザが撮影終了指示の入力のためにシャッターボタンを全押し操作した際に撮像部105で取得された短秒画像は、記録用の疑似長秒画像の生成には用いられないため、ぶれのない良好な画質の疑似長秒画像が得られる。   In the case of the imaging apparatus 100 according to the present embodiment, an instruction to end shooting is performed when the user fully presses the shutter button, for example. Here, when a physical force is applied to the image capturing apparatus 100, such as when the shutter button is fully pressed, vibration or the like may be transmitted to the image capturing apparatus 100 and the captured image may be blurred. In this case, if a pseudo long-second image is generated by synthesizing the captured images in which the blur occurs, the image quality may be deteriorated. On the other hand, in the case of the present embodiment, the short second image acquired by the imaging unit 105 when the user fully presses the shutter button to input the shooting end instruction is generated as a pseudo long second image for recording. Therefore, it is possible to obtain a pseudo long-second image with good image quality without blurring.

<第2の実施形態>
前述した第1の実施形態は、ユーザから撮影終了指示が入力された時点で合成処理が完了している疑似長秒画像を記録等する例となされている。以下の第2の実施形態においても第1の実施形態と同様に、撮影終了指示が入力された時点で合成処理が完了している疑似長秒画像を、ユーザが所望した仕上がりの画像とする。第2の実施形態の場合は、撮影終了指示が入力された時点で既にメモリに保持されてはいるが、疑似長秒画像の生成には使用されていない短秒画像のデータを用い、疑似長秒画像生成時の合成処理とは別の画像処理を行う。具体的には、第2の実施形態では、メモリに保持されているが疑似長秒画像の生成に使用しなかった短秒画像を用い、既に合成処理が完了している疑似長秒画像に対し、例えば低輝度領域(つまり暗部)のノイズを改善する処理を行って画質の向上を図る。なお、第2の実施形態における撮像装置100の概略構成は、前述した図1と同様であるため、その図示と各部の説明は省略する。
<Second Embodiment>
The first embodiment described above is an example of recording a pseudo long-second image in which the composition process is completed when a shooting end instruction is input from the user. Also in the following second embodiment, similarly to the first embodiment, a pseudo long-second image that has been combined at the time when a photographing end instruction is input is set as a finished image desired by the user. In the case of the second embodiment, the pseudo-long image data, which is already stored in the memory when the photographing end instruction is input but is not used to generate the pseudo-long-second image, is used. Image processing different from the composition processing at the time of generating the second image is performed. Specifically, in the second embodiment, a short second image that is stored in the memory but is not used to generate the pseudo long second image is used, and the pseudo long second image that has already been combined is processed. For example, processing for improving noise in a low luminance region (that is, a dark portion) is performed to improve image quality. Note that the schematic configuration of the imaging apparatus 100 according to the second embodiment is the same as that of FIG. 1 described above, and therefore illustration and description of each part are omitted.

図5は、第2の実施形態において、疑似長秒モードで前述同様に疑似長秒画像を生成するとともに、その疑似長秒画像の生成に使用しなかった短秒画像を用いて、疑似長秒画像の暗部ノイズを改善する処理の流れを示すフローチャートである。図5のフローチャートにおいて、ステップS501からステップS511までの各処理は、図2のフローチャートのステップS201からステップS211での各処理とそれぞれ同じ処理であり、それらの説明は省略する。第2の実施形態の図5のフローチャートでは、ステップS512とステップS513の処理が追加されており、以下、これらステップS512とステップS513について説明する。   FIG. 5 shows a pseudo long-second image generated in the pseudo long-second mode in the second embodiment in the same manner as described above, and using a short-second image that was not used to generate the pseudo-long-second image. It is a flowchart which shows the flow of the process which improves the dark part noise of an image. In the flowchart of FIG. 5, each process from step S501 to step S511 is the same as each process from step S201 to step S211 in the flowchart of FIG. 2, and description thereof will be omitted. In the flowchart of FIG. 5 of the second embodiment, processes of step S512 and step S513 are added, and hereinafter, step S512 and step S513 will be described.

システム制御部101は、図5のステップS511において、操作部110を介してユーザからの撮影終了指示を検出したと判断(Yes)した場合、図5のステップS512に処理を進める。ステップS512の処理は、システム制御部101による制御の下で画像処理部107により行われる。   If the system control unit 101 determines in step S511 in FIG. 5 that a shooting end instruction from the user has been detected via the operation unit 110 (Yes), the system control unit 101 proceeds to step S512 in FIG. The processing in step S512 is performed by the image processing unit 107 under the control of the system control unit 101.

ステップS512では、画像処理部107は、撮影終了指示が入力された時点で既にメモリ(RAM103)に保持されてはいるが、疑似長秒画像の生成には使用されていない短秒画像(複数の短秒画像)のデータを、メモリから取得する。そして、画像処理部107は、メモリから取得したそれら各短秒画像を、画素毎に加算平均することで合成する。以下、この加算平均合成処理により生成される合成画像を、加算平均画像と表記する。なお、各短秒画像の加算平均合成処理は、各短秒画像の全体を加算平均合成する例の他に、各短秒画像の低輝度領域(暗部)のみを加算平均合成する処理であってもよい。複数の短秒画像を加算平均合成処理した加算平均画像は、加算平均によりノイズ成分が平滑化されてノイズが改善した画像になる。例えば夜間に撮影された短秒画像は特に低輝度領域である暗部でノイズの目立つ画像になり易いが、本実施形態のように複数の短秒画像を加算平均合成処理した場合は、それら暗部のノイズが改善された画像が得られる。ステップS512の後、画像処理部107は、ステップS513に処理を進める。   In step S512, the image processing unit 107 stores a short second image (a plurality of short images that are already stored in the memory (RAM 103) at the time when the photographing end instruction is input but are not used to generate a pseudo long second image. (Short second image) data is acquired from the memory. Then, the image processing unit 107 synthesizes the respective short-second images acquired from the memory by averaging them for each pixel. Hereinafter, the synthesized image generated by the addition average synthesis process is referred to as an addition average image. In addition, the addition average composition processing of each short second image is a process of performing addition average composition only for the low-luminance region (dark part) of each short second image, in addition to the example of performing addition average composition of each short second image as a whole. Also good. An addition average image obtained by performing addition average synthesis processing on a plurality of short-second images is an image in which noise components are smoothed by addition average and noise is improved. For example, a short-second image taken at night tends to be a noise-conspicuous image particularly in a dark portion that is a low-luminance region.However, when a plurality of short-second images are added and averaged and combined as in the present embodiment, An image with improved noise is obtained. After step S512, the image processing unit 107 advances the process to step S513.

ステップS513では、画像処理部107は、出力画像生成処理として、ステップS510で生成した疑似長秒画像と、ステップS512で生成された加算平均画像とを用いて、比較暗合成処理を行う。本実施形態における比較暗合成処理は、ステップS512で生成された加算平均画像と、ステップS510で生成された疑似長秒画像とを、それぞれ所定輝度値と比較した結果に基づく合成処理である。具体的には、例えば所定輝度値以上の輝度値が高い領域は疑似長秒画像を、一方、所定輝度値よりも輝度値が低い領域は加算平均画像を採用するようにして、それら疑似長秒画像と加算平均画像を合成する。これにより、光の軌跡等の輝度が高い領域は疑似長秒画像の領域が採用され、背景の暗部等の輝度が低い領域は加算平均画像の領域が採用されるようになり、暗部のノイズが改善された疑似長秒画像が得られることになる。   In step S513, the image processing unit 107 performs comparative dark combining processing using the pseudo long-second image generated in step S510 and the addition average image generated in step S512 as output image generation processing. The comparative dark combining process in the present embodiment is a combining process based on a result obtained by comparing the addition average image generated in step S512 and the pseudo long second image generated in step S510 with a predetermined luminance value. Specifically, for example, an area having a high luminance value equal to or higher than a predetermined luminance value employs a pseudo long second image, while an area having a luminance value lower than the predetermined luminance value employs an average image, and these pseudo long seconds are used. The image and the averaged image are combined. As a result, a region with a high luminance such as a light trajectory uses a pseudo long-second image region, and a region with a low luminance such as a dark portion in the background uses a region of an addition average image. An improved pseudo-long second image will be obtained.

また、ステップS513における合成処理は、基準画像と合成対象画像の同座標の画素の輝度値を比較して、輝度値が低い方(暗い方)の画素を採用するようにして合成画像を生成するような処理であってもよい。この例の場合、ステップS512で生成された加算平均画像が基準画像となされ、ステップS510で生成された疑似長秒画像が合成対象画像となされて、それら画像の合成処理が行われる。これにより、ステップS510で生成された疑似長秒画像の低輝度領域(輝度値が低い暗部)が、ステップS512で生成された加算平均画像の低輝度領域により置き換えられることになり、暗部のノイズが改善された疑似長秒画像が得られる。   Further, in the synthesis process in step S513, the luminance value of the pixel at the same coordinate in the reference image and the synthesis target image is compared, and a synthesized image is generated so as to adopt a pixel with a lower luminance value (darker). Such processing may be used. In the case of this example, the addition average image generated in step S512 is used as a reference image, the pseudo long-second image generated in step S510 is used as a synthesis target image, and the synthesis process of these images is performed. As a result, the low-brightness area (dark part with low luminance value) of the pseudo long-second image generated in step S510 is replaced with the low-brightness area of the addition average image generated in step S512, and noise in the dark part is generated. An improved pseudo long second image is obtained.

以下、図5のステップS512とステップS513の処理について、図6と図7を用いてさらに詳細に説明する。図6の前に図7から説明する。
図7の画像701は、夜間にライトを点灯させて走行している自動車を撮像した三つの短秒画像A,B,Cから図5のステップS509〜ステップS510により生成された記録用の疑似長秒画像(疑似長秒画像A+B+C)であるとする。なお、疑似長秒画像701は、前述した図3の合成画像305(疑似長秒画像)で説明したのと同様の光の軌跡315を有する画像であるとする。また、図7の画像702と画像703は、撮影終了指示が入力された時点でメモリに保持されてはいるが、疑似長秒画像の生成には使用されていない短秒画像(短秒画像Dと短秒画像E)であるとする。また、疑似長秒画像701の領域711、短秒画像702の領域712、短秒画像703の領域713は、それぞれ暗い背景領域であるとする。なお、疑似長秒画像701は、それぞれ短い露光時間の短秒画像A,B,Cを比較明合成処理した画像であるため、暗い背景領域711は例えば適正露光の画像と比べるとSNが低く、暗部ノイズが多い領域になっていると考えられる。短秒画像D,Eについても同様に、短い露光時間の画像であるため、それぞれ暗い背景領域712,713は適正露光の画像と比べるとSNが低く、暗部ノイズが多い領域になっていると考えられる。
Hereinafter, the processing in steps S512 and S513 in FIG. 5 will be described in more detail with reference to FIGS. 7 will be described before FIG.
An image 701 in FIG. 7 is a pseudo length for recording generated in steps S509 to S510 in FIG. 5 from three short-second images A, B, and C obtained by imaging a car that is running with lights on at night. Assume that it is a second image (pseudo long-second image A + B + C). The pseudo long second image 701 is assumed to be an image having a light locus 315 similar to that described for the composite image 305 (pseudo long second image) in FIG. 3 described above. In addition, the images 702 and 703 in FIG. 7 are stored in the memory at the time when the shooting end instruction is input, but are not used for generating the pseudo-long-second image (the short-second image D). And a short second image E). Further, it is assumed that the area 711 of the pseudo long second image 701, the area 712 of the short second image 702, and the area 713 of the short second image 703 are dark background areas. The pseudo long-second image 701 is an image obtained by performing comparatively bright combination processing on the short-second images A, B, and C each having a short exposure time. This is considered to be an area with a lot of dark part noise. Similarly, since the short-second images D and E are images having a short exposure time, the dark background regions 712 and 713 are considered to be regions having a low SN and a large amount of dark noise compared to the images with proper exposure, respectively. It is done.

第2の実施形態では、図5のステップS512において、短秒画像702と短秒画像703とが加算平均合成処理721により合成される。加算平均合成処理721により得られた加算平均画像705は、前述したように暗い背景領域714の暗部ノイズが改善された画像となる。そして、第2の実施形態では、図5のステップS513において、加算平均画像705と疑似長秒画像701とが比較暗合成処理722により合成される。この比較暗合成処理722により得られた画像704は、疑似長秒画像701の暗い背景領域711が、加算平均画像705の暗い背景領域714により置き換えられた背景領域715を有する疑似長秒画像となる。すなわち、疑似長秒画像704は、暗部ノイズが改善した画像となる。第2の実施形態では、この暗部ノイズが改善された疑似長秒画像704が、出力画像生成処理により生成された出力画像、つまり最終的な記録用の疑似長秒画像となされる。   In the second embodiment, the short-second image 702 and the short-second image 703 are combined by the addition average combining processing 721 in step S512 of FIG. The addition average image 705 obtained by the addition average synthesis processing 721 is an image in which the dark noise in the dark background region 714 is improved as described above. In the second embodiment, the addition average image 705 and the pseudo long second image 701 are combined by the comparative dark combining process 722 in step S513 in FIG. An image 704 obtained by the comparative dark combination processing 722 becomes a pseudo long second image having a background region 715 in which the dark background region 711 of the pseudo long second image 701 is replaced by the dark background region 714 of the addition average image 705. . That is, the pseudo long second image 704 is an image with improved dark part noise. In the second embodiment, the pseudo long-second image 704 with improved dark part noise is an output image generated by the output image generation process, that is, a final pseudo long-second image for recording.

また、本実施形態では、疑似長秒画像701と加算平均画像705の合成処理が、比較暗合成処理722となされている例を挙げたが、比較暗合成処理722ではなく別の手法による合成処理であってもよい。例えば、画像処理部107は、前述した疑似長秒画像701を生成した際の短秒画像A,B,C、さらに短秒画像702(D),703(E)から、自動車等の移動体領域を検出し、その移動体領域におけるオプティカフフローを求めて動体判定を行う。そして画像処理部107は、疑似長秒画像701の中で、動体と判定された領域はそのまま用い、一方、動体でない領域(背景領域711)については、加算平均画像705の中の動体でない領域(背景領域714)により置き換えるような合成処理を行う。この例においても、暗部ノイズが改善された疑似長秒画像が得られる。   In the present embodiment, the example in which the synthesis process of the pseudo long-second image 701 and the addition average image 705 is the comparative dark synthesis process 722 is described. However, the synthesis process is not performed by the comparative dark synthesis process 722 but by another method. It may be. For example, the image processing unit 107 uses the short-second images A, B, and C when the pseudo long-second image 701 is generated, and the short-second images 702 (D) and 703 (E) to obtain a moving object region such as an automobile. Is detected, and an optical cuff flow in the moving body region is obtained to determine a moving body. Then, the image processing unit 107 uses the area determined to be a moving object in the pseudo long second image 701 as it is, while the non-moving area (background area 711) is a non-moving area in the addition average image 705 (background area 711). A compositing process to be replaced by the background area 714) is performed. Also in this example, a pseudo long-second image with improved dark part noise can be obtained.

また前述の例では、疑似長秒画像701の背景領域711を、加算平均画像705の背景領域714により置き換える処理は、二値的に背景領域711を背景領域714に切り替える処理となされている。これら背景領域711を背景領域714に置き換える処理は、二値的な切り替え処理ではなく、例えば疑似長秒画像701の輝度情報を基に前述同様の重み付けを行って、その重みに応じたゲインを乗算した後に加算するような処理であってもよい。   In the above-described example, the process of replacing the background area 711 of the pseudo long second image 701 with the background area 714 of the addition average image 705 is a process of binaryly switching the background area 711 to the background area 714. The process of replacing the background area 711 with the background area 714 is not a binary switching process. For example, the same weighting is performed based on the luminance information of the pseudo long-second image 701, and a gain corresponding to the weight is multiplied. It is also possible to perform processing such that addition is performed after this.

次に、図6を用いて、前述した図5のフローチャートの処理が行われるタイミングについて説明する。なお、図6は前述した図4と同様にして表される図である。図6において、撮影指示タイミング603は、ユーザがシャッターボタンの操作により撮影開始指示と撮影終了指示とを行ったタイミングを表し、縦線631は撮影開始指示、縦線632は撮影終了指示がなされたタイミングを表している。また、撮像タイミング601内の各縦線611は撮影開始後に短秒画像の各フレームが撮像されたタイミングを表し、撮影開始後の時系列順に取得された各短秒画像のフレームがそれぞれ1,2,3,・・・で表されている。また、表示更新タイミング602内の各縦線621は表示が更新されるタイミングを表し、"1"は最初の一枚目のフレームを、"1〜2","1〜3",・・・は疑似長秒画像の生成に用いられた各フレームを表している。また、各疑似長秒画像"1〜2","1〜3",・・・は、図5のステップS504〜S508に要する処理時間の分だけ、撮像タイミング601の各フレーム1,2,3,・・・からそれぞれ遅延している。   Next, the timing at which the processing of the flowchart of FIG. 5 described above is performed will be described with reference to FIG. FIG. 6 is a diagram expressed in the same manner as FIG. 4 described above. In FIG. 6, a shooting instruction timing 603 represents a timing when the user gives a shooting start instruction and a shooting end instruction by operating the shutter button. A vertical line 631 indicates a shooting start instruction, and a vertical line 632 indicates a shooting end instruction. Represents timing. In addition, each vertical line 611 in the imaging timing 601 represents the timing at which each frame of the short-second image is captured after the start of shooting, and the frames of each short-second image acquired in chronological order after the start of shooting are 1, 2, respectively. , 3,... Also, each vertical line 621 in the display update timing 602 represents a display update timing, “1” indicates the first frame, “1-2”, “1-3”,. Represents each frame used to generate the pseudo-long-second image. Further, each of the pseudo long-second images “1 to 2”, “1 to 3”,... Corresponds to the frames 1, 2, and 3 of the imaging timing 601 corresponding to the processing time required for steps S504 to S508 in FIG. , ... are delayed from each other.

図6において、記録画像生成タイミング604は、図5のステップS509〜ステップS510で記録用の疑似長秒画像が生成されるタイミングを表している。すなわち、撮影開始直後の最初の一枚目のフレーム1の短秒画像から最初の記録用の画像が生成された後、記録画像生成タイミング604内の各縦線641のタイミングで、逐次、記録用の疑似長秒画像が生成される。また、記録画像生成タイミング604の中の"1〜2","1〜3",・・・の数字は、記録用の疑似長秒画像が何れのフレームを基に生成されたものであるかを表している。なお、本実施形態の場合、図5に示すように、ステップS509〜ステップS510による記録用の疑似長秒画像の生成処理は、ステップS504〜ステップS508による表示用の疑似長秒画像の生成と表示処理の後に行われている。このため、図6に示すように、記録画像生成タイミング604は、表示更新タイミング602より僅かに遅れたタイミングとなっている。   In FIG. 6, a recorded image generation timing 604 represents the timing at which a pseudo long second image for recording is generated in steps S509 to S510 in FIG. That is, after the first recording image is generated from the first short-frame image of the first frame 1 immediately after the start of photographing, the recording is sequentially performed at the timing of each vertical line 641 in the recording image generation timing 604. A pseudo long second image is generated. The numbers “1-2”, “1-3”,... In the recording image generation timing 604 indicate on which frame the pseudo long-second image for recording is generated. Represents. In the case of the present embodiment, as shown in FIG. 5, the pseudo long-second image for recording in steps S509 to S510 is generated and displayed in steps S504 to S508. It is done after processing. For this reason, as shown in FIG. 6, the recorded image generation timing 604 is slightly delayed from the display update timing 602.

図6の例では、撮影指示タイミング603内の縦線632のタイミングでユーザから撮影終了指示が入力され、その撮影終了指示の入力時点では撮像タイミング601のフレーム11の撮影が終わっている。一方、撮影終了指示の入力時点では、図5のステップS504〜ステップS508の処理時間による遅延があるため、表示部108には疑似長秒画像"1〜7"が表示されている。つまり、ユーザが所望した仕上がりの疑似長秒画像は、表示部108に表示されている疑似長秒画像"1〜7"であると考えられる。第2の実施形態の撮像装置100においても、前述の第1の実施形態の場合と同様に、記録用の疑似長秒画像は、撮影終了指示が入力された時点の疑似長秒画像、つまり疑似長秒画像"1〜7"となされる。このように第2の実施形態においても、第1の実施形態と同様、ユーザが撮影終了指示を入力した時点で表示されていた疑似長秒画像、つまりユーザが意図した仕上がりの疑似長秒画像が、記録用の疑似長秒画像として生成される。したがって、ユーザが所望する仕上がりの疑似長秒画像が得られる。   In the example of FIG. 6, a shooting end instruction is input from the user at the timing of the vertical line 632 in the shooting instruction timing 603, and the shooting of the frame 11 at the imaging timing 601 is completed at the time when the shooting end instruction is input. On the other hand, since there is a delay due to the processing time of steps S504 to S508 in FIG. 5 at the time of inputting the photographing end instruction, pseudo long-second images “1 to 7” are displayed on the display unit 108. That is, it is considered that the finished pseudo long-second image desired by the user is the pseudo long-second images “1 to 7” displayed on the display unit 108. Also in the imaging apparatus 100 of the second embodiment, as in the case of the first embodiment described above, the pseudo long-second image for recording is a pseudo long-second image at the time when the photographing end instruction is input, that is, a pseudo long-second image. Long-second images “1 to 7” are displayed. As described above, in the second embodiment as well, as in the first embodiment, the pseudo long-second image displayed when the user inputs the shooting end instruction, that is, the pseudo long-second image finished by the user is displayed. And generated as a pseudo-long-second image for recording. Accordingly, a pseudo long-second image having a finish desired by the user can be obtained.

さらに、第2の実施形態の場合は、図5のステップS512とステップS513で説明したように、撮影終了指示入力時点で疑似長秒画像の生成に使用されていない各短秒画像を加算平均合成した加算平均画像と、疑似長秒画像とを比較暗合成する。なお、図6の例では、フレーム区間652で示されるフレーム8,9,10,11の各短秒画像が、撮影終了指示入力時点で疑似長秒画像の生成に使用されていない短秒画像である。一方、フレーム区間651で示される各フレーム1,2,3,・・・,7の各短秒画像は、撮影終了指示入力時点で疑似長秒画像の生成に使用された短秒画像である。前述した第1の実施形態では、フレーム区間652の各フレーム8,9,10,11の短秒画像は使用されないが、第2の実施形態では、これらフレーム8,9,10,11の各短秒画像を加算平均合成して加算平均画像が生成される。そして、第2の実施形態では、フレーム区間651の各フレームの短秒画像から生成された疑似長秒画像と、フレーム区間652の各フレームの短秒画像から生成された加算平均画像とが、比較暗合成処理される。図6の例では、記録画像生成タイミング604の縦線642のタイミングで、比較暗合成処理後の疑似長秒画像が生成されている。   Further, in the case of the second embodiment, as described in step S512 and step S513 in FIG. 5, each short second image that is not used for generating the pseudo long second image at the time of inputting the photographing end instruction is added and averaged combined. The dark average synthesized image and the pseudo long-second image are subjected to comparative dark synthesis. In the example of FIG. 6, the short-second images of the frames 8, 9, 10, and 11 indicated by the frame section 652 are short-second images that are not used for generating the pseudo-long-second image at the time of inputting the photographing end instruction. is there. On the other hand, each short second image of each of the frames 1, 2, 3,..., 7 indicated by the frame section 651 is a short second image used for generating a pseudo long second image at the time of inputting the photographing end instruction. In the first embodiment described above, the short-second images of the frames 8, 9, 10, and 11 in the frame section 652 are not used. However, in the second embodiment, the short images of the frames 8, 9, 10, and 11 are used. An averaged image is generated by adding and averaging the second images. In the second embodiment, the pseudo long second image generated from the short second image of each frame in the frame section 651 is compared with the addition average image generated from the short second image of each frame in the frame section 652. Dark synthesis processing is performed. In the example of FIG. 6, the pseudo long-second image after the comparative dark combining process is generated at the timing of the vertical line 642 of the recording image generation timing 604.

前述したように、第2の実施形態では、第1の実施形態と同様に、ユーザが所望する仕上がりの疑似長秒画像を得ることができ、また、ぶれのない良好な画質の疑似長秒画像を得ることができる。さらに、第2の実施形態によれば、ユーザから撮影終了指示が入力された時点で疑似長秒画像の生成に用いなかった各短秒画像を加算平均合成した加算平均画像と、疑似長秒画像とを比較暗合成処理している。これにより、第2の実施形態では、暗部のノイズを改善した画質の良い疑似長秒画像を得ることができる。   As described above, in the second embodiment, as in the first embodiment, it is possible to obtain a pseudo long-second image having a desired finish by the user, and also to obtain a pseudo long-second image having good image quality without blurring. Can be obtained. Further, according to the second embodiment, an addition average image obtained by adding and synthesizing each short second image that was not used for generation of the pseudo long second image when the photographing end instruction is input from the user, and the pseudo long second image And comparative dark synthesis processing. As a result, in the second embodiment, it is possible to obtain a pseudo long-second image with good image quality and improved noise in the dark part.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、本発明は、上述の実施形態の各機能は回路(例えばASIC)とプログラムとの協働により実現することも可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. In the present invention, each function of the above-described embodiment can be realized by cooperation of a circuit (for example, ASIC) and a program.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101 システム制御部、102 ROM、103 RAM、104 光学系、105 撮像部、106 A/D変換部、107 画像処理部、108 表示部、109 記録部、110 操作部   101 system control unit, 102 ROM, 103 RAM, 104 optical system, 105 imaging unit, 106 A / D conversion unit, 107 image processing unit, 108 display unit, 109 recording unit, 110 operation unit

Claims (14)

順に入力された複数の入力画像を取得する取得手段と、
前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成手段と、
ユーザから終了指示が入力されたタイミングを検出する検出手段と、を有し、
ユーザから終了指示が入力されたタイミングの検出までに前記合成手段による前記合成処理が完了している合成画像を、出力画像とすることを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of input images input in order;
Using the input images in the input order, and sequentially performing a combining process to generate a combined image;
Detecting means for detecting timing when an end instruction is input from the user,
An image processing apparatus, wherein an output image is a combined image in which the combining process by the combining unit is completed before detection of a timing when an end instruction is input from a user.
順に入力された複数の入力画像を取得する取得手段と、
前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成手段と、
ユーザから終了指示が入力されたタイミングを検出する検出手段と、
前記取得手段により取得された複数の入力画像のうち、ユーザから終了指示が入力されたタイミングまでに前記合成手段による前記合成処理が行われていない複数の入力画像を、逐次、加算平均して加算平均画像を生成する加算平均手段と、
前記ユーザから終了指示が入力されたタイミングまでに前記合成手段による前記合成処理が完了している合成画像と、前記加算平均画像と、を合成して出力画像を生成する出力画像生成手段と、
を有することを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of input images input in order;
Using the input images in the input order, and sequentially performing a combining process to generate a combined image;
Detecting means for detecting timing when an end instruction is input from a user;
Among a plurality of input images acquired by the acquisition unit, a plurality of input images that have not been subjected to the combining process by the combining unit until the timing when the end instruction is input from the user are sequentially added and averaged and added. An averaging means for generating an average image;
Output image generation means for generating an output image by combining the combined image in which the combining processing by the combining means has been completed by the timing when an end instruction is input from the user and the addition average image;
An image processing apparatus comprising:
前記加算平均手段は、前記ユーザから終了指示が入力されたタイミングまでに前記合成手段による前記合成処理が行われていない複数の入力画像の全体又は低輝度領域を、逐次、前記加算平均することを特徴とする請求項2に記載の画像処理装置。   The addition averaging means sequentially averages all or a plurality of low-luminance regions of a plurality of input images that have not been subjected to the composition processing by the composition means by the timing when an end instruction is input from the user. The image processing apparatus according to claim 2. 前記出力画像生成手段は、
前記合成画像の輝度値と、前記加算平均画像の輝度値とを、所定輝度値と比較し、
前記所定輝度値以上の輝度値が高い領域は前記合成画像を採用し、前記所定輝度値よりも輝度値が低い領域は前記加算平均画像を採用するようにして、前記合成画像と前記加算平均画像を合成した画像を、前記出力画像とすることを特徴とする請求項2又は3に記載の画像処理装置。
The output image generation means includes
The luminance value of the composite image and the luminance value of the addition average image are compared with a predetermined luminance value,
The composite image and the addition average image are configured such that the region having a higher luminance value than the predetermined luminance value employs the composite image, and the region having a luminance value lower than the predetermined luminance value employs the addition average image. The image processing apparatus according to claim 2, wherein an image obtained by combining the images is used as the output image.
前記合成画像と前記加算平均画像の中の移動体の領域を判定する動体判定手段を有し、
前記出力画像生成手段は、前記合成画像の中で前記移動体でない領域を、前記加算平均画像の中で前記移動体でない領域により置き換えるようにして合成を行った画像を、前記出力画像とすることを特徴とする請求項2乃至4の何れか1項に記載の画像処理装置。
A moving object determining means for determining an area of a moving object in the composite image and the addition average image;
The output image generation means sets an image obtained by combining an area that is not the moving body in the combined image with an area that is not the moving body in the addition average image as the output image. The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記合成手段は、前記入力された順の前記複数の入力画像の高輝度領域を、前記入力の順に逐次、合成していくこと、又は、各画素の輝度に基づくゲインを前記各画素に乗算した後に加算していくことにより、前記入力された順の前記複数の入力画像の中の移動体の高輝度領域の移動の軌跡を生成する前記合成処理を行うことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   The synthesizing unit sequentially synthesizes the high luminance regions of the plurality of input images in the input order in the order of the inputs, or multiplies each pixel by a gain based on the luminance of each pixel. 6. The composition processing for generating a locus of movement of a high-intensity region of a moving body in the plurality of input images in the input order by performing addition later is performed. The image processing apparatus according to any one of the above. 前記合成手段は、前記合成処理で生成された合成画像と、前記合成画像の生成に使用された入力画像に対して入力の順が次の入力画像と、を用いた前記合成処理を行うことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。   The synthesizing unit performs the synthesizing process using the synthesized image generated by the synthesizing process and the input image having the next input order with respect to the input image used to generate the synthesized image. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that: 前記合成手段により逐次生成された前記合成画像を更新表示する表示手段を有することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a display unit that updates and displays the composite image sequentially generated by the combining unit. 前記取得手段は、撮像画像を前記入力画像として取得し、
前記表示手段は、前記合成画像の生成に用いられた複数の撮像画像がそれぞれ撮像された際の各露光時間を加算した時間を、前記合成画像とともに更新表示することを特徴とする請求項8に記載の画像処理装置。
The acquisition unit acquires a captured image as the input image,
9. The display unit according to claim 8, wherein the display unit updates and displays, together with the composite image, a time obtained by adding the exposure times when the plurality of captured images used to generate the composite image are captured. The image processing apparatus described.
前記取得手段は、撮像画像を前記入力画像として取得して記憶し、
前記合成手段は、前記取得手段に記憶された入力画像を前記入力の順に読み出し、所定の処理時間を要する前記合成処理を行うことを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。
The acquisition means acquires and stores a captured image as the input image,
The said synthetic | combination means reads the input image memorize | stored in the said acquisition means in order of the said input, The said synthetic | combination process which requires predetermined | prescribed processing time is performed, The any one of Claim 1 thru | or 9 characterized by the above-mentioned. Image processing device.
前記出力画像は記録媒体に記録されることを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output image is recorded on a recording medium. 順に入力された複数の入力画像を取得する取得工程と、
前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成工程と、
ユーザから終了指示が入力されたタイミングを検出する検出工程と、を有し、
ユーザから終了指示が入力されたタイミングの検出までに前記合成工程による前記合成処理が完了している合成画像を、出力画像とすることを特徴とする画像処理装置の画像処理方法。
An acquisition step of acquiring a plurality of input images sequentially input;
Using the input images in the input order, and sequentially performing a combining process to generate a combined image;
Detecting a timing at which an end instruction is input from the user, and
An image processing method for an image processing apparatus, wherein an output image is a combined image in which the combining process in the combining step is completed before detection of a timing at which an end instruction is input from a user.
順に入力される複数の入力画像を取得する取得工程と、
前記入力された順の前記入力画像を用い、逐次、合成処理を行って合成画像を生成する合成工程と、
ユーザから終了指示が入力されたタイミングを検出する検出工程と、
前記取得工程により取得された複数の入力画像のうち、ユーザから終了指示が入力されたタイミングまでに前記合成工程による前記合成処理が行われていない複数の入力画像を、逐次、加算平均して加算平均画像を生成する加算平均工程と、
前記ユーザから終了指示が入力されたタイミングまでに前記合成工程による前記合成処理が完了している合成画像と、前記加算平均画像と、を合成して出力画像を生成する出力画像生成工程と、
を有することを特徴とする画像処理装置の画像処理方法。
An acquisition step of acquiring a plurality of input images sequentially input;
Using the input images in the input order, and sequentially performing a combining process to generate a combined image;
A detection step of detecting a timing when an end instruction is input from the user;
Among a plurality of input images acquired in the acquisition step, a plurality of input images that have not been subjected to the combining process by the combining step until the timing when an end instruction is input from the user are sequentially added and averaged and added. An averaging process for generating an average image;
An output image generation step of generating an output image by combining the combined image in which the combining processing by the combining step is completed by the timing when an end instruction is input from the user and the addition average image;
An image processing method for an image processing apparatus, comprising:
コンピュータを、請求項1乃至11の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 11.
JP2016206237A 2016-10-20 2016-10-20 Image processing equipment, image processing methods, and programs Active JP6786346B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016206237A JP6786346B2 (en) 2016-10-20 2016-10-20 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016206237A JP6786346B2 (en) 2016-10-20 2016-10-20 Image processing equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2018067846A true JP2018067846A (en) 2018-04-26
JP6786346B2 JP6786346B2 (en) 2020-11-18

Family

ID=62087285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016206237A Active JP6786346B2 (en) 2016-10-20 2016-10-20 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6786346B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180259A (en) * 2002-09-30 2004-06-24 Toshiba Corp Image composing method, image composing device, and image composing program
JP2009017078A (en) * 2007-07-03 2009-01-22 Fujifilm Corp Digital still camera and its operation controlling method
JP2009130887A (en) * 2007-11-28 2009-06-11 Olympus Imaging Corp Imaging apparatus and method of controlling the same
JP2013255180A (en) * 2012-06-08 2013-12-19 Olympus Corp Image processing apparatus, image processing method, image processing program and imaging apparatus
JP2016076847A (en) * 2014-10-07 2016-05-12 オリンパス株式会社 Imaging apparatus and imaging method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180259A (en) * 2002-09-30 2004-06-24 Toshiba Corp Image composing method, image composing device, and image composing program
JP2009017078A (en) * 2007-07-03 2009-01-22 Fujifilm Corp Digital still camera and its operation controlling method
JP2009130887A (en) * 2007-11-28 2009-06-11 Olympus Imaging Corp Imaging apparatus and method of controlling the same
JP2013255180A (en) * 2012-06-08 2013-12-19 Olympus Corp Image processing apparatus, image processing method, image processing program and imaging apparatus
JP2016076847A (en) * 2014-10-07 2016-05-12 オリンパス株式会社 Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP6786346B2 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
JP5226600B2 (en) Image deformation apparatus and operation control method thereof
KR101594300B1 (en) A apparatus and method for estimating PSF
WO2013021767A1 (en) Device and method for detecting moving objects
JP6659162B2 (en) Imaging device, imaging device control method, and program
JP6643371B2 (en) Imaging device, control method, and program
JP2017175364A (en) Image processing device, imaging device, and control method of image processing device
JP6429915B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP2020108101A (en) Information processing unit, imaging apparatus, information processing method and control method of imaging apparatus
US20150163396A1 (en) Image processing device, display device, imaging apparatus, image processing method, and program
JP2012235198A (en) Imaging apparatus
JP2020096280A (en) Imaging apparatus, control method of imaging apparatus, and program
JP6762843B2 (en) Image processing equipment, image processing methods, and programs
JP6786346B2 (en) Image processing equipment, image processing methods, and programs
JP2015179968A (en) Device, method and program
JP2019016893A (en) Image processing apparatus, control method therefor, and program
JP6759039B2 (en) Image processing equipment, image processing methods, and programs
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2016208118A (en) Image processing apparatus, image processing method, and program
JP2019216398A (en) Imaging apparatus and control method therefor, and program
JP2020053960A (en) Imaging apparatus, control method of the same, and program
JP6700937B2 (en) Image processing apparatus, control method thereof, and program
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP2016032180A (en) Imaging apparatus, control method and program
JP2019075640A (en) Image processing device and image processing method
JP5721552B2 (en) Imaging apparatus and image composition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201028

R151 Written notification of patent or utility model registration

Ref document number: 6786346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151