JP2014039169A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2014039169A
JP2014039169A JP2012180529A JP2012180529A JP2014039169A JP 2014039169 A JP2014039169 A JP 2014039169A JP 2012180529 A JP2012180529 A JP 2012180529A JP 2012180529 A JP2012180529 A JP 2012180529A JP 2014039169 A JP2014039169 A JP 2014039169A
Authority
JP
Japan
Prior art keywords
image
motion
motion estimation
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012180529A
Other languages
Japanese (ja)
Inventor
Yasunobu Hitomi
康宣 人見
Hiroaki Takahashi
宏彰 高橋
Tomoo Mitsunaga
知生 光永
Masaki Handa
正樹 半田
Tomotsune Masuno
智経 増野
Haruka Asai
晴香 浅井
Makoto Yoshimura
真 吉村
Yasushi Shibata
康史 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012180529A priority Critical patent/JP2014039169A/en
Priority to PCT/JP2013/070140 priority patent/WO2014027551A1/en
Publication of JP2014039169A publication Critical patent/JP2014039169A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Abstract

PROBLEM TO BE SOLVED: To reduce noise and to generate a highly dynamic range image and the like by synthesizing images where a motion compensation image by highly precise motion estimation is applied.SOLUTION: A moving amount between images is estimated, motion compensation processing where one image is position-adjusted to another image is performed, a motion compensation image is generated, and an image where noise is reduced by synthesis processing of the motion compensation image and the positioned image is generated. A motion compensation image generation section generates the motion compensation image using a selected image selected in accordance with a previously specified image selection standard. An image processor includes a motion estimation appropriateness determination section for determining whether the input image is an appropriate image suitable for motion estimation or not, for example. Only when the input image is the appropriate image, the input image is stored in a frame memory as a reference image applied for motion estimation.

Description

本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。特に、複数画像の合成処理により、例えば画像のノイズ低減処理やダイナミックレンジ拡大処理等を行う画像処理装置、および画像処理方法、並びにプログラムに関する。   The present disclosure relates to an image processing device, an image processing method, and a program. In particular, the present invention relates to an image processing apparatus, an image processing method, and a program that perform, for example, image noise reduction processing, dynamic range expansion processing, and the like by combining multiple images.

例えば、画像のノイズ低減処理(NR:Noise Reduction)を実行する場合、連続撮影された複数枚の画像を利用した合成処理が行われる。すなわち、連続撮影画像から同一被写体の撮影画素領域である対応画素を検出し、これらの複数の対応画素の画素値を利用して出力画像の画素値を算出する処理が行われる。   For example, when image noise reduction processing (NR: Noise Reduction) is executed, composition processing using a plurality of images taken continuously is performed. That is, a process is performed in which corresponding pixels that are the shooting pixel regions of the same subject are detected from the continuously shot images, and the pixel values of the output image are calculated using the pixel values of the plurality of corresponding pixels.

具体的には、例えば、
撮影時刻t−1の先行撮影画像、
撮影時刻tの後続撮影画像、
これらの2枚の撮影画像を利用して、後続撮影画像のノイズ低減を行う場合、以下のような処理を実行する。
Specifically, for example,
A preceding photographed image at photographing time t−1,
Subsequent shot image at shooting time t,
When performing noise reduction of the subsequent captured image using these two captured images, the following processing is executed.

まず、撮影時刻t−1の先行撮影画像を時刻tの後続撮影画像の位置に併せる処理を行なう。これは、連続撮影された2つの画像は、手振れなどにより画像位置が移動している場合が多く、このずれを修正するための位置合わせである。この処理は、動き補償(または位置補償)と呼ばれ、位置合わせのための移動を行った画像を動き補償(MC:Motion Compensation)画像と呼ぶ。   First, a process of combining the preceding photographed image at the photographing time t−1 with the position of the subsequent photographed image at the time t is performed. In many cases, the image position of two consecutively photographed images has moved due to camera shake or the like, and this is alignment for correcting this shift. This process is called motion compensation (or position compensation), and an image that has been moved for alignment is called a motion compensation (MC) image.

動き補償画像(MC画像)を生成するためには、まず、撮影時刻t−1の先行撮影画像と、撮影時刻tの後続撮影画像との2つの画像間の動き量や方向を推定する動き推定を行う。この動き推定情報に基づいて、撮影時刻t−1の先行撮影画像を、撮影時刻tの後続撮影画像の画像位置に併せる動き補償処理(MC)を行なう。   In order to generate a motion-compensated image (MC image), first, motion estimation that estimates the amount and direction of motion between two images, a preceding captured image at the capturing time t−1 and a subsequent captured image at the capturing time t. I do. Based on this motion estimation information, a motion compensation process (MC) is performed in which the preceding photographed image at the photographing time t−1 is combined with the image position of the subsequent photographed image at the photographing time t.

撮影時刻t−1の先行撮影画像に対する動き補償によって生成した動き補償画像(MC画像)は、撮影時刻tの後続撮影画像の対応画素位置に同一被写体が撮影された画像となる。これらの2つの画像の対応画素の2つの画素値を利用して補正画素値を算出する。例えば撮影時刻tの後続撮影画像の画素にノイズが含まれている場合、撮影時刻t−1の先行撮影画像の画素値を利用することで、ノイズを軽減することができる。   The motion compensated image (MC image) generated by motion compensation for the preceding photographed image at the photographing time t−1 is an image obtained by photographing the same subject at the corresponding pixel position of the subsequent photographed image at the photographing time t. A correction pixel value is calculated using two pixel values of corresponding pixels of these two images. For example, when noise is included in the pixels of the subsequent captured image at the capturing time t, the noise can be reduced by using the pixel value of the preceding captured image at the capturing time t−1.

なお、複数画像を利用したノイズ低減等の画像処理手法について開示した従来技術として、例えば、特許文献1(特開2009−194700)、あるいは特許文献2(特開2009−290827号公報)等がある。   In addition, as a prior art disclosed about image processing techniques, such as noise reduction using a several image, there exist patent document 1 (Unexamined-Japanese-Patent No. 2009-194700) or Patent Document 2 (Unexamined-Japanese-Patent No. 2009-290827) etc. .

このような複数の連続撮影画像に基づく出力画像の生成処理は、上記のノイズ低減処理のみならず、低解像度の画像から高解像度の画像を生成する超解像処理(SR:Super Resolution)と呼ばれる画像の高解像化処理においても利用される。あるいは、異なる露光時間の連続撮影画像を用いたダイナミックレンジ拡大画像の生成処理等においても利用される。   Such an output image generation process based on a plurality of consecutively photographed images is called not only the noise reduction process described above but also a super-resolution process (SR: Super Resolution) that generates a high-resolution image from a low-resolution image. It is also used in high resolution image processing. Alternatively, it is also used in a dynamic range expanded image generation process using continuously photographed images with different exposure times.

図を参照して、連続撮影画像を利用した画像補正処理のシーケンスについて説明する。図1は、例えば動画像などの連続した入力画像に対して、動き推定処理と、画像位置合わせとしての動き補償画像の生成、さらに、ノイズ低減等の信号処理を順次、実行する場合の処理シーケンスを説明する図である。   The sequence of image correction processing using continuously shot images will be described with reference to the drawings. FIG. 1 shows a processing sequence in the case of sequentially executing motion estimation processing, generation of a motion compensated image as image alignment, and signal processing such as noise reduction for a continuous input image such as a moving image. FIG.

時間軸に沿って撮影された画像が順次、画像処理装置、例えば撮像装置の信号処理部に入力される。時間t−1の撮影画像である入力画像t−1が信号処理部に入力されると、信号処理部は、ステップS01aにおいて、1つ前の撮影画像である格納画像t−2をフレームメモリ(FM)から取得して、この格納画像t−2と入力画像t−1を利用した処理を実行する。
具体的には、これら2つの画像を利用した動き推定処理、動き推定結果に基づく動き補償画像の生成処理、さらに、動き補償画像を適用したノイズ低減処理などの信号処理を実行する。
なお、動き補償画像の生成処理においては、例えば格納画像t−2の画像位置を移動させて入力画像t−1の画像位置に合わせる位置合わせが行われる。
Images taken along the time axis are sequentially input to an image processing device, for example, a signal processing unit of the imaging device. When the input image t-1 that is a captured image at time t-1 is input to the signal processing unit, the signal processing unit stores the stored image t-2 that is the previous captured image in the frame memory (step S01a). FM), and processing using the stored image t-2 and the input image t-1 is executed.
Specifically, signal processing such as motion estimation processing using these two images, motion compensation image generation processing based on the motion estimation result, and noise reduction processing using the motion compensation image is executed.
Note that in the motion compensated image generation process, for example, the image position of the stored image t-2 is moved to be aligned with the image position of the input image t-1.

さらに、ステップS01bにおいて、入力画像t−1をフレームメモリ(FM)に格納する。
なお、図1には、ステップS01aを時間軸の時刻t−1より左に記載しているが、ステップS01aの処理、ステップS01bの処理は、いずれも時刻t以後に実行される処理である。
Further, in step S01b, the input image t-1 is stored in the frame memory (FM).
In FIG. 1, step S01a is shown to the left of time t-1 on the time axis, but the processing in step S01a and the processing in step S01b are both executed after time t.

次に、新たな入力画像tが信号処理部に入力されると、信号処理部は、ステップS02aにおいて、1つ前の撮影画像である格納画像t−1をフレームメモリ(FM)から取得して、この格納画像t−1と入力画像tを利用した処理を実行する。
具体的には、これら2つの画像を利用した動き推定処理、動き推定結果に基づく動き補償画像の生成処理、さらに、動き補償画像を適用したノイズ低減処理などの信号処理を実行する。
さらに、ステップS02bにおいて、入力画像tをフレームメモリ(FM)に格納する。
Next, when a new input image t is input to the signal processing unit, in step S02a, the signal processing unit acquires the stored image t-1 that is the previous captured image from the frame memory (FM). Then, processing using the stored image t-1 and the input image t is executed.
Specifically, signal processing such as motion estimation processing using these two images, motion compensation image generation processing based on the motion estimation result, and noise reduction processing using the motion compensation image is executed.
In step S02b, the input image t is stored in the frame memory (FM).

信号処理部は、この一連の処理を順次実行して、各画像に対するノイズ低減等の処理を行ない、処理結果を出力、あるいは記憶部に格納するといった処理を行なう。   The signal processing unit sequentially executes this series of processing, performs processing such as noise reduction on each image, and performs processing such as outputting the processing result or storing it in the storage unit.

しかし、このように連続撮影画像を2つ組み合わせて処理を実行する場合、動き推定に適さない画像が存在した場合、その画像に対する処理精度が低下するのみならず、隣接画像に対する信号処理の処理精度も低下させてしまうという問題が発生する。
例えば被写体にピントが合わずぼけた領域が多い画像などは前後の撮影画像間での対応領域探索が困難となり、正しい動き推定が実行されない。
However, when processing is performed by combining two consecutively shot images in this way, if there is an image that is not suitable for motion estimation, not only the processing accuracy for that image will deteriorate, but also the processing accuracy of the signal processing for the adjacent image This causes a problem of lowering.
For example, it is difficult to search for a corresponding area between the previous and next captured images for an image with many areas where the subject is out of focus, and correct motion estimation is not performed.

このように正確な動き推定が困難となる不適切な画像を入力した場合の問題点について図2を参照して説明する。
図2において、例えば入力画像t−1が動き推定に適さない不適切画像であるとする。
A problem in the case of inputting an inappropriate image that makes accurate motion estimation difficult will be described with reference to FIG.
In FIG. 2, for example, it is assumed that the input image t-1 is an inappropriate image that is not suitable for motion estimation.

この場合、図2に示すステップS01aの処理、すなわち、
フレームメモリ(FM)格納画像t−2と、入力画像t−1を適用した動き推定、動き補償画像の生成、その後のノイズ低減等の信号処理の精度が低下する。
さらに、図2に示すステップS02aの処理、すなわち、
フレームメモリ(FM)格納画像t−1と、入力画像tを適用した動き推定、動き補償画像の生成、その後のノイズ低減等の信号処理の精度が低下する。
このように、1つの不適格画像の存在によって、2つの連続画像に対する処理が不正確となり、例えば信号処理としてノイズ低減処理を実行する場合、誤った処理によってノイズの低減されない2つの連続画像が生成され出力されてしまうといった事態が発生する。
In this case, the process of step S01a shown in FIG.
The accuracy of signal processing such as motion estimation using the frame memory (FM) stored image t-2 and the input image t-1, generation of a motion compensated image, and subsequent noise reduction is reduced.
Further, the process of step S02a shown in FIG.
The accuracy of signal processing such as motion estimation using the frame memory (FM) stored image t-1 and the input image t, generation of a motion compensated image, and subsequent noise reduction is reduced.
In this way, the processing for two consecutive images becomes inaccurate due to the presence of one unqualified image. For example, when noise reduction processing is performed as signal processing, two consecutive images in which noise is not reduced are generated by erroneous processing. Will occur.

なお、前述したように、2つの画像間の動き推定に基づいて生成した動き補償画像を適用した画像信号処理としては、ノイズ低減処理(NR)の他、例えば超解像処理(SR)、高ダイナミックレンジ画像(HDR画像)生成処理などがある。
これらの様々な信号処理においても、図2を参照して説明した問題は共通に存在し、1つの不適切画像によって複数の出力画像の品質を低下させるという問題がある。
As described above, as image signal processing to which a motion compensated image generated based on motion estimation between two images is applied, in addition to noise reduction processing (NR), for example, super-resolution processing (SR), high resolution processing, etc. There is a dynamic range image (HDR image) generation process.
Also in these various signal processes, the problem described with reference to FIG. 2 exists in common, and there is a problem that the quality of a plurality of output images is reduced by one inappropriate image.

なお、高ダイナミックレンジ画像(HDR画像)生成処理については、例えば特許文献3(特開2008−160881号公報)に記載されている。   The high dynamic range image (HDR image) generation process is described in, for example, Japanese Patent Application Laid-Open No. 2008-160881.

特開2009−194700号公報JP 2009-194700 A 特開2009−290827号公報JP 2009-290827 A 特開2008−160881号公報JP 2008-160881 A

本開示は、例えば上記問題点に鑑みてなされたものであり、正確な動き推定が困難である画像が入力された場合においても、その影響を最小限にとどめ、より品質の高い処理画像を生成可能とした画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。   The present disclosure has been made in view of, for example, the above-described problems. Even when an image for which accurate motion estimation is difficult is input, the effect is minimized and a higher-quality processed image is generated. It is an object of the present invention to provide an image processing apparatus, an image processing method, and a program that are made possible.

本開示の第1の側面は、
異なるタイミングの撮影画像である第1画像と第2画像の二画像間の動き量を推定する動き推定部と、
前記動き推定部の推定した動き量に基づいて、前記第2画像を第1画像の位置に合わせる動き補償処理を実行して動き補償画像を生成する動き補償画像生成部と、
前記動き補償画像と、前記第1画像との合成処理により合成画像を生成する信号処理部を有し、
前記動き補償画像生成部は、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成する画像処理装置にある。
The first aspect of the present disclosure is:
A motion estimator that estimates the amount of motion between two images of a first image and a second image that are captured images at different timings;
A motion compensated image generating unit that generates a motion compensated image by executing a motion compensation process for aligning the second image with the position of the first image based on the motion amount estimated by the motion estimator;
A signal processing unit that generates a synthesized image by synthesizing the motion compensation image and the first image;
The motion compensated image generation unit is in an image processing apparatus that generates a motion compensated image using a selected image selected according to a predetermined image selection criterion.

さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、入力画像が動き推定に好適な適格画像であるか否かを判定する動き推定好適度判定部を有し、前記動き推定好適度判定部は、前記入力画像が適格画像である場合に限り、該入力画像を前記動き推定に適用する参照画像としてフレームメモリに格納する制御を実行し、前記動き推定部は、前記フレームメモリに格納された参照画像を適用した動き推定を実行し、前記動き補償画像生成部は、前記参照画像を利用した動き補償画像を生成する。   Furthermore, in an embodiment of the image processing device of the present disclosure, the image processing device includes a motion estimation suitability determination unit that determines whether or not the input image is a qualified image suitable for motion estimation, and the motion The estimation suitability determination unit performs control to store the input image in a frame memory as a reference image to be applied to the motion estimation only when the input image is a qualified image, and the motion estimation unit The motion estimation using the reference image stored in the memory is executed, and the motion compensation image generation unit generates a motion compensation image using the reference image.

さらに、本開示の画像処理装置の一実施態様において、前記動き推定部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像が適格画像であると判定される場合に、該入力画像と前記参照画像を適用した動き推定を実行する。   Furthermore, in an embodiment of the image processing device of the present disclosure, the motion estimation unit inputs determination information indicating whether or not the input image is a qualified image as determination information of the motion estimation suitability determination unit. When it is determined that the input image is a qualified image based on the determination information, motion estimation using the input image and the reference image is executed.

さらに、本開示の画像処理装置の一実施態様において、前記動き推定部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像が動き推定に好適でない不適格画像であると判定される場合に、該入力画像と前記参照画像を適用した動き推定を実行せず、前記動き推定部において動き推定が実行されない場合、予め規定したアルゴリズムに従って決定する例外動き量を前記動き補償画像生成部に出力する動き量補正部を有する。   Furthermore, in an embodiment of the image processing device of the present disclosure, the motion estimation unit inputs determination information indicating whether or not the input image is a qualified image as determination information of the motion estimation suitability determination unit. If the input image is determined to be an ineligible image not suitable for motion estimation based on the determination information, the motion estimation unit does not perform motion estimation using the input image and the reference image. When the motion estimation is not executed in step (b), a motion amount correction unit is provided that outputs an exceptional motion amount determined according to a predetermined algorithm to the motion compensated image generation unit.

さらに、本開示の画像処理装置の一実施態様において、前記信号処理部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像に対する信号処理を実行する。   Furthermore, in one embodiment of the image processing device of the present disclosure, the signal processing unit inputs determination information indicating whether or not the input image is a qualified image as determination information of the motion estimation appropriateness determination unit. Based on the determination information, signal processing is executed on the input image.

さらに、本開示の画像処理装置の一実施態様において、前記動き推定好適度判定部は、前記入力画像中のぼけ領域、飽和画素領域、ノイズの大きい領域の少なくともいずれか、または入力画像撮影時のカメラの動き、または入力画像の輝度範囲のいずれかの指標を適用して入力画像が動き推定に好適な画像であるか否かの判定処理を実行する。   Furthermore, in an embodiment of the image processing device according to the present disclosure, the motion estimation appropriateness determination unit is configured to capture at least one of a blurred area, a saturated pixel area, and a noisy area in the input image, or when an input image is captured. A process for determining whether or not the input image is an image suitable for motion estimation is performed by applying an index of either the camera movement or the luminance range of the input image.

さらに、本開示の画像処理装置の一実施態様において、前記動き推定好適度判定部は、前記入力画像として、異なる露光時間に設定された連続撮影画像を入力する場合、各露光画像の有効画素値面積を比較してより広い有効画素面積を持つ画像を前記フレームメモリに格納する参照画像とする制御を行う。   Furthermore, in one embodiment of the image processing device according to the present disclosure, when the continuous estimation image set at a different exposure time is input as the input image, the motion estimation appropriateness determination unit determines an effective pixel value of each exposure image. By comparing the areas, an image having a larger effective pixel area is controlled as a reference image stored in the frame memory.

さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記フレームメモリに格納された画像を基準画像として、該基準画像の画像位置に入力画像の画像位置を合わせるために実行する動き推定方向の切り替え処理を実行する動き推定方向切り替え部を有する。   Furthermore, in an embodiment of the image processing device according to the present disclosure, the image processing device further uses the image stored in the frame memory as a reference image to match the image position of the input image with the image position of the reference image. A motion estimation direction switching unit that executes a motion estimation direction switching process.

さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記入力画像として、異なる露光時間に設定された連続撮影画像を入力し、露光比補正を実行する露光比補正部を有し、前記動き推定部は、前記露光比補正部において露光比補正の施された連続撮影画像間の動き推定を実行して、該連続撮影画像間の動き量を算出し、前記動き補償画像生成部は、前記動き量を利用して、前記連続撮影画像の一方の画像位置を他方の画像位置に合わせた動き補償画像を生成し、
前記信号処理部は、前記動き補償画像と、フレームメモリに格納した基準画像との合成処理を実行する。
Furthermore, in an embodiment of the image processing apparatus according to the present disclosure, the image processing apparatus further inputs, as the input image, continuous shot images set at different exposure times, and executes exposure ratio correction. The motion estimation unit performs motion estimation between continuously shot images that have been subjected to exposure ratio correction in the exposure ratio correction unit, calculates a motion amount between the continuously shot images, and The compensation image generation unit uses the amount of motion to generate a motion compensation image in which one image position of the continuously shot image is matched with the other image position,
The signal processing unit executes a synthesis process of the motion compensated image and a reference image stored in a frame memory.

さらに、本開示の画像処理装置の一実施態様において、前記フレームメモリに格納する基準画像は、予め定めた所定の露光時間の画像であり、前記露光比補正部は、前記入力画像と、前記フレームメモリに格納した基準画像間の露光比補正を実行し、前記動き推定部は、前記露光比補正部において露光比補正の施された入力画像と基準画像との動き推定を実行する。   Furthermore, in an embodiment of the image processing device according to the present disclosure, the reference image stored in the frame memory is an image having a predetermined exposure time, and the exposure ratio correction unit includes the input image, the frame, The exposure ratio correction between the reference images stored in the memory is executed, and the motion estimation unit executes the motion estimation between the input image subjected to the exposure ratio correction and the reference image in the exposure ratio correction unit.

さらに、本開示の画像処理装置の一実施態様において、前記動き推定部は、同一露光時間に設定された画像間の動きベクトルを算出し、前記動き推定部の算出した動きベクトルを入力し、該動きベクトルに対する線型演算により、前記動き補償画像生成部における動き補償画像の生成に適用する動きベクトルを算出する動きベクトル演算部を有する。   Furthermore, in one embodiment of the image processing device of the present disclosure, the motion estimation unit calculates a motion vector between images set at the same exposure time, inputs the motion vector calculated by the motion estimation unit, A motion vector calculation unit that calculates a motion vector to be applied to generation of a motion compensated image in the motion compensated image generation unit by linear calculation on the motion vector.

さらに、本開示の第2の側面は、
画像処理装置において実行する画像処理方法であり、
動き推定部が、異なるタイミングの撮影画像である第1画像と第2画像の二画像間の動き量を推定する動き推定ステップと、
動き補償画像生成部が、前記動き推定ステップにおいて推定した動き量に基づいて、前記第2画像を第1画像の位置に合わせる動き補償処理を実行して動き補償画像を生成する動き補償画像生成ステップと、
信号処理部が、前記動き補償画像と、前記第1画像との合成処理により合成画像を生成する信号処理ステップを実行し、
前記動き補償画像生成ステップは、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成する画像処理方法にある。
Furthermore, the second aspect of the present disclosure is:
An image processing method executed in an image processing apparatus,
A motion estimation step in which a motion estimation unit estimates a motion amount between two images of a first image and a second image that are captured images at different timings;
A motion compensated image generating step for generating a motion compensated image by executing a motion compensation process for aligning the second image with the position of the first image based on the motion amount estimated in the motion estimating step. When,
A signal processing unit that performs a signal processing step of generating a synthesized image by synthesizing the motion compensated image and the first image;
The motion compensation image generation step is an image processing method for generating a motion compensation image using a selected image selected according to a predetermined image selection criterion.

さらに、本開示の第3の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
動き推定部に、異なるタイミングの撮影画像である第1画像と第2画像の二画像間の動き量を推定させる動き推定ステップと、
動き補償画像生成部に、前記動き推定ステップにおいて推定した動き量に基づいて、前記第2画像を第1画像の位置に合わせる動き補償処理を実行して動き補償画像を生成させる動き補償画像生成ステップと、
信号処理部に、前記動き補償画像と、前記第1画像との合成処理により合成画像を生成させる信号処理ステップを実行し、
前記動き補償画像生成ステップにおいては、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成させるプログラムにある。
Furthermore, the third aspect of the present disclosure is:
A program for executing image processing in an image processing apparatus;
A motion estimation step for causing the motion estimation unit to estimate a motion amount between the first image and the second image that are captured images at different timings;
A motion compensation image generation step for causing the motion compensation image generation unit to generate a motion compensation image by executing a motion compensation process for aligning the second image with the position of the first image based on the motion amount estimated in the motion estimation step. When,
Performing a signal processing step of causing a signal processing unit to generate a composite image by combining the motion compensated image and the first image;
In the motion compensation image generation step, a program for generating a motion compensation image using a selected image selected according to a predetermined image selection criterion is provided.

なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。   Note that the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.

本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present disclosure will become apparent from a more detailed description based on embodiments of the present disclosure described below and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本開示の一実施例の構成によれば、高精度な動き推定による動き補償画像を適用した画像の合成処理により、高品質なノイズ低減や高ダイナミックレンジ画像等を生成する構成が実現される。
具体的には、画像間の動き量を推定し、一方の画像を他方の画像の位置に合わせる動き補償処理を実行して動き補償画像を生成し、動き補償画像と位置合わせされた画像との合成処理によりノイズ低減等の施された画像を生成する。動き補償画像生成部は、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成する。例えば、入力画像が動き推定に好適な適格画像であるか否かを判定する動き推定好適度判定部を有し、入力画像が適格画像である場合に限り、該入力画像を動き推定に適用する参照画像としてフレームメモリに格納する。
これらの処理により、高精度な動き推定による動き補償画像を適用した画像の合成処理により、品質の高いノイズ低減や高ダイナミックレンジ画像を生成することが可能となる。
According to the configuration of an embodiment of the present disclosure, a configuration for generating high-quality noise reduction, a high dynamic range image, and the like is realized by image synthesis processing using a motion compensated image based on highly accurate motion estimation.
Specifically, the amount of motion between the images is estimated, a motion compensation image is generated by matching one image with the position of the other image, and a motion compensated image is generated. An image subjected to noise reduction or the like is generated by the synthesis process. The motion compensated image generation unit generates a motion compensated image using a selected image selected according to a predetermined image selection criterion. For example, a motion estimation suitability determination unit that determines whether or not an input image is a qualified image suitable for motion estimation, and applies the input image to motion estimation only when the input image is a qualified image It is stored in the frame memory as a reference image.
With these processes, high-quality noise reduction and a high dynamic range image can be generated by image synthesis processing using a motion compensated image based on highly accurate motion estimation.

動画像などの連続入力画像に動き推定処理、動き補償画像の生成、ノイズ低減等の信号処理を順次、実行する場合の処理シーケンスを説明する図である。It is a figure explaining the processing sequence in the case of performing sequentially signal processing, such as a motion estimation process, the production | generation of a motion compensation image, and noise reduction, to continuous input images, such as a moving image. 動画像などの連続入力画像に動き推定処理、動き補償画像の生成、ノイズ低減等の信号処理を順次、実行する場合の処理シーケンスを説明する図である。It is a figure explaining the processing sequence in the case of performing sequentially signal processing, such as a motion estimation process, the production | generation of a motion compensation image, and noise reduction, to continuous input images, such as a moving image. 本開示の処理に従って、動画像などの連続入力画像に動き推定処理、動き補償画像の生成、ノイズ低減等の信号処理を順次、実行する場合の処理シーケンスを説明する図である。It is a figure explaining the processing sequence in the case of performing sequentially signal processing, such as a motion estimation process, the production | generation of a motion compensation image, noise reduction, etc. with respect to continuous input images, such as a moving image, according to the process of this indication. 信号処理としてのノイズ低減処理構成について説明する図である。It is a figure explaining the noise reduction process structure as signal processing. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の処理について説明する図である。It is a figure explaining the process of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の処理について説明する図である。It is a figure explaining the process of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の処理について説明する図である。It is a figure explaining the process of the image processing apparatus according to one Example of this indication. 高ダイナミックレンジ画像の生成処理について説明する図である。It is a figure explaining the production | generation process of a high dynamic range image. 高ダイナミックレンジ画像生成処理とノイズ低減処理を併せて実行する構成例について説明する図である。It is a figure explaining the structural example which performs a high dynamic range image generation process and a noise reduction process together. 高ダイナミックレンジ画像生成処理とノイズ低減処理を併せて実行する構成例について説明する図である。It is a figure explaining the structural example which performs a high dynamic range image generation process and a noise reduction process together. 本開示の画像処理装置の一実施例において、入力する画像シーケンスの例について説明する図である。FIG. 4 is a diagram illustrating an example of an input image sequence in an embodiment of the image processing apparatus of the present disclosure. 本開示の画像処理装置の一実施例において実行する画像合成処理について説明する図である。It is a figure explaining the image composition process performed in one Example of the image processing apparatus of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の処理について説明する図である。It is a figure explaining the process of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の処理について説明する図である。It is a figure explaining the process of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の処理について説明する図である。It is a figure explaining the process of the image processing apparatus according to one Example of this indication. 本開示の一実施例に従った画像処理装置の構成と処理について説明する図である。It is a figure explaining composition and processing of an image processing device according to an example of this indication. 本開示の一実施例に従った画像処理装置の処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence of the image processing apparatus according to one Example of this indication. 本開示の画像処理装置の構成例について説明する図である。It is a figure explaining the structural example of the image processing apparatus of this indication.

以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
1.画像に対する動き推定の適否判定を実行する処理例について
1−1.処理の概要について
1−2.動き推定の適否判定に基づく処理を行なう画像処理装置(実施例1)
1−3.動き推定の適否判定に基づく処理を行なう画像処理装置(実施例2)
1−4.動き推定の適否判定に基づく処理を行なう画像処理装置(実施例3)
1−5.動き推定好適度判定処理の詳細について
1−6.連続撮影画像の重ね合わせによるノイズ低減を行う実施例(実施例4)
1−7.高ダイナミックレンジ画像の生成処理を行なう実施例(実施例5)
2.複数画像の合成によるノイズ低減と、高ダイナミックレンジ化処理を併せて実行する実施例について
2−1.ノイズ低減処理と、高ダイナミックレンジ化処理を併せて実行する一般的な構成例と問題点について
2−2.本開示に従ったノイズ低減と高ダイナミックレンジ画像生成を併せて実行する処理の概要
2−3.本開示に従ったノイズ低減と高ダイナミックレンジ画像生成を併せて実行する実施例(実施例6)
2−4.本開示に従ったノイズ低減と高ダイナミックレンジ画像生成を併せて実行する実施例(実施例7)
2−5.露光時間の同じ画像同士で動き推定を行う実施例(実施例8)
3.画像処理装置の全体構成例について
4.本開示の構成のまとめ
The details of the image processing apparatus, the image processing method, and the program of the present disclosure will be described below with reference to the drawings. The description will be made according to the following items.
1. 1. Example of processing for determining appropriateness of motion estimation for image 1-1. Outline of processing 1-2. An image processing apparatus that performs processing based on determination of suitability for motion estimation (Example 1)
1-3. An image processing apparatus that performs processing based on determination of propriety of motion estimation (second embodiment)
1-4. Image processing apparatus for performing processing based on determination of propriety of motion estimation (Example 3)
1-5. Details of motion estimation appropriateness determination processing 1-6. Example (Example 4) of performing noise reduction by superimposing continuous shot images
1-7. Example (Example 5) in which high dynamic range image generation processing is performed
2. 2. Example in which noise reduction by combining multiple images and high dynamic range processing are executed together 2-1. General configuration example and problem of executing both noise reduction processing and high dynamic range processing 2-2. Overview of processing to execute noise reduction and high dynamic range image generation according to the present disclosure 2-3. Example (Example 6) which performs noise reduction and high dynamic range image generation according to the present disclosure together
2-4. Example (Example 7) which performs noise reduction and high dynamic range image generation according to the present disclosure together
2-5. Example in which motion estimation is performed between images having the same exposure time (Example 8)
3. 3. Example of overall configuration of image processing apparatus Summary of composition of this disclosure

[1.各画像に対する動き推定の適否判定を実行し、動き推定に適した画像を選択適用した信号処理を実行する実施例について]
まず、本開示の画像処理装置の第1実施例として、画像に対する動き推定の適否判定を実行して、動き推定に適切な画像を選択適用した動き推定を実行し、その動き推定結果を利用したノイズ低減等の信号処理を実行する実施例について説明する。
[1. Example of Executing Signal Processing that Performs Appropriate Motion Estimation for Each Image and Selects and Applies Images Suitable for Motion Estimation]
First, as a first embodiment of the image processing apparatus of the present disclosure, determination of suitability of motion estimation for an image is performed, motion estimation is performed by selecting and applying an image suitable for motion estimation, and the motion estimation result is used. An embodiment for executing signal processing such as noise reduction will be described.

[1−1.処理の概要について]
図3は、本実施例における処理シーケンスを示す図である。先に説明した図1、図2と同様、例えば動画像などの連続した入力画像に対して、動き推定処理と、画像位置合わせとしての動き補償画像の生成、さらに、ノイズ低減等の信号処理を順次、実行する場合の処理シーケンスを説明する図である。
[1-1. About processing overview]
FIG. 3 is a diagram showing a processing sequence in the present embodiment. Similar to FIGS. 1 and 2 described above, for example, motion estimation processing, generation of motion compensated images as image alignment, and signal processing such as noise reduction are performed on continuous input images such as moving images. It is a figure explaining the processing sequence in the case of performing sequentially.

時間軸に沿って撮影された画像が順次、画像処理装置、例えば撮像装置の信号処理部に入力される。時間t−1の撮影画像である入力画像t−1が信号処理部に入力されると、信号処理部は、ステップS11aにおいて、1つ前の撮影画像である格納画像t−2をフレームメモリ(FM)から取得して、この格納画像t−2と入力画像t−1を利用した処理を実行する。
具体的には、これら2つの画像を利用した動き推定処理、動き推定結果に基づく動き補償画像の生成処理、さらに、動き補償画像を適用したノイズ低減処理などの信号処理を実行する。
Images taken along the time axis are sequentially input to an image processing device, for example, a signal processing unit of the imaging device. When the input image t-1 that is the captured image at time t-1 is input to the signal processing unit, the signal processing unit stores the stored image t-2 that is the previous captured image in the frame memory (step S11a). FM), and processing using the stored image t-2 and the input image t-1 is executed.
Specifically, signal processing such as motion estimation processing using these two images, motion compensation image generation processing based on the motion estimation result, and noise reduction processing using the motion compensation image is executed.

ここで、入力画像t−1が、例えば、「ぼけた画像」であるなど、正確な動き推定が困難な画像であるとする。以下、このような動き推定が困難な画像を不適格画像と呼ぶ。   Here, it is assumed that the input image t-1 is an image for which accurate motion estimation is difficult, for example, a “blurred image”. Hereinafter, such an image for which motion estimation is difficult is referred to as an unqualified image.

ステップS11aにおける処理は、この不適格画像である入力画像t−1を利用して実行される。この結果、ステップS11aの処理結果として得られる処理画像は、目的とする処理効果が得られない画像となる可能性が高い。例えばノイズ低減処理を実行する構成では、このステップS11aにおいて生成した画像は十分なノイズ低減がなされない画像となる可能性が高くなる。   The process in step S11a is executed using the input image t-1 that is the unqualified image. As a result, the processed image obtained as the processing result of step S11a is highly likely to be an image in which the intended processing effect cannot be obtained. For example, in the configuration in which the noise reduction process is performed, there is a high possibility that the image generated in step S11a will be an image for which sufficient noise reduction is not performed.

先に図2を参照して説明した処理例では、この不適格画像である入力画像t−1をフレームメモリに格納し、その次の信号処理(図2のステップS02a)においても利用していた。従って、図2に示すステップS02aにおける処理画像も目的とする処理効果、例えばノイズ低減効果が得られない画像となってしまう。   In the processing example described above with reference to FIG. 2, the input image t-1 which is an unqualified image is stored in the frame memory and used in the next signal processing (step S02a in FIG. 2). . Therefore, the processed image in step S02a shown in FIG. 2 also becomes an image in which a target processing effect, for example, a noise reduction effect cannot be obtained.

しかし、この図3に示す実施例では、図3のステップS11bに示すように、入力画像が動き推定に適さない不適格画像であると判定した場合、フレームメモリ(FM)に対する格納処理を中止する。
この結果、フレームメモリ(FM)には、1つ前の画像、すなわち格納画像t−2がそのまま格納され続けることになる。この格納画像t−2は不適格画像ではなく、良好な動き推定が可能な画像である。
However, in the embodiment shown in FIG. 3, when it is determined that the input image is an unsuitable image that is not suitable for motion estimation, as shown in step S11b of FIG. 3, the storage process for the frame memory (FM) is stopped. .
As a result, the previous image, that is, the stored image t-2 is continuously stored in the frame memory (FM). This stored image t-2 is not an ineligible image, but an image capable of good motion estimation.

図3に示すステップS12aでは、新たな入力画像tと、フレームメモリ(FM)に格納された格納画像t−2を利用した処理を実行する。
具体的には、これら2つの画像を利用した動き推定処理、動き推定結果に基づく動き補償画像の生成処理、さらに、動き補償画像を適用したノイズ低減処理などの信号処理を実行する。これらの2つの画像は、不適格画像ではなく、精度の高い動き推定が可能な画像である。従って、高精度な動き推定処理、動き推定結果に基づく動き補償画像の生成処理、さらに、動き補償画像を適用したノイズ低減処理などの信号処理を実行することが可能となる。
In step S12a shown in FIG. 3, a process using a new input image t and a stored image t-2 stored in the frame memory (FM) is executed.
Specifically, signal processing such as motion estimation processing using these two images, motion compensation image generation processing based on the motion estimation result, and noise reduction processing using the motion compensation image is executed. These two images are not ineligible images, but are images capable of highly accurate motion estimation. Therefore, it is possible to execute signal processing such as highly accurate motion estimation processing, motion compensation image generation processing based on motion estimation results, and noise reduction processing using motion compensation images.

このように、先に説明した図2に示す処理では、ステップS01a、ステップS02aの2つの処理ブロックの処理がいずれも、1つの不適格画像(入力画像t−1)の影響によって影響を受け、2つの出力画像が例えば十分なノイズ低減のなされないエラー画像となってしまう。
しかし、図3に示す処理では、不適格画像(入力画像t−1)の影響によって影響を受けるのは、ステップS11aの1つの処理ブロックのみとなり、ステップS12aの処理には影響を及ぼさない。
As described above, in the process shown in FIG. 2 described above, the processes of the two processing blocks of Step S01a and Step S02a are both affected by the influence of one ineligible image (input image t-1). For example, the two output images are error images that are not sufficiently reduced in noise.
However, in the processing shown in FIG. 3, only one processing block in step S11a is affected by the influence of the ineligible image (input image t-1), and the processing in step S12a is not affected.

例えば各ステップにおいて実行する信号処理がノイズ低減処理である場合、ノイズ低減が不十分となる画像は、ステップS11aの1つの処理ブロックにおいて生成した画像のみとなり、ステップS12aの処理では、良好なノイズ低減のなされた画像を生成して出力することが可能となる。   For example, when the signal processing executed in each step is noise reduction processing, an image for which noise reduction is insufficient is only an image generated in one processing block in step S11a. In the processing in step S12a, good noise reduction is performed. It is possible to generate and output an image that has been processed.

画像処理装置において実行する信号処理がノイズ低減処理である場合の信号処理部の構成例を図4に示す。
画像処理装置の信号処理部は、図4に示すように、新たな入力画像101と、過去入力画像を、入力画像の画像位置に合わせた動き補償画像102を入力する。
静止領域検出部111は、例えばこれらの2つの画像を比較して、静止被写体を撮影した静止領域を抽出して、静止被写体画素領域の抽出情報を持つ静止領域マップ103を生成する。この静止領域判定処理は、例えば入力画像101と動き補償画像102とを所定の画素領域からなる画素ブロック間で比較して、ブロック間の類似度判定処理に基づいて実行することができる。
FIG. 4 shows a configuration example of the signal processing unit when the signal processing executed in the image processing apparatus is noise reduction processing.
As shown in FIG. 4, the signal processing unit of the image processing apparatus inputs a new input image 101 and a motion compensated image 102 obtained by matching the past input image with the image position of the input image.
For example, the still region detection unit 111 compares these two images, extracts a still region where a still subject is photographed, and generates a still region map 103 having extraction information of the still subject pixel region. This still area determination process can be executed based on a similarity determination process between blocks, for example, by comparing the input image 101 and the motion compensated image 102 between pixel blocks formed of a predetermined pixel area.

画素値補正部112は、静止領域103に基づいて静止領域と判定された入力画像101の画素の画素値を、入力画像101と動き補償画像102の対応画素を用いて補正する。具体的には、例えば入力画像101と動き補償画像102の対応画素の画素値の加算平均値を補正画素値として設定する。動き領域と判定された画素については、補正を実行することなく、入力画像101の画素値をそのまま出力画素とする。
このようにして生成した処理画像104は、ノイズをの低減された画像として出力される。
The pixel value correction unit 112 corrects the pixel value of the pixel of the input image 101 determined as a still region based on the still region 103 using the corresponding pixel of the input image 101 and the motion compensated image 102. Specifically, for example, an average value of pixel values of corresponding pixels of the input image 101 and the motion compensated image 102 is set as a corrected pixel value. For the pixel determined to be a motion region, the pixel value of the input image 101 is used as the output pixel as it is without executing correction.
The processed image 104 generated in this way is output as an image with reduced noise.

なお、図4に示す例は、信号処理としてノイズ低減を実行する場合の信号処理構成例である。本開示の処理は、このようなノイズ低減(NR)処理のみならず、例えば解像度を高める超解像(SR)処理、あるいは複数の異なる露光時間の画像を組み合わせて生成する高ダイナミックレンジ(HDR)画像の生成処理等、様々な信号処理を実行する構成において適用可能である。   The example shown in FIG. 4 is a signal processing configuration example when noise reduction is performed as signal processing. The processing of the present disclosure includes not only such noise reduction (NR) processing, but also, for example, super-resolution (SR) processing for increasing resolution, or high dynamic range (HDR) generated by combining a plurality of images with different exposure times. The present invention can be applied to a configuration that executes various signal processing such as image generation processing.

[1−2.動き推定の適否判定に基づく処理を行なう画像処理装置(実施例1)]
図5以下を参照して、本開示の第1実施例として、動き推定の適否判定に基づく処理を行なう画像処理装置の実施例について説明する。
図5は、実施例1に従った画像処理を実行する画像処理装置の主要部構成と処理を説明する図である。
[1-2. Image processing apparatus for performing processing based on determination of propriety of motion estimation (Example 1)]
With reference to FIG. 5 and the following, an embodiment of an image processing apparatus that performs processing based on determination of propriety of motion estimation will be described as a first embodiment of the present disclosure.
FIG. 5 is a diagram for explaining the main configuration and processing of an image processing apparatus that executes image processing according to the first embodiment.

図5に示す画像処理装置は、フレームメモリ201、動き推定好適度判定部202、動き推定部203、動き補償画像生成部205、信号処理部206、フレームメモリ格納画像更新制御スイッチ207を有する。
図5に示す構成は、例えば動画や静止画を撮影する撮像装置、あるいは画像処理を実行可能なPC等の装置の一部構成に相当する。
図5には示していないが、画像処理装置は例えばプログラム実行機能を有するCPU等からなる制御部、制御部において実行するプログラムを格納したメモリ等を有する。図5の構成を適用した処理は、例えば、制御部において実行するプログラムに従った処理として実行される。
The image processing apparatus illustrated in FIG. 5 includes a frame memory 201, a motion estimation appropriateness determination unit 202, a motion estimation unit 203, a motion compensated image generation unit 205, a signal processing unit 206, and a frame memory stored image update control switch 207.
The configuration illustrated in FIG. 5 corresponds to a partial configuration of an imaging device that captures moving images or still images, or a device such as a PC that can perform image processing.
Although not shown in FIG. 5, the image processing apparatus includes, for example, a control unit including a CPU having a program execution function, a memory storing a program executed in the control unit, and the like. The process to which the configuration of FIG. 5 is applied is executed as a process according to a program executed in the control unit, for example.

図5に示す画像処理装置は、連続撮影画像に対する処理を実行する。例えばノイズ低減処理、超解像処理、高ダイナミックレンジ画像生成処理等の信号処理である。
これらの信号処理は、図5に示す信号処理部206において実行する。
信号処理部206の出力画像である処理画像215が、ノイズ低減処理、超解像処理、高ダイナミックレンジ化、これらの少なくともいずれかの処理がなされた画像である。
The image processing apparatus shown in FIG. 5 executes processing for continuously shot images. For example, signal processing such as noise reduction processing, super-resolution processing, and high dynamic range image generation processing.
These signal processes are executed in the signal processing unit 206 shown in FIG.
A processed image 215 that is an output image of the signal processing unit 206 is an image that has been subjected to noise reduction processing, super-resolution processing, high dynamic range, or at least one of these processing.

図5に示す入力画像211として、連続撮影された画像が順次入力される。
入力画像211は、動き推定好適度判定部202に入力される。
動き推定好適度判定部202は、入力画像211の解析を実行して、入力画像211が、正確な動き推定処理を実行可能な画像であるか否かを判定する。
As the input image 211 shown in FIG. 5, continuously shot images are sequentially input.
The input image 211 is input to the motion estimation appropriateness determination unit 202.
The motion estimation appropriateness determination unit 202 performs analysis of the input image 211 to determine whether or not the input image 211 is an image that can execute an accurate motion estimation process.

この動き推定好適度判定処理は、例えば画像に含まれるぼけ領域の比率等に基づいて実行される。例えば被写体にピントが合わずぼけた領域が多い画像などは前後の撮影画像間での対応領域探索が困難みとなり、正しい動き推定が実行されない。
なお、画像に対する動き推定好適度の判定処理の処理態様としては様々な処理態様があり、この具体例については、後段で説明する。
This motion estimation appropriateness determination process is executed based on, for example, the ratio of the blur region included in the image. For example, it is difficult to search for a corresponding area between the preceding and following captured images for an image with many areas that are out of focus and blurred, and correct motion estimation is not performed.
Note that there are various processing modes for the determination process of the motion estimation appropriateness for the image, and a specific example will be described later.

動き推定好適度判定部202は、入力画像211が正確な動き推定処理を実行可能な画像であると判定した場合、フレームメモリ201に格納されている参照画像を更新する制御情報を出力する。すなわち、更新フラグ[0]を設定した参照画像更新情報218を出力する。
一方、入力画像211が正確な動き推定処理を実行可能な画像でないと判定した場合、フレームメモリ201に格納されている参照画像を更新せず、現状の参照画像をそのまま維持する制御情報を出力する。すなわち、更新フラグ[1]を設定した参照画像更新情報218を出力する。
フレームメモリ格納画像更新制御スイッチ207は、更新フラグの値[0],[1]の値に応じて切り替えられる。
When it is determined that the input image 211 is an image capable of executing an accurate motion estimation process, the motion estimation appropriateness determination unit 202 outputs control information for updating the reference image stored in the frame memory 201. That is, the reference image update information 218 in which the update flag [0] is set is output.
On the other hand, if it is determined that the input image 211 is not an image that can be subjected to accurate motion estimation processing, the control information that maintains the current reference image is output without updating the reference image stored in the frame memory 201. . That is, the reference image update information 218 in which the update flag [1] is set is output.
The frame memory stored image update control switch 207 is switched according to the update flag values [0] and [1].

なお、フレームメモリ201に格納される参照画像は、動き補償画像の生成元となる画像であり、動き補償画像生成部205は、この「参照画像」を利用して、参照画像を入力画像の画像位置に合わせた動き補償画像を生成する。   Note that the reference image stored in the frame memory 201 is an image that is a generation source of the motion compensated image, and the motion compensated image generation unit 205 uses the “reference image” to convert the reference image into the image of the input image. A motion compensated image that matches the position is generated.

このように、本実施例1の画像処理装置においては、入力画像211が正確な動き推定処理を実行可能な画像であり、更新フラグの値が[0]である場合、入力画像211を、新たな参照画像としてフレームメモリ201に格納する処理を行なう。
一方、入力画像211が正確な動き推定処理を実行可能な画像でなく、更新フラグの値が[1]である場合、入力画像211をフレームメモリ201に格納せず、フレームメモリ201に格納された参照画像をそのまま維持する処理を行なう。
As described above, in the image processing apparatus according to the first embodiment, when the input image 211 is an image capable of executing accurate motion estimation processing and the value of the update flag is [0], the input image 211 is newly set. A process of storing in the frame memory 201 as a simple reference image is performed.
On the other hand, when the input image 211 is not an image capable of performing accurate motion estimation processing and the value of the update flag is [1], the input image 211 is not stored in the frame memory 201 but is stored in the frame memory 201. A process of maintaining the reference image as it is is performed.

フレームメモリ201に格納された参照画像は、動き推定部203において、入力画像211と比較され、2つの画像の位置ずれに基づく画像間の動き量212を算出する動き推定処理に適用される。
例えば連続撮影画像として、画像フレームF1,F2,F3,F4・・・が、順次、入力画像211として入力されるとする。
これらの入力画像フレームF1,F2,F3,F4がすべて、動き推定処理に適した画像である場合、フレームメモリ201の格納画像である参照画像は、画像フレームF1,F2,F3,F4と順次更新される。
The reference image stored in the frame memory 201 is compared with the input image 211 in the motion estimation unit 203 and applied to a motion estimation process for calculating a motion amount 212 between the images based on the positional deviation between the two images.
For example, it is assumed that image frames F1, F2, F3, F4,...
When all of these input image frames F1, F2, F3, and F4 are images suitable for motion estimation processing, the reference image that is a stored image in the frame memory 201 is sequentially updated with the image frames F1, F2, F3, and F4. Is done.

しかし、例えば、画像フレームF3が、動き推定に適さない不適格画像である場合、フレームメモリ201の格納画像である参照画像は、画像フレームF1,F2,F2,F4という順番で更新される。すなわち、不適挌画像である画像フレームF3は、フレームメモリ102に格納されることはない。   However, for example, when the image frame F3 is an ineligible image that is not suitable for motion estimation, the reference image that is a stored image in the frame memory 201 is updated in the order of the image frames F1, F2, F2, and F4. That is, the image frame F <b> 3 that is an inappropriate image is not stored in the frame memory 102.

動き推定部203は、入力画像211と、フレームメモリ201に格納された参照画像とを比較し、2つの画像の位置ずれに基づく画像間の動き量212を算出する。
動き量212は、動き補償画像生成部205に出力される。動き量212には、動きベクトル情報と、動きベクトルを算出した2つの画像フレームのフレーム情報等が含まれる。
The motion estimation unit 203 compares the input image 211 and the reference image stored in the frame memory 201, and calculates a motion amount 212 between the images based on the positional deviation between the two images.
The motion amount 212 is output to the motion compensated image generation unit 205. The motion amount 212 includes motion vector information, frame information of two image frames for which motion vectors are calculated, and the like.

動き補償画像生成部205は、動き推定部203から入力する動き量212を適用して、フレームメモリ201に格納された参照画像の画像位置を入力画像の画像位置に合わせた動き補償画像214を生成する。生成した動き補償画像214は、入力画像211とともに、信号処理部206に出力される。   The motion compensation image generation unit 205 applies the motion amount 212 input from the motion estimation unit 203 to generate a motion compensation image 214 in which the image position of the reference image stored in the frame memory 201 is matched with the image position of the input image. To do. The generated motion compensated image 214 is output to the signal processing unit 206 together with the input image 211.

信号処理部206は、入力画像211と、入力画像211の画像位置に位置合わせを行った参照画像、すなわち動き補償画像214を適用した信号処理を実行する。
例えば、図4を参照して説明したノイズ低減処理(NR)、あるいは超解像処理(SR)、あるいは高ダイナミックレンジ(HDR)画像生成処理などを実行する。
信号処理部206は、信号処理によって生成した処理画像215を出力する。
なお、処理画像215は、さらに、動き補償画像生成部205にフィードバック入力して、処理画像に基づく動き補償画像を生成し、生成画像を適用して信号処理部205において、さらに画像のノイズ低減を繰り返し実行する構成としてもよい。
The signal processing unit 206 executes signal processing using the input image 211 and a reference image that is aligned with the image position of the input image 211, that is, the motion compensation image 214.
For example, the noise reduction processing (NR), super-resolution processing (SR), or high dynamic range (HDR) image generation processing described with reference to FIG. 4 is executed.
The signal processing unit 206 outputs a processed image 215 generated by signal processing.
The processed image 215 is further fed back to the motion compensated image generation unit 205 to generate a motion compensated image based on the processed image, and the signal processing unit 205 further reduces image noise by applying the generated image. It is good also as a structure to perform repeatedly.

図5に示す構成を用いた処理例について、図6を参照して説明する。
入力画像が図6(1)入力に示すように、A、B、C、D、E・・・の順番で入力するものとする。これらのA〜Eの画像フレームは連続撮影のなされた画像である。
これらの画像フレームA〜Eには、動き推定に好適な画像と好適でない画像が混在する。
画像フレームA,D,Eは、動き推定に好適な画像であり、画像フレームB,Cは、動き推定に好適でない画像、すなわち不適格画像であるとする。
A processing example using the configuration shown in FIG. 5 will be described with reference to FIG.
Assume that the input image is input in the order of A, B, C, D, E... As shown in FIG. These image frames A to E are images taken continuously.
In these image frames A to E, an image suitable for motion estimation and an unsuitable image are mixed.
The image frames A, D, and E are images suitable for motion estimation, and the image frames B and C are images that are not suitable for motion estimation, that is, ineligible images.

動き推定好適度判定部202は、各画像が動き推定に好適であるか不適格であるかを判別して、判別結果に応じた参照画像更新情報を出力する。
図6に示す(3)参照画像更新情報である。
この参照画像更新情報の値に応じて図5に示すフレームメモリ格納画像更新制御スイッチ207が切り替えられる。
このスイッチ切り替えに応じてフレームメモリ201に格納される参照画像が更新される。
The motion estimation appropriateness determination unit 202 determines whether each image is suitable for motion estimation or is unsuitable, and outputs reference image update information corresponding to the determination result.
This is (3) reference image update information shown in FIG.
The frame memory stored image update control switch 207 shown in FIG. 5 is switched according to the value of this reference image update information.
The reference image stored in the frame memory 201 is updated according to this switch change.

フレームメモリ201に格納される参照画像は、図6の(2)フレームメモリ格納参照画像に示すように、最新の好適画像が入力された場合に更新される。
入力画像が画像フレームAのタイミングでは、フレームメモリ201には参照画像は格納されていない。
入力画像が画像フレームBのタイミングでは、フレームメモリ201には参照画像として画像フレームAが格納されている。
The reference image stored in the frame memory 201 is updated when the latest preferred image is input, as shown in (2) Reference image stored in frame memory in FIG.
At the timing when the input image is the image frame A, the reference image is not stored in the frame memory 201.
At the timing when the input image is an image frame B, the frame memory 201 stores an image frame A as a reference image.

入力画像が画像フレームCのタイミングでは、フレームメモリ201には参照画像として画像フレームAが格納されたままとなる。画像フレームBは、不適格画像であるため、フレームメモリ201に格納されないためである。
入力画像が画像フレームDのタイミングでも、フレームメモリ201には参照画像として画像フレームAが格納されたままとなる。画像フレームCも、不適格画像であるため、フレームメモリ201に格納されないためである。
At the timing when the input image is the image frame C, the frame memory 201 still stores the image frame A as a reference image. This is because the image frame B is an unqualified image and is not stored in the frame memory 201.
Even when the input image is at the timing of the image frame D, the frame memory 201 still stores the image frame A as a reference image. This is because the image frame C is also an unqualified image and is not stored in the frame memory 201.

入力画像が画像フレームEのタイミングでは、フレームメモリ201には参照画像として画像フレームDが格納された状態となる。画像フレームDは、動き推定に好適な画像であるため、フレームメモリ201の格納画像が更新されるためである。   At the timing when the input image is an image frame E, the frame memory 201 is in a state where an image frame D is stored as a reference image. This is because the image frame D is an image suitable for motion estimation, and the stored image in the frame memory 201 is updated.

動き推定部203は、入力画像211と、フレームメモリ201に格納された参照画像を入力して、これらの画像間の動き量を推定する。
ただし、この実施例では、フレームメモリ201に格納される参照画像は、入力画像211の1フレーム前の画像であるとは限らない。1フレーム前てある場合、2フレーム前である場合、3フレーム前である場合など、様々な設定となる。
The motion estimation unit 203 receives the input image 211 and the reference image stored in the frame memory 201, and estimates the motion amount between these images.
However, in this embodiment, the reference image stored in the frame memory 201 is not necessarily an image one frame before the input image 211. There are various settings such as one frame before, two frames before, and three frames before.

動き推定部203では、図6(4)に示すように、図6(2)に示すフレームメモリ201に格納された参照画像を、図6(1)に示す入力画像の画像位置に併せるための動き量を推定する。
例えば図6(4)に示すように、入力画像が画像Bである場合、フレームメモリ201に格納された参照画像である画像Aを入力画像Bの画像位置に合わせるための動き量を算出する。
また、入力画像が画像Cである場合、フレームメモリ201に格納された参照画像である画像Aを入力画像Cの画像位置に合わせるための動き量を算出する。
以下、同様である。
As shown in FIG. 6 (4), the motion estimation unit 203 uses the reference image stored in the frame memory 201 shown in FIG. 6 (2) to match the image position of the input image shown in FIG. 6 (1). Estimate the amount of motion.
For example, as shown in FIG. 6 (4), when the input image is an image B, a motion amount for adjusting the image A, which is a reference image stored in the frame memory 201, to the image position of the input image B is calculated.
When the input image is the image C, a motion amount for adjusting the image A, which is a reference image stored in the frame memory 201, to the image position of the input image C is calculated.
The same applies hereinafter.

動き補償画像生成部205は、動き推定部203から入力する動き量212を適用して、例えばフレームメモリ201に格納された参照画像の画像位置を入力画像の画像位置に併せた動き補償画像214を生成する。
例えば図6(5)に示すように、入力画像が画像Bである場合、フレームメモリ201に格納された参照画像である画像Aを入力画像Bの画像位置に合わせた動き補償画像を生成する。
また、入力画像が画像Cである場合、フレームメモリ201に格納された参照画像である画像Aを入力画像Cの画像位置に合わせた動き補償画像を生成する。
以下、同様である。
図5に示すように、動き補償画像生成部205の生成した動き補償画像214は、入力画像211とともに、信号処理部206に出力される。
The motion compensated image generation unit 205 applies the motion amount 212 input from the motion estimation unit 203 to generate a motion compensated image 214 that combines the image position of the reference image stored in the frame memory 201 with the image position of the input image, for example. Generate.
For example, as shown in FIG. 6 (5), when the input image is an image B, a motion compensated image is generated by matching the image A, which is a reference image stored in the frame memory 201, with the image position of the input image B.
When the input image is the image C, a motion compensated image is generated by matching the image A, which is a reference image stored in the frame memory 201, with the image position of the input image C.
The same applies hereinafter.
As shown in FIG. 5, the motion compensation image 214 generated by the motion compensation image generation unit 205 is output to the signal processing unit 206 together with the input image 211.

次に、図5に示す画像処理装置の実行する処理の処理シーケンスについて、図7に示すフローチャートを参照して説明する。
図7に示すフローに従った処理は、例えば、図5に示す構成を持つ画像処理装置において、図5には示していないが画像処理装置の制御部の制御下で行われる。制御部は画像処理装置のメモリに格納されたプログラムを実行して図7のフローに従った処理の制御を行う。
図7に示すフローは、画像処理装置が入力する連続撮影画像中の1つの入力画像に対応して実行される処理であり、各入力画像に対して図7に示すフローに従った処理が繰り返し実行される。
Next, a processing sequence of processing executed by the image processing apparatus shown in FIG. 5 will be described with reference to a flowchart shown in FIG.
For example, in the image processing apparatus having the configuration shown in FIG. 5, the processing according to the flow shown in FIG. 7 is performed under the control of the control unit of the image processing apparatus, although not shown in FIG. The control unit executes a program stored in the memory of the image processing apparatus to control processing according to the flow of FIG.
The flow shown in FIG. 7 is a process executed corresponding to one input image in the continuously shot images input by the image processing apparatus, and the process according to the flow shown in FIG. 7 is repeated for each input image. Executed.

まず、ステップS101において画像を入力する。ここでは第k画像フレームを入力するものとする。
次に、ステップS102以下の処理と、ステップS111以下の処理が並行に実行される。
First, in step S101, an image is input. Here, the kth image frame is input.
Next, the process after step S102 and the process after step S111 are executed in parallel.

まず、ステップS102以下の処理について説明する。
ステップS102において、動き推定処理を実行する。この処理は、図5に示す動き推定部203の実行する処理であり、フレームメモリ201に格納された参照画像と入力画像間の動き量を推定する処理である。
First, the processing after step S102 will be described.
In step S102, a motion estimation process is executed. This process is a process executed by the motion estimation unit 203 shown in FIG. 5 and is a process for estimating the amount of motion between the reference image stored in the frame memory 201 and the input image.

次に、ステップS103において、ステップS102で算出されたフレームメモリ201に格納された参照画像と入力画像間の動き量を適用して、参照画像の画像位置を入力画像の画像位置に合わせた動き補償画像を生成する。この処理は、図5に示す動き補償画像生成部205の実行する処理である。   Next, in step S103, motion compensation between the reference image and the input image is performed by applying the amount of motion between the reference image and the input image stored in the frame memory 201 calculated in step S102. Generate an image. This process is a process executed by the motion compensated image generation unit 205 shown in FIG.

次に、ステップS104において、入力画像と動き補償画像を適用した信号処理を実行する。この処理は、図5に示す信号処理部206の実行する処理である。信号処理としては、例えばノイズ低減処理、超解像処理、高ダイナミックレンジ画像生成処理などの処理である。
ステップS105において、ステップS104の信号処理結果として生成した画像を出力する。
Next, in step S104, signal processing using the input image and the motion compensated image is executed. This process is a process executed by the signal processing unit 206 shown in FIG. Examples of signal processing include noise reduction processing, super-resolution processing, and high dynamic range image generation processing.
In step S105, the image generated as the signal processing result in step S104 is output.

次に、ステップS111以下の処理について説明する。
ステップS111では、入力画像が動き推定に好適な画像であるか否かを判定する。この処理は、図5に示す動き推定好適度判定部202の実行する処理である。
Next, the process after step S111 is demonstrated.
In step S111, it is determined whether or not the input image is an image suitable for motion estimation. This process is a process executed by the motion estimation appropriateness determination unit 202 shown in FIG.

ステップS112において、入力画像が動き推定に好適な画像であると判定すると、ステップS113に進む。ステップS113では、図5に示すフレームメモリ格納画像更新制御スイッチ207を制御して、フレームメモリ201に格納された参照画像を入力画像に置き換える参照画像更新処理を実行する。   If it is determined in step S112 that the input image is an image suitable for motion estimation, the process proceeds to step S113. In step S113, the frame memory stored image update control switch 207 shown in FIG. 5 is controlled to execute a reference image update process for replacing the reference image stored in the frame memory 201 with the input image.

一方、ステップS112において、入力画像が動き推定に好適な画像でない不適格画像であると判定すると、ステップS114に進む。ステップS114では、図5に示すフレームメモリ格納画像更新制御スイッチ207を制御して、フレームメモリ201に格納された参照画像をそのまま維持する制御を行う。すなわち、入力画像に置き換えることなく、フレームメモリに格納された参照画像を次の入力画像に対する動き推定にも適用する設定とする。   On the other hand, if it is determined in step S112 that the input image is an ineligible image that is not suitable for motion estimation, the process proceeds to step S114. In step S114, the frame memory stored image update control switch 207 shown in FIG. 5 is controlled to maintain the reference image stored in the frame memory 201 as it is. In other words, the reference image stored in the frame memory is applied to the motion estimation for the next input image without being replaced with the input image.

この処理によって、動き推定に適用する参照画像は、常に動き推定に適した画像となり、精度の高い動き推定が常に実行されることになる。この結果、高精度な動き推定結果に基づく高精度な動き補償画像が生成され、さらに、この高精度な動き補償画像を適用した高精度な信号処理を実行することが可能となる。   With this processing, the reference image applied to motion estimation is always an image suitable for motion estimation, and highly accurate motion estimation is always executed. As a result, a highly accurate motion compensated image based on the highly accurate motion estimation result is generated, and it is possible to execute highly accurate signal processing using the highly accurate motion compensated image.

[1−3.動き推定の適否判定に基づく処理を行なう画像処理装置(実施例2)]
次に、図8以下を参照して、本開示の第2実施例の画像処理装置について説明する。
第2実施例も、第1実施例と同様、動き推定の適否判定に基づく処理を行なう画像処理装置の実施例である。
図8は、実施例2に従った画像処理を実行する画像処理装置の主要部構成と処理を説明する図である。
[1-3. Image processing apparatus that performs processing based on determination of appropriateness of motion estimation (second embodiment)]
Next, an image processing apparatus according to the second embodiment of the present disclosure will be described with reference to FIG.
Similarly to the first embodiment, the second embodiment is an embodiment of an image processing apparatus that performs processing based on determination of suitability for motion estimation.
FIG. 8 is a diagram for explaining the main configuration and processing of an image processing apparatus that executes image processing according to the second embodiment.

図8に示す画像処理装置は、フレームメモリ201、動き推定好適度判定部202、動き推定部203、動き量補正部204、動き補償画像生成部205、信号処理部206、フレームメモリ格納画像更新制御スイッチ207を有する。
図8に示す構成は、例えば動画や静止画を撮影する撮像装置、あるいは画像処理を実行可能なPC等の装置の一部構成に相当する。
図8には示していないが、画像処理装置は例えばプログラム実行機能を有するCPU等からなる制御部、制御部において実行するプログラムを格納したメモリ等を有する。図8の構成を適用した処理は、例えば、制御部において実行するプログラムに従った処理として実行される。
The image processing apparatus shown in FIG. 8 includes a frame memory 201, a motion estimation appropriateness determination unit 202, a motion estimation unit 203, a motion amount correction unit 204, a motion compensation image generation unit 205, a signal processing unit 206, and a frame memory stored image update control. A switch 207 is included.
The configuration illustrated in FIG. 8 corresponds to a partial configuration of an imaging device that captures a moving image or a still image, or a device such as a PC that can perform image processing.
Although not shown in FIG. 8, the image processing apparatus includes, for example, a control unit including a CPU having a program execution function, a memory storing a program executed in the control unit, and the like. The process to which the configuration of FIG. 8 is applied is executed as a process according to a program executed in the control unit, for example.

図8に示す画像処理装置は、先に図5を参照して説明した構成に、動き量補正部204を追加した点が異なる。
その他の構成は、基本的に先に図5以下を参照して説明した構成部の処理と同様の処理を実行する。
The image processing apparatus shown in FIG. 8 is different in that a motion amount correction unit 204 is added to the configuration described above with reference to FIG.
In other configurations, basically, the same processing as the processing of the components described above with reference to FIG.

図8に示す画像処理装置も図5を参照して説明した画像処理装置と同様、連続撮影画像に対する処理を実行する。例えばノイズ低減処理、超解像処理、高ダイナミックレンジ画像生成処理等の信号処理である。
これらの信号処理は、図8に示す信号処理部206において実行する。
信号処理部206の出力画像である処理画像215が、ノイズ低減処理、超解像処理、高ダイナミックレンジ化、これらの少なくともいずれかの処理がなされた画像である。
Similar to the image processing apparatus described with reference to FIG. 5, the image processing apparatus illustrated in FIG. For example, signal processing such as noise reduction processing, super-resolution processing, and high dynamic range image generation processing.
These signal processes are executed in the signal processing unit 206 shown in FIG.
A processed image 215 that is an output image of the signal processing unit 206 is an image that has been subjected to noise reduction processing, super-resolution processing, high dynamic range, or at least one of these processing.

図8に示す入力画像211として、連続撮影された画像が順次入力される。
入力画像211は、動き推定好適度判定部202に入力される。
動き推定好適度判定部202は、入力画像211の解析を実行して、入力画像211が、正確な動き推定処理を実行可能な画像であるか否かを判定する。
As the input image 211 shown in FIG. 8, continuously shot images are sequentially input.
The input image 211 is input to the motion estimation appropriateness determination unit 202.
The motion estimation appropriateness determination unit 202 performs analysis of the input image 211 to determine whether or not the input image 211 is an image that can execute an accurate motion estimation process.

この動き推定好適度判定処理は、例えば画像に含まれるぼけ領域の比率等に基づいて実行される。例えば被写体にピントが合わずぼけた領域が多い画像などは前後の撮影画像間での対応領域探索が困難みとなり、正しい動き推定が実行されない。
なお、画像に対する動き推定好適度の判定処理の処理態様としては様々な処理態様があり、この具体例については、後段で説明する。
This motion estimation appropriateness determination process is executed based on, for example, the ratio of the blur region included in the image. For example, it is difficult to search for a corresponding area between the preceding and following captured images for an image with many areas that are out of focus and blurred, and correct motion estimation is not performed.
Note that there are various processing modes for the determination process of the motion estimation appropriateness for the image, and a specific example will be described later.

動き推定好適度判定部202は、入力画像211が正確な動き推定処理を実行可能な画像であると判定した場合、フレームメモリ201に格納されている参照画像を更新する制御情報として、更新フラグ[0]を設定した参照画像更新情報218を出力する。
一方、入力画像211が正確な動き推定処理を実行可能な画像でないと判定した場合、フレームメモリ201に格納されている参照画像を更新しない制御情報として、更新フラグ[1]を設定した参照画像更新情報218を出力する。
When it is determined that the input image 211 is an image that can be subjected to accurate motion estimation processing, the motion estimation appropriateness determination unit 202 uses an update flag [] as control information for updating the reference image stored in the frame memory 201. 0] is output as reference image update information 218.
On the other hand, when it is determined that the input image 211 is not an image capable of executing accurate motion estimation processing, the reference image update in which the update flag [1] is set as control information that does not update the reference image stored in the frame memory 201 Information 218 is output.

フレームメモリ格納画像更新制御スイッチ207は、更新フラグの値[0],[1]の値に応じて切り替えられる。
入力画像211が正確な動き推定処理を実行可能な画像であり、更新フラグの値が[0]である場合、入力画像211をフレームメモリ201に格納する設定とする。
一方、入力画像211が正確な動き推定処理を実行可能な画像でなく、更新フラグの値が[1]である場合、入力画像211をフレームメモリ201に格納しない設定とし、フレームメモリ201に格納された参照画像をそのまま維持する設定とする。
The frame memory stored image update control switch 207 is switched according to the update flag values [0] and [1].
When the input image 211 is an image that can execute accurate motion estimation processing and the value of the update flag is [0], the input image 211 is set to be stored in the frame memory 201.
On the other hand, if the input image 211 is not an image capable of performing accurate motion estimation processing and the value of the update flag is [1], the input image 211 is set not to be stored in the frame memory 201 and stored in the frame memory 201. The reference image is maintained as it is.

フレームメモリ201に格納された参照画像は、動き推定部203において、入力画像211と比較され、2つの画像の位置ずれに基づく画像間の動き量212を算出する動き推定処理に適用する画像である。
例えば連続撮影画像として、画像フレームF1,F2,F3,F4・・・が、順次、入力画像211として入力されるとする。
これらの入力画像フレームF1,F2,F3,F4がすべて、動き推定処理に適した画像である場合、フレームメモリ201の格納画像である参照画像は、画像フレームF1,F2,F3,F4と順次更新される。
The reference image stored in the frame memory 201 is an image to be applied to the motion estimation process in which the motion estimation unit 203 compares the input image 211 with the input image 211 and calculates the motion amount 212 between the images based on the positional deviation between the two images. .
For example, it is assumed that image frames F1, F2, F3, F4,...
When all of these input image frames F1, F2, F3, and F4 are images suitable for motion estimation processing, the reference image that is a stored image in the frame memory 201 is sequentially updated with the image frames F1, F2, F3, and F4. Is done.

しかし、例えば、画像フレームF3が、不適格画像である場合、フレームメモリ201の格納画像である参照画像は、画像フレームF1,F2,F2,F4という順番で更新される。すなわち、不適挌画像である画像フレームF3は、フレームメモリ102に格納されることはない。   However, for example, when the image frame F3 is an ineligible image, the reference image that is a stored image in the frame memory 201 is updated in the order of the image frames F1, F2, F2, and F4. That is, the image frame F <b> 3 that is an inappropriate image is not stored in the frame memory 102.

動き推定部203は、入力画像211と、フレームメモリ201に格納された参照画像とを比較し、2つの画像の位置ずれに基づく画像間の動き量212を算出する。
動き量212は、動き量補正部204に出力される。動き量212には、動きベクトル情報と、動きベクトルを算出した2つの画像フレームのフレーム情報が含まれる。
The motion estimation unit 203 compares the input image 211 and the reference image stored in the frame memory 201, and calculates a motion amount 212 between the images based on the positional deviation between the two images.
The motion amount 212 is output to the motion amount correction unit 204. The motion amount 212 includes motion vector information and frame information of two image frames for which motion vectors are calculated.

ただし、本実施例では、動き推定部203は、動き推定好適度判定部202から、入力画像が動き推定に好適な画像であるか不適格な画像であるかの情報、すなわち参照画像更新情報218を入力する構成を持つ。動き推定部203は、入力画像が動き推定に好適な画像である場合にのみ動き推定処理を実行する。入力画像が動き推定に好適な画像でなく不適格画像である場合には、動き推定処理を実行しない。   However, in the present embodiment, the motion estimation unit 203 receives information from the motion estimation suitability determination unit 202 as to whether the input image is an image suitable for motion estimation or an inappropriate image, that is, reference image update information 218. It has a configuration to input. The motion estimation unit 203 performs the motion estimation process only when the input image is an image suitable for motion estimation. When the input image is not an image suitable for motion estimation but an unqualified image, the motion estimation process is not executed.

動き量補正部204は、動き推定部203から動き量212を入力し、さらに、動き推定好適度判定部202から、参照画像更新情報218を入力する。
動き量補正部204は、参照画像更新情報218に基づいて、入力画像が動き推定に好適な画像であるか、不適格な画像であるかを判別し、入力画像が動き推定に好適な画像である場合は、動き推定部203から入力した動き量212、具体的には、例えば入力画像と参照画像間の動きを示す動きベクトルを動き補償画像生成部205に出力する。
The motion amount correction unit 204 receives the motion amount 212 from the motion estimation unit 203 and further receives reference image update information 218 from the motion estimation appropriateness determination unit 202.
Based on the reference image update information 218, the motion amount correction unit 204 determines whether the input image is an image suitable for motion estimation or an inappropriate image, and the input image is an image suitable for motion estimation. In some cases, the motion amount 212 input from the motion estimation unit 203, specifically, for example, a motion vector indicating the motion between the input image and the reference image is output to the motion compensated image generation unit 205.

一方、入力画像が動き推定に好適な画像でなく不適格画像である場合は、動き推定部203から動き量212が入力されないので、予め設定した例外動き量を動き補償画像生成部205に出力する。
例外動き量としては、例えば動きベクトルとして、動きのないベクトル情報、すなわちゼロベクトルを適用する。
または、例外動き量として、前フレームにおいて算出した動きベクトルをそのまま適用して出力してもよい。あるいは、次のフレームにおいて算出した動きベクトルを出力する設定としてもよい。あるいは前後のフレームにおいて設定される動きベクトルに基づいて推定されるベクトルを算出して、算出したベクトルを出力する構成としてもよい。
いずれにしても、動きベクトルの算出に適用する画像は不適格画像を含まない動き推定に好適な画像を利用して算出したベクトルとする。
On the other hand, if the input image is not an image suitable for motion estimation but an unqualified image, the motion amount 212 is not input from the motion estimation unit 203, so that a preset exceptional motion amount is output to the motion compensated image generation unit 205. .
As the exceptional motion amount, for example, motion vector information without motion, that is, zero vector is applied.
Alternatively, the motion vector calculated in the previous frame may be directly applied and output as the exceptional motion amount. Or it is good also as a setting which outputs the motion vector calculated in the following flame | frame. Or it is good also as a structure which calculates the vector estimated based on the motion vector set in the frame before and behind, and outputs the calculated vector.
In any case, an image applied to motion vector calculation is a vector calculated using an image suitable for motion estimation that does not include an ineligible image.

動き量補正部204は、参照画像更新情報218に基づく判別情報、すなわち、入力画像が動き推定に好適な画像であるか、不適格な画像であるかの判別情報に応じて、判別結果に応じた動き量情報を動き補償画像生成部205に出力する。
すなわち、入力画像が動き推定に好適な画像である場合は、動き推定部203から入力した動き量212を動き補償画像生成部205に出力し、入力画像が動き推定に好適な画像でなく不適格画像である場合は、例外動き量を動き補償画像生成部205に出力する。
The motion amount correction unit 204 responds to the determination result based on the determination information based on the reference image update information 218, that is, the determination information on whether the input image is an image suitable for motion estimation or an inappropriate image. The obtained motion amount information is output to the motion compensated image generation unit 205.
That is, when the input image is an image suitable for motion estimation, the motion amount 212 input from the motion estimation unit 203 is output to the motion compensation image generation unit 205, and the input image is not an image suitable for motion estimation but is ineligible. If it is an image, the exceptional motion amount is output to the motion compensated image generation unit 205.

動き補償画像生成部205は、動き量補正部204から入力する動き量または例外動き量213を適用して、例えばフレームメモリ201に格納された参照画像の画像位置を入力画像の画像位置に併せた動き補償画像214を生成する。生成した動き補償画像214は、入力画像211とともに、信号処理部206に出力される。   The motion compensated image generation unit 205 applies the motion amount or the exceptional motion amount 213 input from the motion amount correction unit 204 to match the image position of the reference image stored in the frame memory 201 with the image position of the input image, for example. A motion compensated image 214 is generated. The generated motion compensated image 214 is output to the signal processing unit 206 together with the input image 211.

信号処理部206は、入力画像211と、入力画像211の画像位置に位置合わせを行った参照画像、すなわち動き補償画像214を適用した信号処理を実行する。
例えば、図4を参照して説明したノイズ低減処理(NR)、あるいは超解像処理(SR)、あるいは高ダイナミックレンジ(HDR)画像生成処理などを実行する。
信号処理部206は、信号処理によって生成した処理画像215を出力する。
なお、処理画像215は、さらに、動き補償画像生成部205にフィードバック入力して、処理画像に基づく動き補償画像を生成し、生成画像を適用して信号処理部205において、さらに画像のノイズ低減を繰り返し実行する構成としてもよい。
The signal processing unit 206 executes signal processing using the input image 211 and a reference image that is aligned with the image position of the input image 211, that is, the motion compensation image 214.
For example, the noise reduction processing (NR), super-resolution processing (SR), or high dynamic range (HDR) image generation processing described with reference to FIG. 4 is executed.
The signal processing unit 206 outputs a processed image 215 generated by signal processing.
The processed image 215 is further fed back to the motion compensated image generation unit 205 to generate a motion compensated image based on the processed image, and the signal processing unit 205 further reduces image noise by applying the generated image. It is good also as a structure to perform repeatedly.

図8に示す画像処理装置の実行する処理の処理シーケンスについて、図9に示すフローチャートを参照して説明する。
図9に示すフローに従った処理は、例えば、図8に示す構成を持つ画像処理装置において、画像処理装置の制御部の制御下で行われる。制御部は画像処理装置のメモリに格納されたプログラムを実行して図9のフローに従った処理の制御を行う。
図9に示すフローは、画像処理装置が入力する連続撮影画像中の1つの入力画像に対応して実行される処理であり、各入力画像に対して図9に示すフローに従った処理が繰り返し実行される。
A processing sequence of processing executed by the image processing apparatus shown in FIG. 8 will be described with reference to a flowchart shown in FIG.
9 is performed under the control of the control unit of the image processing apparatus in the image processing apparatus having the configuration shown in FIG. 8, for example. The control unit executes a program stored in the memory of the image processing apparatus to control processing according to the flow of FIG.
The flow shown in FIG. 9 is a process executed corresponding to one input image in the continuously shot images input by the image processing apparatus, and the process according to the flow shown in FIG. 9 is repeated for each input image. Executed.

まず、ステップS121において画像を入力する。ここでは第k画像フレームを入力するものとする。
次に、ステップS122において、入力画像が動き推定に好適な画像であるか、好適でない不適格画像であるかの判別を行う。
この処理は、図8に示す動き推定好適度判定部202の実行する処理である。
First, in step S121, an image is input. Here, the kth image frame is input.
Next, in step S122, it is determined whether the input image is an image suitable for motion estimation or an unsuitable image.
This process is a process executed by the motion estimation appropriateness determination unit 202 shown in FIG.

ステップS123において、入力画像が動き推定に好適な画像であると判定すると、ステップS124以下の処理と、ステップS131の処理を実行する。
一方、ステップS123において、入力画像が動き推定に好適な画像でない不適格画像であると判定すると、ステップS125の処理と、ステップS132の処理を実行する。
If it is determined in step S123 that the input image is an image suitable for motion estimation, the processing after step S124 and the processing in step S131 are executed.
On the other hand, if it is determined in step S123 that the input image is an ineligible image that is not suitable for motion estimation, the processing in step S125 and the processing in step S132 are executed.

まず、ステップS131の処理と、ステップS132の処理について説明する。
ステップS123において、入力画像が動き推定に好適な画像であると判定した場合、ステップS131において、図8に示すフレームメモリ格納画像更新制御スイッチ207を制御して、フレームメモリ201に格納された参照画像を入力画像に置き換える参照画像更新処理を実行する。
First, the process of step S131 and the process of step S132 will be described.
When it is determined in step S123 that the input image is an image suitable for motion estimation, the reference image stored in the frame memory 201 is controlled by controlling the frame memory stored image update control switch 207 shown in FIG. A reference image update process for replacing with an input image is executed.

一方、ステップS123において、入力画像が動き推定に好適な画像でない不適格画像であると判定すると、ステップS132において、図8に示すフレームメモリ格納画像更新制御スイッチ207を制御して、フレームメモリ201に格納された参照画像をそのまま維持する制御を行う。すなわち、入力画像に置き換えることなく、フレームメモリに格納された参照画像を次の入力画像に対する動き推定にも適用する設定とする。   On the other hand, if it is determined in step S123 that the input image is an ineligible image that is not suitable for motion estimation, the frame memory stored image update control switch 207 shown in FIG. Control is performed to maintain the stored reference image as it is. In other words, the reference image stored in the frame memory is applied to the motion estimation for the next input image without being replaced with the input image.

この処理によって、動き推定に適用する参照画像は、常に動き推定に適した画像となり、精度の高い動き推定が常に実行されることになる。この結果、高精度な動き推定結果に基づく高精度な動き補償画像が生成され、さらに、この高精度な動き補償画像を適用した高精度な信号処理を実行することが可能となる。   With this processing, the reference image applied to motion estimation is always an image suitable for motion estimation, and highly accurate motion estimation is always executed. As a result, a highly accurate motion compensated image based on the highly accurate motion estimation result is generated, and it is possible to execute highly accurate signal processing using the highly accurate motion compensated image.

次に、ステップS124〜S126の処理について説明する。
ステップS123において、入力画像が動き推定に好適な画像であると判定した場合、ステップS124において、動き推定処理を実行する。この処理は、図8に示す動き推定部203の実行する処理であり、フレームメモリ201に格納された参照画像と入力画像間の動き量を推定する処理である。
Next, processing in steps S124 to S126 will be described.
If it is determined in step S123 that the input image is an image suitable for motion estimation, motion estimation processing is executed in step S124. This process is a process executed by the motion estimation unit 203 shown in FIG. 8, and is a process for estimating the amount of motion between the reference image stored in the frame memory 201 and the input image.

一方、入力画像が動き推定に好適な画像でなく不適格画像であると判定した場合、ステップS125において、予め設定したアルゴリズムに従って例外動き量を算出する。具体的には例えばゼロベクトル、あるいは前後の画像フレームにおいて算出した動きベクトルに基づいて算出する入力画像対応の動きベクトルを例外動き量とする。   On the other hand, when it is determined that the input image is not an image suitable for motion estimation but an unqualified image, in step S125, an exceptional motion amount is calculated according to a preset algorithm. Specifically, for example, a motion vector corresponding to an input image calculated based on a zero vector or a motion vector calculated in the preceding and subsequent image frames is set as the exceptional motion amount.

ステップS126は、図8に示す動き量補正部204の処理である。動き推定好適度判定部202の判定結果情報に応じて以下の処理を実行する。
入力画像が動き推定好適度ありの場合は、ステップS124において算出した動き量を動き補償画像生成部205に出力する。
一方、入力画像が動き推定好適度なしの場合は、ステップS125において算出した例外動き量を動き補償画像生成部205に出力する。
Step S126 is processing of the motion amount correction unit 204 shown in FIG. The following processing is executed according to the determination result information of the motion estimation appropriateness determination unit 202.
If the input image has a motion estimation suitable degree, the motion amount calculated in step S124 is output to the motion compensated image generation unit 205.
On the other hand, if the input image does not have the motion estimation suitability, the exceptional motion amount calculated in step S125 is output to the motion compensated image generation unit 205.

次に、ステップS127において、動き量または例外動き量を適用して、動き補償画像を生成する。この処理は、図8に示す動き補償画像生成部205の実行する処理である。この動き補償画像生成処理は、入力画像が動き推定好適度ありの場合は、ステップS124において算出した動き量を適用して実行する。
一方、入力画像が動き推定好適度なしの場合は、ステップS125において算出した例外動き量を適用して実行する。
Next, in step S127, a motion compensation image is generated by applying a motion amount or an exceptional motion amount. This process is a process executed by the motion compensated image generation unit 205 shown in FIG. This motion compensated image generation processing is executed by applying the amount of motion calculated in step S124 when the input image has a motion estimation suitable degree.
On the other hand, when the input image does not have the motion estimation suitability, the exceptional motion amount calculated in step S125 is applied and executed.

次に、ステップS128において、入力画像と動き補償画像を適用した信号処理を実行する。この処理は、図8に示す信号処理部206の実行する処理である。信号処理としては、例えばノイズ低減処理、超解像処理、高ダイナミックレンジ画像生成処理などの処理である。
ステップS129において、ステップS128の信号処理結果として生成した画像を出力する。
Next, in step S128, signal processing using the input image and the motion compensation image is executed. This process is a process executed by the signal processing unit 206 shown in FIG. Examples of signal processing include noise reduction processing, super-resolution processing, and high dynamic range image generation processing.
In step S129, the image generated as the signal processing result in step S128 is output.

[1−4.動き推定の適否判定に基づく処理を行なう画像処理装置(実施例3)]
次に、図10以下を参照して、本開示の第3実施例について説明する。
第3実施例も、上述した第1、第2実施例と同様、動き推定の適否判定に基づく処理を行なう画像処理装置の実施例である。
図10は、実施例3に従った画像処理を実行する画像処理装置の主要部構成と処理を説明する図である。
[1-4. Image processing apparatus that performs processing based on determination of propriety of motion estimation (third embodiment)]
Next, a third embodiment of the present disclosure will be described with reference to FIG.
The third embodiment is also an embodiment of an image processing apparatus that performs processing based on determination of propriety of motion estimation as in the first and second embodiments described above.
FIG. 10 is a diagram for explaining the main configuration and processing of an image processing apparatus that executes image processing according to the third embodiment.

図10に示す画像処理装置は、フレームメモリ201、動き推定好適度判定部202、動き推定部203、動き補償画像生成部205、信号処理部206、フレームメモリ格納画像更新制御スイッチ207を有する。
図10に示す構成は、例えば動画や静止画を撮影する撮像装置、あるいは画像処理を実行可能なPC等の装置の一部構成に相当する。
図10には示していないが、画像処理装置は例えばプログラム実行機能を有するCPU等からなる制御部、制御部において実行するプログラムを格納したメモリ等を有する。図10の構成を適用した処理は、例えば、制御部において実行するプログラムに従った処理として実行される。
The image processing apparatus illustrated in FIG. 10 includes a frame memory 201, a motion estimation appropriateness determination unit 202, a motion estimation unit 203, a motion compensation image generation unit 205, a signal processing unit 206, and a frame memory stored image update control switch 207.
The configuration illustrated in FIG. 10 corresponds to, for example, a partial configuration of an imaging device that captures a moving image or a still image, or a device such as a PC that can perform image processing.
Although not shown in FIG. 10, the image processing apparatus includes, for example, a control unit including a CPU having a program execution function, a memory storing a program executed in the control unit, and the like. The process to which the configuration of FIG. 10 is applied is executed as a process according to a program executed in the control unit, for example.

図10に示す画像処理装置は、先に図5を参照して説明した実施例1の構成と同様の構成を有する。
図5に示す第1実施例との相違点は、動き推定好適度判定部202の判定結果、すなわち入力画像211が、動き推定に好適な画像であるか不適格画像であるかを示す参照画像更新情報218を、動き推定部203と信号処理部206に入力している点である。
The image processing apparatus shown in FIG. 10 has the same configuration as that of the first embodiment described above with reference to FIG.
The difference from the first embodiment shown in FIG. 5 is that the determination result of the motion estimation appropriateness determination unit 202, that is, the reference image indicating whether the input image 211 is an image suitable for motion estimation or an unqualified image. The update information 218 is input to the motion estimation unit 203 and the signal processing unit 206.

動き推定部203は、動き推定好適度判定部202の判定結果である参照画像更新情報218に応じて動き推定処理の実行または中止処理を行なう。
具体的には、動き推定部203は以下の処理を実行する。
動き推定好適度判定部202の判定結果である参照画像更新情報218が更新[0]、すなわち、入力画像211が動き推定に好適な画像であるとの判定結果を入力した場合は、動き推定処理を実行して動き量212を動き補償画像生成部205に出力する。
一方、動き推定好適度判定部202の判定結果である参照画像更新情報218が維持[1]、すなわち、入力画像211が動き推定に好適な画像でなく不適格画像であるとの判定結果を入力した場合は、動き推定処理を中止する。この場合、動き量212は動き補償画像生成部205に出力されない。
The motion estimation unit 203 executes or cancels the motion estimation process according to the reference image update information 218 that is the determination result of the motion estimation appropriateness determination unit 202.
Specifically, the motion estimation unit 203 performs the following processing.
When the reference image update information 218 that is the determination result of the motion estimation appropriateness determination unit 202 is updated [0], that is, when the determination result that the input image 211 is an image suitable for motion estimation is input, the motion estimation process And the motion amount 212 is output to the motion compensated image generation unit 205.
On the other hand, the reference image update information 218 that is the determination result of the motion estimation appropriateness determination unit 202 is maintained [1], that is, the determination result that the input image 211 is not an image suitable for motion estimation but an inappropriate image is input. If so, the motion estimation process is stopped. In this case, the motion amount 212 is not output to the motion compensated image generation unit 205.

動き補償画像生成部205は、動き推定部203から動き量212を入力した場合にのみ動き補償画像214を生成して信号処理部206に出力する。
すなわち、入力画像211が動き推定に好適な画像である場合にのみ動き補償画像214を生成して信号処理部206に出力し、入力画像211が不適格画像である場合には、動き補償画像214を生成せず、信号処理部206には入力画像211のみを出力する。
The motion compensation image generation unit 205 generates the motion compensation image 214 only when the motion amount 212 is input from the motion estimation unit 203 and outputs the motion compensation image 214 to the signal processing unit 206.
That is, only when the input image 211 is an image suitable for motion estimation, the motion compensated image 214 is generated and output to the signal processing unit 206. When the input image 211 is an ineligible image, the motion compensated image 214 is output. And only the input image 211 is output to the signal processing unit 206.

信号処理部206は、動き推定好適度判定部202の判定結果である参照画像更新情報218に応じて信号処理の実行または中止処理を行なう。
具体的には、信号処理部206は以下の処理を実行する。
動き推定好適度判定部202の判定結果である参照画像更新情報218が更新[0]、すなわち、入力画像211が動き推定に好適な画像であるとの判定結果を入力した場合は、信号処理を実行する。
一方、動き推定好適度判定部202の判定結果である参照画像更新情報218が維持[1]、すなわち、入力画像211が動き推定に好適な画像でなく不適格画像であるとの判定結果を入力した場合は、信号処理を中止する。この場合、入力画像211をそのまま処理画像215として出力する。
The signal processing unit 206 performs signal processing execution or cancellation processing according to the reference image update information 218 that is the determination result of the motion estimation appropriateness determination unit 202.
Specifically, the signal processing unit 206 executes the following processing.
When the reference image update information 218, which is the determination result of the motion estimation appropriateness determination unit 202, is updated [0], that is, when the determination result that the input image 211 is an image suitable for motion estimation is input, signal processing is performed. Run.
On the other hand, the reference image update information 218 that is the determination result of the motion estimation appropriateness determination unit 202 is maintained [1], that is, the determination result that the input image 211 is not an image suitable for motion estimation but an inappropriate image is input. If so, the signal processing is stopped. In this case, the input image 211 is output as the processed image 215 as it is.

なお、信号処理部206の実行する信号処理は、例えばノイズ低減処理、超解像処理、高ダイナミックレンジ画像生成処理等の信号処理である。
本実施例の構成では、入力画像211が動き推定に好適な画像である場合にのみ信号処理を実行し、入力画像211が動き推定に不適格な画像である場合には、信号処理を実行しない構成である。
その他の処理部の処理は、先に図5を参照して説明した実施例1と同様である。
The signal processing executed by the signal processing unit 206 is signal processing such as noise reduction processing, super-resolution processing, and high dynamic range image generation processing.
In the configuration of the present embodiment, signal processing is performed only when the input image 211 is an image suitable for motion estimation, and signal processing is not performed when the input image 211 is an image that is unsuitable for motion estimation. It is a configuration.
The processing of other processing units is the same as that of the first embodiment described above with reference to FIG.

本実施例3の処理シーケンスについて、図11に示すフローチャートを参照して説明する。
図11に示すフローに従った処理は、例えば、図10に示す構成を持つ画像処理装置において、図10には示していないが、画像処理装置の制御部の制御下で行われる。制御部は画像処理装置のメモリに格納されたプログラムを実行して図11のフローに従った処理の制御を行う。
図11に示すフローは、画像処理装置が入力する連続撮影画像中の1つの入力画像に対応して実行される処理であり、各入力画像に対して図11に示すフローに従った処理が繰り返し実行される。
The processing sequence of the third embodiment will be described with reference to the flowchart shown in FIG.
For example, in the image processing apparatus having the configuration shown in FIG. 10, the processing according to the flow shown in FIG. 11 is performed under the control of the control unit of the image processing apparatus, although not shown in FIG. 10. The control unit executes a program stored in the memory of the image processing apparatus to control processing according to the flow of FIG.
The flow shown in FIG. 11 is a process executed corresponding to one input image in the continuously shot images input by the image processing apparatus, and the process according to the flow shown in FIG. 11 is repeated for each input image. Executed.

まず、ステップS141において画像を入力する。ここでは第k画像フレームを入力したものとする。
次に、ステップS142において、入力画像が動き推定に好適な画像であるか、好適でない不適格画像であるかの判別を行う。
この処理は、図10に示す動き推定好適度判定部202の実行する処理である。
First, an image is input in step S141. Here, it is assumed that the k-th image frame is input.
Next, in step S142, it is determined whether the input image is an image suitable for motion estimation or an unsuitable image that is not suitable.
This process is a process executed by the motion estimation appropriateness determination unit 202 shown in FIG.

ステップS143において、入力画像が動き推定に好適な画像であると判定すると、ステップS144以下の処理と、ステップS151の処理を実行する。
一方、ステップS143において、入力画像が動き推定に好適な画像でない不適格画像であると判定すると、ステップS161の処理と、ステップS152の処理を実行する。
If it is determined in step S143 that the input image is an image suitable for motion estimation, the processing after step S144 and the processing in step S151 are executed.
On the other hand, if it is determined in step S143 that the input image is an ineligible image that is not suitable for motion estimation, the processing in step S161 and the processing in step S152 are executed.

まず、ステップS151の処理と、ステップS152の処理について説明する。
ステップS143において、入力画像が動き推定に好適な画像であると判定した場合、ステップS151において、図10に示すフレームメモリ格納画像更新制御スイッチ207を制御して、フレームメモリ201に格納された参照画像を入力画像に置き換える参照画像更新処理を実行する。
First, the process of step S151 and the process of step S152 will be described.
If it is determined in step S143 that the input image is suitable for motion estimation, the reference image stored in the frame memory 201 is controlled by controlling the frame memory stored image update control switch 207 shown in FIG. 10 in step S151. A reference image update process for replacing with an input image is executed.

一方、ステップS143において、入力画像が動き推定に好適な画像でない不適格画像であると判定すると、ステップS152において、図10に示すフレームメモリ格納画像更新制御スイッチ207を制御して、フレームメモリ201に格納された参照画像をそのまま維持する制御を行う。すなわち、入力画像に置き換えることなく、フレームメモリに格納された参照画像を次の入力画像に対する動き推定にも適用する設定とする。   On the other hand, if it is determined in step S143 that the input image is an ineligible image that is not suitable for motion estimation, the frame memory stored image update control switch 207 shown in FIG. Control is performed to maintain the stored reference image as it is. In other words, the reference image stored in the frame memory is applied to the motion estimation for the next input image without being replaced with the input image.

この処理によって、動き推定に適用する画像は、常に動き推定に適した画像となり、精度の高い動き推定が常に実行されることになる。この結果、高精度な動き推定結果に基づく高精度な動き補償画像が生成され、さらに、この高精度な動き補償画像を適用した高精度な信号処理を実行することが可能となる。   By this processing, an image applied to motion estimation is always an image suitable for motion estimation, and highly accurate motion estimation is always executed. As a result, a highly accurate motion compensated image based on the highly accurate motion estimation result is generated, and it is possible to execute highly accurate signal processing using the highly accurate motion compensated image.

次に、ステップS144〜S147の処理について説明する。
ステップS143において、入力画像が動き推定に好適な画像であると判定した場合、ステップS144において、動き推定処理を実行する。この処理は、図10に示す動き推定部203の実行する処理であり、フレームメモリ201に格納された参照画像と入力画像間の動き量を推定する処理である。
Next, the process of steps S144 to S147 will be described.
If it is determined in step S143 that the input image is an image suitable for motion estimation, motion estimation processing is executed in step S144. This process is a process executed by the motion estimation unit 203 shown in FIG. 10, and is a process for estimating the amount of motion between the reference image stored in the frame memory 201 and the input image.

ステップS145は、図10に示す動き補償画像生成部205の処理である。動き補償画像生成部205は、動き推定好適度判定部202の判定結果として、入力画像が動き推定好適度ありの判定結果を入力した場合に限り、ステップS145の処理を実行する。すなわち、ステップS144において推定された動き量を適用して、動き補償画像を生成する。   Step S145 is processing of the motion compensated image generation unit 205 shown in FIG. The motion compensated image generation unit 205 executes the process of step S145 only when the determination result of the motion estimation appropriateness determination unit 202 is input as the determination result that the input image has the motion estimation appropriateness. That is, a motion compensation image is generated by applying the motion amount estimated in step S144.

次に、ステップS146において、信号処理を実行する。この処理は、図8に示す信号処理部206の実行する処理である。信号処理部206は、動き推定好適度判定部202の判定結果として、入力画像が動き推定好適度ありの判定結果を入力した場合に限り、ステップS146の処理を実行する。すなわち、入力画像と動き補償画像を適用した信号処理を実行する。信号処理としては、例えばノイズ低減処理、超解像処理、高ダイナミックレンジ画像生成処理などの処理である。
ステップS147において、ステップS146の信号処理結果として生成した画像を出力する。
Next, in step S146, signal processing is executed. This process is a process executed by the signal processing unit 206 shown in FIG. The signal processing unit 206 executes the process of step S146 only when the input image has received a determination result indicating that there is a motion estimation appropriateness as the determination result of the motion estimation appropriateness determining unit 202. That is, signal processing using the input image and the motion compensated image is executed. Examples of signal processing include noise reduction processing, super-resolution processing, and high dynamic range image generation processing.
In step S147, the image generated as the signal processing result in step S146 is output.

一方、ステップS143において、入力画像が動き推定に好適な画像でなく不適格画像であると判定した場合、ステップS161において、入力画像をそのまま処理画像に設定し、ステップS147において、入力画像を処理画像として出力する。
すなわち、入力画像が動き推定に好適な画像でなく不適格画像であると判定した場合には、ステップS144〜S146の処理はすべて省略し、入力画像をそのまま処理画像として出力する。
On the other hand, when it is determined in step S143 that the input image is not an image suitable for motion estimation but an unqualified image, the input image is set as a processed image as it is in step S161, and the input image is processed as a processed image in step S147. Output as.
That is, if it is determined that the input image is not an image suitable for motion estimation but an unqualified image, all the processes in steps S144 to S146 are omitted, and the input image is output as a processed image as it is.

[1−5.動き推定好適度判定処理の詳細について]
次に、上述の各実施例において示した動き推定好適度判定部202の実行する処理、すなわち、入力画像211が動き推定処理に適した画像であるか不適格な画像であるかの判定処理の具体例について説明する。
[1-5. Details of motion estimation appropriateness determination processing]
Next, a process executed by the motion estimation suitability determination unit 202 shown in each of the above-described embodiments, that is, a process for determining whether the input image 211 is an image suitable for the motion estimation process or an unqualified image. A specific example will be described.

入力画像211が動き推定処理に適した画像であるか不適格な画像であるかの判定処理には、様々な指標が適用可能である。図12にこの判定処理に適用可能な指標の例を示す。図12に示すように、例えば以下の指標を利用して入力画像211が動き推定処理に適した画像であるか不適格な画像であるかの判定処理を行なうことができる。
(1)画像中のぼけ領域の面積
(2)画像撮影時のカメラの動き情報
(3)画像中の画素値飽和領域の面積
(4)画像中のノイズの大きい領域の面積
(5)画像の輝度範囲(最大輝度から最小輝度の範囲)
(6)最大露光画像と最小露光画像の有効画素領域の面積
Various indexes can be applied to the process of determining whether the input image 211 is an image suitable for the motion estimation process or an inappropriate image. FIG. 12 shows an example of an index applicable to this determination process. As shown in FIG. 12, for example, the following index can be used to determine whether the input image 211 is an image suitable for motion estimation processing or an inappropriate image.
(1) Area of blurred area in image (2) Camera motion information at the time of image capture (3) Area of pixel value saturated area in image (4) Area of noisy area in image (5) Image area Luminance range (range from maximum luminance to minimum luminance)
(6) Effective pixel area of maximum exposure image and minimum exposure image

例えば、動き推定好適度判定部202が、「(1)画像中のぼけ領域の面積」を適用して判定処理を行なう場合、入力画像の画像全体における「ぼけ領域」の面積占有率が既定しきい値未満であれば、入力画像は動き推定に適した画像と判定し、「ぼけ領域」の面積占有率が既定しきい値以上であれば、入力画像は動き推定に適さない不適格画像であると判定する。   For example, when the motion estimation appropriateness determination unit 202 performs the determination process by applying “(1) the area of the blurred region in the image”, the area occupation ratio of the “blurred region” in the entire image of the input image is predetermined. If it is less than the threshold, the input image is determined to be an image suitable for motion estimation, and if the area occupancy of the “blurred area” is greater than or equal to a predetermined threshold, the input image is an ineligible image that is not suitable for motion estimation. Judge that there is.

また、動き推定好適度判定部202が、「(2)画像撮影時のカメラの動き情報」を適用して判定処理を行なう場合、動き推定好適度判定部202は、カメラに装着されたジャイロ等のセンサから取得された画像撮影時のカメラの動きを画像の属性情報として画像とともに入力する。動き推定好適度判定部202は、この情報に基づいて判定を行う。入力画像撮影時の「カメラの動き」が既定しきい値未満であれば、入力画像は動き推定に適した画像と判定し、「カメラの動き」が既定しきい値以上であれば、入力画像は動き推定に適さない不適格画像であると判定する。   In addition, when the motion estimation appropriateness determination unit 202 performs the determination process by applying “(2) camera motion information at the time of image capture”, the motion estimation appropriateness determination unit 202 includes a gyro mounted on the camera or the like. The movement of the camera at the time of image capture acquired from the sensor is input as image attribute information together with the image. The motion estimation appropriateness determination unit 202 performs determination based on this information. If the “camera movement” at the time of shooting the input image is less than the predetermined threshold, the input image is determined to be an image suitable for motion estimation. If the “camera movement” is equal to or greater than the predetermined threshold, the input image Is determined to be an ineligible image not suitable for motion estimation.

「(3)画像中の画素値飽和領域の面積」を適用して判定処理を行なう場合、入力画像の画像全体における「画素値飽和領域」の面積占有率が既定しきい値未満であれば、入力画像は動き推定に適した画像と判定し、「画素値飽和領域」の面積占有率が既定しきい値以上であれば、入力画像は動き推定に適さない不適格画像であると判定する。   When performing the determination process by applying “(3) the area of the pixel value saturation region in the image”, if the area occupation ratio of the “pixel value saturation region” in the entire image of the input image is less than the predetermined threshold value, The input image is determined to be an image suitable for motion estimation. If the area occupancy rate of the “pixel value saturation region” is equal to or greater than a predetermined threshold value, the input image is determined to be an ineligible image not suitable for motion estimation.

「(4)画像中のノイズの大きい領域の面積」を適用して判定処理を行なう場合、入力画像の画像全体における「ノイズの大きい領域」の面積占有率が既定しきい値未満であれば、入力画像は動き推定に適した画像と判定し、「ノイズの大きい領域」の面積占有率が既定しきい値以上であれば、入力画像は動き推定に適さない不適格画像であると判定する。   When performing the determination process by applying “(4) the area of a noisy area in an image”, if the area occupation ratio of the “noisy area” in the entire image of the input image is less than a predetermined threshold value, The input image is determined to be an image suitable for motion estimation. If the area occupancy ratio of the “noisy region” is equal to or greater than a predetermined threshold value, the input image is determined to be an ineligible image not suitable for motion estimation.

「(5)画像の輝度範囲(最大輝度から最小輝度の範囲)」を適用して判定処理を行なう場合、入力画像の画像全体の画素値の範囲を解析し、最大画素値〜最小画素値の輝度範囲が既定しきい以上であれば、入力画像は動き推定に適した画像と判定し、輝度範囲が既定しきい値未満であれば、入力画像は動き推定に適さない不適格画像であると判定する。
なお、この処理を行なう場合、画像中の最大輝度と最小輝度の数%の画素を除いた画素値のみを適用して判定を行う構成としてもよい。
また、画素値の分散を算出して分散値に基づく判定を行ってもよい。
When performing determination processing by applying “(5) image luminance range (range from maximum luminance to minimum luminance)”, the range of pixel values of the entire image of the input image is analyzed, and the maximum pixel value to the minimum pixel value If the luminance range is greater than or equal to the predetermined threshold, the input image is determined to be an image suitable for motion estimation, and if the luminance range is less than the predetermined threshold, the input image is an ineligible image that is not suitable for motion estimation. judge.
Note that, when this process is performed, the determination may be made by applying only pixel values excluding pixels of several percent of the maximum luminance and the minimum luminance in the image.
Further, the variance of the pixel value may be calculated and the determination based on the variance value may be performed.

「(6)最大露光画像と最小露光画像の有効画素領域の面積」を適用した判定処理は、高ダイナミックレンジ画像の生成を行う場合の処理である。高ダイナミックレンジ画像の生成を行う場合、異なる露光時間の設定とした連続撮影画像を入力して、複数の異なる露光時間の画像を合成して1つの出力画像を生成する。
この場合、例えば長時間露光画像には多くの飽和画素が含まれ、一方、短時間露光画像には低輝度画素が多く含まれることになる。有効画素は、長時間露光画像では飽和していない画素であり、短時間露光画像では、極端な低輝度画素以外の有効な画素値の設定された画素となる。これらの有効画素をそれぞれ組み合わせる画像合成を行なうことで高ダイナミックレンジ画像を生成する。
The determination process to which “(6) the area of the effective pixel area of the maximum exposure image and the minimum exposure image” is applied is a process in the case of generating a high dynamic range image. When generating a high dynamic range image, continuous captured images with different exposure times are input, and a plurality of images with different exposure times are combined to generate one output image.
In this case, for example, a long exposure image includes many saturated pixels, while a short exposure image includes many low luminance pixels. An effective pixel is a pixel that is not saturated in a long-time exposure image, and in a short-time exposure image, a pixel having an effective pixel value other than an extremely low luminance pixel is set. A high dynamic range image is generated by performing image synthesis in which these effective pixels are combined.

このような、高ダイナミックレンジ画像を生成する構成では、撮像装置において連続撮影された長時間露光画像〜短時間露光画像の複数の異なる露光時間の画像を連続入力して処理を行なう。
この場合、これらの複数の異なる露光時間の画像から1つの画像を基準画像としてフレームメモリに格納する。
In such a configuration for generating a high dynamic range image, processing is performed by continuously inputting a plurality of images having different exposure times from a long-time exposure image to a short-time exposure image continuously shot by the imaging apparatus.
In this case, one image is stored in the frame memory as a reference image from these images having a plurality of different exposure times.

なお、基準画像は、ノイズ低減画像や高ダイナミックレンジ(HDR)画像生成時に選択される連写撮影画像中の1つの選択画像である。他の画像に基づいて、この「基準画像」の画像位置に合わせた動き補償画像を生成し、「基準画像」と「その他の画像に基づいて生成した動き補償画像」を合成することで、ノイズ低減や高ダイナミックレンジ(HDR)画像生成などの信号処理を実行する。   Note that the reference image is one selected image among continuous shot images selected when generating a noise-reduced image or a high dynamic range (HDR) image. Based on the other images, a motion compensated image that matches the image position of this “reference image” is generated, and the “reference image” and the “motion compensated image generated based on the other images” are combined to generate noise. Signal processing such as reduction and high dynamic range (HDR) image generation is performed.

このような基準画像の選択処理において、「最大露光画像と最小露光画像の有効画素領域の面積」を適用した判定処理が有効な手法となる。
有効画素領域のより多い画像を動き推定に好適な画像とし、基準画像としてフレームメモリに格納する。
In such a reference image selection process, a determination process using “the area of the effective pixel area of the maximum exposure image and the minimum exposure image” is an effective technique.
An image having a larger effective pixel area is used as an image suitable for motion estimation, and is stored in the frame memory as a reference image.

上述したように、動き推定好適度判定部202は、例えば図12I示す(1)〜(6)のいずれか、あるいはこれらの複数の指標の組み合わせに基づいて、各入力画像が動き推定にてきした画像であるか不適格画像であるかを判定する。
さらに、動き推定好適度判定部202において動き推定に適した画像であると判定された入力画像のみがフレームメモリ201に新たに格納され、その後の動き推定に適用する参照画像、または基準画像として利用される。
As described above, the motion estimation appropriateness determination unit 202 determines that each input image has been subjected to motion estimation based on, for example, any one of (1) to (6) illustrated in FIG. It is determined whether the image is an image or an ineligible image.
Furthermore, only the input image determined to be an image suitable for motion estimation by the motion estimation appropriateness determination unit 202 is newly stored in the frame memory 201 and used as a reference image or a standard image to be applied to subsequent motion estimation. Is done.

なお、図12には、動き推定好適度判定処理に適用可能な指標として、以下の各指標を示している。
(1)画像中のぼけ領域の面積
(2)画像撮影時のカメラの動き情報
(3)画像中の画素値飽和領域の面積
(4)画像中のノイズの大きい領域の面積
(5)画像の輝度範囲(最大輝度から最小輝度の範囲)
(6)最大露光画像と最小露光画像の有効画素領域の面積
FIG. 12 shows the following indices as indices applicable to the motion estimation appropriateness determination process.
(1) Area of blurred area in image (2) Camera motion information at the time of image capture (3) Area of pixel value saturated area in image (4) Area of noisy area in image (5) Image area Luminance range (range from maximum luminance to minimum luminance)
(6) Effective pixel area of maximum exposure image and minimum exposure image

これらの各指標中、以下の指標、すなわち、
(1)画像中のぼけ領域の面積
(3)画像中の画素値飽和領域の面積
(4)画像中のノイズの大きい領域の面積
(5)画像の輝度範囲(最大輝度から最小輝度の範囲)
これらの各指標を用いた判定処理は、例えば動き推定好適度判定部202が、入力画像を解析して実行することが可能である。
Of each of these indicators, the following indicators:
(1) Area of blurred region in image (3) Area of pixel value saturated region in image (4) Area of noisy region in image (5) Luminance range of image (range from maximum luminance to minimum luminance)
The determination process using each of these indices can be executed by, for example, the motion estimation appropriateness determination unit 202 analyzing the input image.

また、(2)画像撮影時のカメラの動き情報を利用した判定処理を行なう場合は、前述したように、画像撮影時のカメラの動きのセンサ計測情報を画像対応の属性情報として取得する設定として、この属性情報に従って判定処理を行なう。   In addition, (2) when performing determination processing using camera motion information at the time of image capture, as described above, as a setting for acquiring sensor measurement information of camera motion at the time of image capture as attribute information corresponding to an image. Then, the determination process is performed according to the attribute information.

なお、動き推定好適度判定部202が入力画像とフレームメモリに格納された参照画像との画像比較を実行する必要がある場合は、例えば図13に示すように、動き推定好適度判定部202は、入力画像211のみならず、フレームメモリ201からの画像読み出しを実行可能な構成とする。   When the motion estimation suitability determination unit 202 needs to perform image comparison between the input image and the reference image stored in the frame memory, for example, as shown in FIG. In addition, not only the input image 211 but also the image reading from the frame memory 201 can be executed.

また、(6)最大露光画像と最小露光画像の有効画素領域の面積を利用した判定処理を行なう場合は、例えば図14に示す構成を利用した判定処理を行なう。
図14に示す構成は、先に実施例1として説明した図5の構成に有効領域判定部232を追加した構成である。
Further, (6) when performing the determination process using the area of the effective pixel region of the maximum exposure image and the minimum exposure image, for example, the determination process using the configuration shown in FIG. 14 is performed.
The configuration shown in FIG. 14 is a configuration in which an effective area determination unit 232 is added to the configuration of FIG. 5 described as the first embodiment.

図14に示す構成は、連続撮影された長時間露光画像と短時間露光画像を順次、入力画像として入力する構成に適用される。
有効領域判定部232は、入力画像として順次入力する長時間露光画像と短時間露光画像の各々から、それぞれ有効画素値を持つ画素領域を抽出する。さらに、この抽出結果を反映したマップとして以下の2つのマップを作成する。
長時間露光画像の有効画素領域の選択情報からなる最大露光有効領域マップ、
短時間露光画像の有効画素領域の選択情報からなる最小露光有効領域マップ、
有効領域判定部232は、これらのマップを動き推定好適度判定部202に出力する。
The configuration shown in FIG. 14 is applied to a configuration in which a continuous exposure long exposure image and a short exposure image are sequentially input as input images.
The effective area determination unit 232 extracts a pixel area having an effective pixel value from each of the long exposure image and the short exposure image that are sequentially input as input images. Furthermore, the following two maps are created as maps reflecting the extraction results.
Maximum exposure effective area map consisting of selection information of effective pixel area of long exposure image,
Minimum exposure effective area map consisting of selection information of effective pixel area of short exposure image,
The effective area determination unit 232 outputs these maps to the motion estimation appropriateness determination unit 202.

動き推定好適度判定部202は、有効領域判定部232から上記2つのマップを入力し、長時間露光画像と短時間露光画像のどちらの有効画素領域が大きいかを判定する。この判定結果に応じて、有効画素領域の大きい方を基準画像として選択し、フレームメモリ201に格納する。   The motion estimation appropriateness determination unit 202 inputs the above two maps from the effective area determination unit 232 and determines which of the long exposure image and the short exposure image has a larger effective pixel area. Depending on the determination result, the larger effective pixel area is selected as a reference image and stored in the frame memory 201.

[1−6.連続撮影画像の重ね合わせによるノイズ低減を行う実施例(実施例4)]
次に、連続撮影画像の重ね合わせによるノイズ低減を行う実施例を実施例4として説明する。
この第4実施例も、第1〜第3実施例と同様、動き推定の適否判定に基づく処理を行なう。この第4実施例の画像処理装置の構成例を図15に示す。
[1-6. Example of performing noise reduction by superimposing continuously shot images (Example 4)]
Next, an embodiment that performs noise reduction by superimposing continuously shot images will be described as a fourth embodiment.
In the fourth embodiment, similarly to the first to third embodiments, processing based on determination of suitability for motion estimation is performed. A configuration example of the image processing apparatus of the fourth embodiment is shown in FIG.

連続撮影画像の重ね合わせによるノイズ低減を行う構成では、ユーザが撮像装置のシャッタ押下によって連写された複数の撮影画像中の先頭の撮影画像を基準画像とし、基準画像に後続撮影画像の位置合わせを行うのが一般的である。   In a configuration in which noise is reduced by superimposing continuous shot images, the first shot image among a plurality of shot images continuously shot by the user pressing the shutter of the imaging device is used as a reference image, and the subsequent shot image is aligned with the reference image. It is common to do.

しかし、先頭の撮影画像が動き推定に好適な画像である場合もあり、このような場合には、各画像間の位置合わせがうまく実行されず、良好なノイズ低減が実行されない場合がある。
以下に説明する実施例では、このような場合に、基準画像を適宜変更して、良好な位置合わせ、ノイズ低減を実行可能とした構成である。
However, the first captured image may be an image suitable for motion estimation. In such a case, alignment between the images may not be performed well, and good noise reduction may not be performed.
In the embodiment described below, in such a case, the reference image is appropriately changed so that good alignment and noise reduction can be performed.

図15に示す構成は、先に実施例2として説明した図8の構成に、動き推定方向切り替え部251を追加した構成に相当する。
動き推定方向切り替え部251には、入力画像211と、フレームメモリ201の基準画像が入力される。さらに、動き判定好適度判定部202から、入力画像が動き推定に好適か否かを示す基準画像更新情報228が入力される。
The configuration illustrated in FIG. 15 corresponds to a configuration in which a motion estimation direction switching unit 251 is added to the configuration illustrated in FIG.
The input image 211 and the reference image of the frame memory 201 are input to the motion estimation direction switching unit 251. Further, reference image update information 228 indicating whether or not the input image is suitable for motion estimation is input from the motion determination suitability determination unit 202.

なお、先に説明した実施例1〜3では、フレームメモリ201に格納される画像を、「参照画像」、すなわち、動き補償画像の生成元となる画像としたが、この実施例4では、フレームメモリ201に格納される画像は、「基準画像」である。
「基準画像」は、出力される処理画像と同じ画像位置を持つ画像である。基準画像以外の連写画像中のその他の入力画像については、この基準画像と同一の画像位置となる設定とした動き補償画像を生成した上で合成処理が実行され、1枚のノイズ低減画像としての処理画像215が出力されることになる。
従って、本実施例では、動き判定好適度判定部202は、入力画像が動き推定に好適か否かを示す「基準画像」更新情報228を出力する。
In the first to third embodiments described above, an image stored in the frame memory 201 is a “reference image”, that is, an image that is a generation source of a motion compensated image. The image stored in the memory 201 is a “reference image”.
The “reference image” is an image having the same image position as the processed image to be output. For other input images in the continuous shot image other than the reference image, a synthesis process is executed after generating a motion compensated image set to be the same image position as the reference image, and as one noise reduced image The processed image 215 is output.
Therefore, in this embodiment, the motion determination suitability determination unit 202 outputs “reference image” update information 228 indicating whether or not the input image is suitable for motion estimation.

本構成において、連写撮影画像の先頭画像が仮の基準画像としてフレームメモリ201に格納される。しかし、その後、新たに入力される後続撮影画像が動き推定に好適な画像であると判定されると、基準画像をその画像に変更する処理を行なう。この基準画像更新処理は、先に説明した実施例1〜3における参照画像の更新処理と同様の処理である。   In this configuration, the top image of the continuous shot images is stored in the frame memory 201 as a temporary reference image. However, after that, when it is determined that the newly input subsequent captured image is an image suitable for motion estimation, processing for changing the reference image to the image is performed. This reference image update process is the same process as the reference image update process in the first to third embodiments described above.

さらに、動き推定方向切り替え部251は、動き判定好適度判定部202から入力する基準画像更新情報228に従って、入力画像211が動き推定に好適な画像であるか否かを判定し、その判定情報に応じて動き推定方向を変更する処理を行なう。   Furthermore, the motion estimation direction switching unit 251 determines whether or not the input image 211 is an image suitable for motion estimation according to the reference image update information 228 input from the motion determination appropriateness determination unit 202, and includes the determination information. Accordingly, a process of changing the motion estimation direction is performed.

すなわち、新たに入力された入力画像が動き推定に好適な画像である場合、その画像を基準画像として設定し、その基準画像の方向に各連写画像の位置合わせを実行する設定とする。新たに入力された入力画像が動き推定に不適格な画像である場合、その画像は、基準画像として設定されず、設定済みの基準画像、あるいはその後に設定される基準画像の方向に各連写画像の位置合わせを実行する設定とする。   That is, when the newly input image is an image suitable for motion estimation, the image is set as a reference image, and the position of each continuous shot image is set in the direction of the reference image. If the newly input image is ineligible for motion estimation, the image is not set as the reference image, and each continuous shooting is performed in the direction of the set reference image or the reference image set thereafter. Set to execute image alignment.

図15に示す動き推定方向切り替え部251の出力として示す動き推定目標画像261と、動き推定参照画像262は、一方が位置合わせの目標となる画像であり、他方が位置合わせの処理対象となる画像である。
その他の構成と処理は、図8を参照して説明した構成と処理と同様である。
One of the motion estimation target image 261 and the motion estimation reference image 262 shown as outputs of the motion estimation direction switching unit 251 shown in FIG. 15 is an image that is a registration target, and the other is an image that is a registration processing target. It is.
Other configurations and processes are the same as those described with reference to FIG.

本実施例に従った処理シーケンスについて、図16〜図17に示すフローチャートを参照して説明する。
画像処理装置が、例えば静止画のノイズ低減画像を生成して記録あるいは出力する場合、連続撮影された複数の画像を利用した合成処理を実行する。すなわち、先に図4を参照して説明した信号処理を実行してノイズ低減画像を生成する。
図16〜図17に示すフローは、このようなノイズ低減画像の生成処理を行なう場合の処理シーケンスを説明するフローチャートである。
A processing sequence according to the present embodiment will be described with reference to flowcharts shown in FIGS.
For example, when the image processing apparatus generates and records or outputs a noise-reduced image of a still image, a synthesis process using a plurality of continuously shot images is executed. That is, the noise reduction image is generated by executing the signal processing described above with reference to FIG.
The flow shown in FIGS. 16 to 17 is a flowchart for explaining a processing sequence in the case where such a noise-reduced image generation process is performed.

図16〜図17に示すフローに従った処理は、例えば、図15に示す構成を持つ画像処理装置において、図15には示していないが、画像処理装置の制御部の制御下で行われる。制御部は画像処理装置のメモリに格納されたプログラムを実行して図16〜図17に示すフローに従った処理の制御を行う。   The processing according to the flow illustrated in FIGS. 16 to 17 is performed under the control of the control unit of the image processing apparatus, which is not illustrated in FIG. 15, for example, in the image processing apparatus having the configuration illustrated in FIG. The control unit executes a program stored in the memory of the image processing apparatus to control processing according to the flow shown in FIGS.

まず、ステップS161において、基準画像の仮決定処理を行なう。連続撮影画像の最初の撮影画像である先頭画像を仮の基準画像とする。
以下のステップS162〜S185の処理は、連続撮影画像の各撮影画像に対して実行する。
First, in step S161, a reference image provisional determination process is performed. The first image that is the first captured image of the continuously captured images is set as a temporary reference image.
The processes in steps S162 to S185 below are executed for each captured image of the continuously captured images.

ステップS163において、撮影画像を入力する。
次に、ステップS164において、入力画像が動き推定に好適な画像であるか、好適でない不適格画像であるかの判別を行う。この処理は、図15に示す動き推定好適度判定部202の実行する処理である。
In step S163, a captured image is input.
Next, in step S164, it is determined whether the input image is an image suitable for motion estimation or an unsuitable image that is not suitable. This process is a process executed by the motion estimation appropriateness determination unit 202 shown in FIG.

ステップS165において、基準画像が決定済みであるか否かを判定する。
基準画像が決定済みである場合、ステップS166に進み、決定済みでない場合はステップS167に進む。
In step S165, it is determined whether the reference image has been determined.
If the reference image has been determined, the process proceeds to step S166, and if not, the process proceeds to step S167.

基準画像が決定済みであり、ステップS166に進むと、ステップS166において、入力画像が動き推定に好適な画像であるか否かを判定する。好適であると判定すると、ステップS169において、入力画像と基準画像を適用した動き推定処理を実行する。この処理は、図15示す動き推定部203の実行する処理であり、フレームメモリ201に格納された基準画像と入力画像間の動き量を推定する処理である。   When the reference image has been determined and the process proceeds to step S166, it is determined in step S166 whether or not the input image is an image suitable for motion estimation. If it is determined that it is suitable, a motion estimation process using the input image and the reference image is executed in step S169. This process is a process executed by the motion estimation unit 203 shown in FIG. 15, and is a process for estimating the amount of motion between the reference image stored in the frame memory 201 and the input image.

一方、ステップS166において、入力画像が動き推定に好適な画像でない不適格画像であると判定すると、ステップS170において、例外動き量を計算する。これは、図15に示す動き量補正部204の処理である。例外動き量は、先に説明したように例えばゼロベクトルである。   On the other hand, if it is determined in step S166 that the input image is an ineligible image that is not suitable for motion estimation, an exceptional motion amount is calculated in step S170. This is the process of the motion amount correction unit 204 shown in FIG. As described above, the exceptional motion amount is, for example, a zero vector.

一方、ステップS165において基準画像が決定されていないと判定した場合は、ステップS167に進む。ステップS167において、入力画像が動き推定に好適な画像であるか否かを判定する。好適であると判定すると、ステップS168において、入力画像を次の基準画像として決定し、ステップS169の動き推定処理に進む。
一方、ステップS167において、入力画像が動き推定に好適な画像でなく不適格画像であると判定すると、ステップS171に進む。ステップS171では、入力画像を基準画像とせず、次の画像フレームを基準画像とする仮設定処理を行なう。さらに、ステップS172において例外動き量を計算する。これは、図15に示す動き量補正部204の処理である。例外動き量は、先に説明したように例えばゼロベクトルなどが利用される。
On the other hand, if it is determined in step S165 that the reference image has not been determined, the process proceeds to step S167. In step S167, it is determined whether the input image is an image suitable for motion estimation. If it is determined that it is suitable, in step S168, the input image is determined as the next reference image, and the process proceeds to the motion estimation process in step S169.
On the other hand, if it is determined in step S167 that the input image is not an image suitable for motion estimation but an inappropriate image, the process proceeds to step S171. In step S171, a temporary setting process is performed in which the input image is not set as a reference image, and the next image frame is set as a reference image. In step S172, the amount of exceptional motion is calculated. This is the process of the motion amount correction unit 204 shown in FIG. As described above, for example, a zero vector is used as the exceptional motion amount.

ステップS170、ステップS169、ステップS172のいずれかの処理が完了すると、図17に示すステップS181に進む。
ステップS181では、動き量補正処理を実行する。この処理は、図15に示す動き量補正部204の実行する処理である。
入力画像が動き推定に適した画像である場合、基準画像と入力画像間の動き量を算出して動き補償画像生成部205に出力する。一方、入力画像が動き推定に適した画像でなく不適格画像である場合、例外動き量、例えばゼロベクトル等を動き補償画像生成部205に出力する。
When any one of step S170, step S169, and step S172 is completed, the process proceeds to step S181 shown in FIG.
In step S181, a motion amount correction process is executed. This process is a process executed by the motion amount correction unit 204 shown in FIG.
If the input image is an image suitable for motion estimation, the amount of motion between the reference image and the input image is calculated and output to the motion compensated image generation unit 205. On the other hand, when the input image is not an image suitable for motion estimation but an ineligible image, an exceptional motion amount, such as a zero vector, is output to the motion compensated image generation unit 205.

次に、ステップS182において、動き補償画像を生成する。すなわち、動き量または例外動き量を適用して、動き補償画像を生成する。この処理は、図15に示す動き補償画像生成部205の実行する処理である。この動き補償画像生成処理は、入力画像が動き推定好適度ありの場合は、ステップS181において算出した動き量を適用して実行する。
一方、入力画像が動き推定好適度なしの場合は、ステップS170またはステップS172において算出した例外動き量を適用して実行する。
Next, in step S182, a motion compensated image is generated. That is, the motion compensation image is generated by applying the motion amount or the exceptional motion amount. This process is a process executed by the motion compensated image generation unit 205 shown in FIG. This motion compensated image generation processing is executed by applying the amount of motion calculated in step S181 when the input image has a motion estimation suitability.
On the other hand, when the input image does not have the motion estimation suitability, the exceptional motion amount calculated in step S170 or step S172 is applied and executed.

次に、ステップS183において、入力画像と動き補償画像を適用した信号処理を実行する。この処理は、図15に示す信号処理部206の実行する処理である。信号処理としては、例えばノイズ低減処理、超解像処理、高ダイナミックレンジ画像生成処理などの処理である。
ステップS184において、ステップS183の信号処理結果として生成した画像を出力する。
ステップS185に進むと、残りの連続撮影画像があるか否かを判定し、ある場合は、ステップS163以下の処理を繰り返す。
残りの未処理画像がない場合は処理を終了する。
このようにして、連続撮影された複数の画像を適用したノイズ低減画像が生成されて出力される。
Next, in step S183, signal processing using the input image and the motion compensated image is executed. This process is a process executed by the signal processing unit 206 shown in FIG. Examples of signal processing include noise reduction processing, super-resolution processing, and high dynamic range image generation processing.
In step S184, the image generated as the signal processing result in step S183 is output.
In step S185, it is determined whether or not there are remaining continuously shot images. If there are, the processes in step S163 and subsequent steps are repeated.
If there are no remaining unprocessed images, the process ends.
In this way, a noise reduced image to which a plurality of continuously shot images is applied is generated and output.

本実施例の動き推定処理に適用する基準画像の設定と、動き補償画像の生成処理の態様について図18を参照して説明する。
例えば、画像k〜k+3の4枚の画像を連続撮影し、この連写画像を合成して1つのノイズ定見画像を生成する。
一般的には、図18(a)に示すように、先頭の撮影画像である画像kを基準画像に設定し、基準画像に他の画像位置を合わせるように動き補償画像を生成したうえで、各画像の合成処理を実行する。
これに対し、本実施例に従った処理では、図18(b)に示すように例えば先頭画像kが動き推定に不適格な画像であり、次の画像k+1が動き推定に好適な画像であった場合、この画像を基準画像として設定する。この画像k+1に他の画像の位置合わせを行った動き補償画像を生成して、画像合成に基づくノイズ低減画像を生成する。
Reference image setting and motion compensation image generation processing applied to the motion estimation processing of the present embodiment will be described with reference to FIG.
For example, four images of images k to k + 3 are continuously shot, and the continuous shot images are combined to generate one noise appearance image.
In general, as shown in FIG. 18 (a), after setting the image k, which is the first captured image, as a reference image, and generating a motion compensated image so as to align other image positions with the reference image, A synthesis process for each image is executed.
On the other hand, in the processing according to the present embodiment, as shown in FIG. 18B, for example, the first image k is an image that is not suitable for motion estimation, and the next image k + 1 is an image suitable for motion estimation. If this happens, this image is set as the reference image. A motion compensated image obtained by aligning another image with this image k + 1 is generated, and a noise reduced image based on image synthesis is generated.

[1−7.高ダイナミックレンジ画像の生成処理を行なう実施例(実施例5)]
次に、高ダイナミックレンジ画像の生成処理を行なう実施例について、実施例5として説明する。
実施例5も前述の実施例1〜4と同様、入力画像が動き推定に適した画像であるか、適さない不適格画像であるかを判定し、判定結果に応じた処理を実行する。
高ダイナミックレンジ画像の生成処理を行なう構成では、複数の異なる露光時間の撮影画像を連続して複数枚、撮影し、これらの複数の異なる露光時間の撮影画像を合成して1枚の高ダイナミックレンジ画像を生成する。
[1-7. Embodiment in which High Dynamic Range Image Generation Processing is Performed (Embodiment 5)]
Next, an example in which a high dynamic range image generation process is performed will be described as Example 5.
In the fifth embodiment, similarly to the first to fourth embodiments described above, it is determined whether the input image is an image suitable for motion estimation or an unsuitable image, and processing according to the determination result is executed.
In the configuration for generating the high dynamic range image, a plurality of photographed images with different exposure times are continuously photographed, and the photographed images with the plurality of different exposure times are combined to form one high dynamic range image. Generate an image.

この処理においても、前述の実施例4と同様、連続撮影された複数の異なる露光時間画像のどの画像に位置合わせを行うか、すなわち度の画像を基準画像とするかを選択可能である。
本実施例では、動き推定に適さない画像については、基準画像として設定せず、動き推定に好適な画像を選択して基準画像とする。
この処理は、前述の実施例4と同様の処理である。
本実施例に適用する画像処理装置の構成は、前述の実施例4と同様、図15の構成となる。
Also in this process, as in the above-described fourth embodiment, it is possible to select which image of a plurality of different exposure time images that have been continuously photographed, that is, whether the image of each degree is used as a reference image.
In this embodiment, an image that is not suitable for motion estimation is not set as a reference image, and an image suitable for motion estimation is selected as a reference image.
This process is the same as that of the fourth embodiment.
The configuration of the image processing apparatus applied to the present embodiment is the configuration of FIG. 15 as in the fourth embodiment.

[2.複数画像の合成によるノイズ低減と、高ダイナミックレンジ化処理を併せて実行する実施例について]
次に、連続撮影された異なる露光時間の撮影画像を合成してノイズ低減と、高ダイナミックレンジ化処理を併せて実行する実施例について説明する。
ノイズ低減画像を生成する場合も高ダイナミックレンジ画像を生成する場合も複数の連続撮影画像を位置合わせ後に合成する処理を行なうことになる。
[2. Example of executing both noise reduction by combining multiple images and high dynamic range processing]
Next, a description will be given of an embodiment in which continuously taken images with different exposure times are combined to perform noise reduction and high dynamic range processing together.
Whether a noise reduced image or a high dynamic range image is generated, a process of combining a plurality of continuously shot images after alignment is performed.

[2−1.ノイズ低減処理と、高ダイナミックレンジ化処理を併せて実行する一般的な構成例と問題点について]
まず、ノイズ低減処理と、高ダイナミックレンジ化処理を併せて実行する一般的な構成例と問題点について説明する。
高ダイナミックレンジ画像を生成する場合、複数の異なる露光時間に設定した画像を連続撮影してこれらの複数画像を合成する処理を行なう。
高ダイナミックレンジ画像の生成処理の基本的なシーケンスについて図19を参照して説明する。
[2-1. General configuration example and problems of executing both noise reduction processing and high dynamic range processing]
First, a general configuration example in which noise reduction processing and high dynamic range processing are executed together and problems will be described.
In the case of generating a high dynamic range image, a process of continuously photographing images set at a plurality of different exposure times and synthesizing these images is performed.
A basic sequence of high dynamic range image generation processing will be described with reference to FIG.

図19に示す例は、短時間露光画像301と長時間露光画像302、これら2種類の異なる露光時間の設定画像を利用した処理例である。
短時間露光画像301と長時間露光画像302は、ユーザの1回のシャッタ操作によって連続撮影される。
撮像装置の撮影画像のデータ処理部は、まず、短時間露光画像301と、長時間露光画像302についてステップS201、S202において露光比に応じた定数を乗算して露出補正を行う。
例えば、短時間露光時間と長時間露光時間の露光比(=露光時間比)が1:16である場合、露出補正の段階で短時間露光画像は16倍し、長時間露光画像は1倍して、露出補正短時間露光画像303と露出補正長時間露光画像304を生成する。
その後、ステップS203で対応画素の画素値を合成(ブレンド)して出力画像である高ダイナミックレンジ(HDR:High Dynamic Range)画像305の画素値を決定する。
The example shown in FIG. 19 is a processing example using a short-exposure image 301 and a long-exposure image 302 and these two types of setting images having different exposure times.
The short-exposure image 301 and the long-exposure image 302 are continuously photographed by one shutter operation by the user.
The captured image data processing unit of the imaging apparatus first performs exposure correction by multiplying the short exposure image 301 and the long exposure image 302 by a constant corresponding to the exposure ratio in steps S201 and S202.
For example, when the exposure ratio between the short exposure time and the long exposure time (= exposure time ratio) is 1:16, the short exposure image is multiplied by 16 and the long exposure image is multiplied by 1 at the stage of exposure correction. Thus, an exposure correction short exposure image 303 and an exposure correction long exposure image 304 are generated.
Thereafter, in step S203, the pixel values of the corresponding pixels are synthesized (blended) to determine the pixel value of a high dynamic range (HDR) image 305 as an output image.

出力画像である高ダイナミックレンジ(HDR:High Dynamic Range)画像305の画素値の決定処理シーケンスについて説明する。
例えば、
:露出補正短時間露光画像の画素値
:露出補正長時間露光画像の画素値
:出力する高ダイナミックレンジ画像の画素値
としたとき、
高ダイナミックレンジ(HDR:High Dynamic Range)画像305の画素値は、ステップS203のブレンド処理において、以下に示す式に従って算出する。
=(1.0−α)×D+α×D
なお、上記式に従った画素値ブレンドは、露出補正短時間露光画像と、露出補正長時間露光画像の対応画素位置ごとに行う。すなわち同一被写体の撮影画素位置ごとにブレンド処理を行って出力画像(HDR画像)の各画素値を決定する。
A pixel value determination processing sequence of a high dynamic range (HDR) image 305 that is an output image will be described.
For example,
D S : Pixel value of exposure corrected short exposure image D L : Pixel value of exposure corrected long exposure image D H : Pixel value of high dynamic range image to be output
The pixel value of the high dynamic range (HDR: High Dynamic Range) image 305 is calculated according to the following formula in the blend process in step S203.
D H = (1.0−α) × D S + α × D L
The pixel value blending according to the above formula is performed for each corresponding pixel position of the exposure correction short-time exposure image and the exposure correction long-time exposure image. That is, blending processing is performed for each shooting pixel position of the same subject to determine each pixel value of the output image (HDR image).

このような処理により、例えば長時間露光画像302では飽和画素値となった画素でも短時間露光画像301の対応画素の画素値を利用することで有効画素値を算出することが可能となる。また、短時間露光画像301では低輝度となりいわゆる黒つぶれが発生した画素であっても長時間露光画像302の画素値を利用することで有効画素値を設定できる。
このような処理によって、低輝度〜高輝度の各画素に有効画素値を設定することが可能となり、ダイナミックレンジを広げた高ダイナミックレンジ画像を生成することが可能となる。
By such processing, for example, even if a pixel has a saturated pixel value in the long exposure image 302, it is possible to calculate an effective pixel value by using the pixel value of the corresponding pixel in the short exposure image 301. In addition, even in a pixel in which the brightness is low in the short-time exposure image 301 and the so-called blackening occurs, an effective pixel value can be set by using the pixel value of the long-time exposure image 302.
By such processing, it is possible to set an effective pixel value for each pixel of low luminance to high luminance, and it is possible to generate a high dynamic range image with an expanded dynamic range.

図19に示す構成では、2種類の露光時間の組み合わせとしたが、露光時間の設定は様々な設定が可能であり、2以上の任意数N種類の設定とすることができる。例えば露光時間の設定を4種類の設定とするなどの構成が可能である。
しかし、このように多数の異なる露光時間の撮影画像を利用して、高ダイナミックレンジ化処理と、ノイズ低減処理を併せて実行する場合、異なる露光時間の各画像を一時的に格納する多数のフレームメモリムが必要となる。
In the configuration shown in FIG. 19, a combination of two types of exposure time is used. However, various settings can be made for the exposure time, and an arbitrary number N of two or more can be set. For example, the exposure time can be set to four types of settings.
However, when a high dynamic range process and a noise reduction process are executed using a large number of captured images having different exposure times in this way, a large number of frames for temporarily storing each image having a different exposure time. A memory is required.

図20は、4種類の露光時間の連続撮影画像を利用して、まず、各画像の合成による高ダイナミックレンジ画像を生成し、その後、ノイズ低減処理を実行する構成例を示している。
まず、以下の4種類の異なる露光時間の画像を入力する。
(1)最短時間露光画像XS,321、
(2)短時間露光画像MS,322、
(3)長時間露光画像ML,323、
(4)最長時間露光画像XL,324、
これらの各画像は、例えば撮像装置に対するユーザによる1回のシャッタ押下によって連続撮影される画像である。
露光時間は、
XS<MS<ML<XL
上記関係にある。
FIG. 20 shows a configuration example in which a continuous dynamic image having four types of exposure times is used to first generate a high dynamic range image by combining the images, and then perform noise reduction processing.
First, the following four types of images with different exposure times are input.
(1) The shortest time exposure image XS, 321;
(2) Short exposure image MS, 322,
(3) Long exposure images ML, 323,
(4) Longest time exposure image XL, 324,
Each of these images is an image that is continuously photographed, for example, when the user presses the shutter once for the imaging device.
Exposure time is
XS <MS <ML <XL
It is in the above relationship.

これらの各画像は、図20に示すフレームメモリa331〜フレームメモリd334にそれぞれ格納される。図20に示す高ダイナミックレンジ(HDR)画像生成部335は、これらの4種類の異なる露光画像を合成して1つの高ダイナミックレンジ(HDR)画像を生成する。
例えば、低輝度画素は最長時間露光画像XL324の画素値を優先的に採用し、高輝度画素は最短時間露光画像XS321の画素値を優先的に採用する画素値ブレンドを実行して高ダイナミックレンジ画像を生成する。
Each of these images is stored in a frame memory a331 to a frame memory d334 shown in FIG. The high dynamic range (HDR) image generation unit 335 shown in FIG. 20 combines these four different exposure images to generate one high dynamic range (HDR) image.
For example, low luminance pixels preferentially adopt the pixel value of the longest time exposure image XL324, and high luminance pixels execute pixel value blending preferentially of the pixel value of the shortest time exposure image XS321 to perform a high dynamic range image. Is generated.

高ダイナミックレンジ(HDR)画像生成部335の生成した高ダイナミックレンジ(HDR)画像は、次に、ノイズ除去部336に入力される。ここでは、例えば先行して生成されている、生成済み高ダイナミックレンジ(HDR)画像をフレームメモリe337から取り出して、例えば先に図4を参照して説明した処理に従ったノイズ低減処理を実行する。その処理結果として、図に示すノイズ除去HDR画像338が生成され出力される。   Next, the high dynamic range (HDR) image generated by the high dynamic range (HDR) image generation unit 335 is input to the noise removal unit 336. Here, for example, a generated high dynamic range (HDR) image that has been generated in advance is extracted from the frame memory e337, and for example, noise reduction processing according to the processing described above with reference to FIG. 4 is executed. . As a processing result, a noise-removed HDR image 338 shown in the figure is generated and output.

図20に示すように、高ダイナミックレンジ画像とノイズ除去をシーケンシャルに実行しようとすると、各画像を一時的に格納する多数のフレームメモリ、あるいは大容量のフレームメモリが必要となる。   As shown in FIG. 20, when a high dynamic range image and noise removal are to be executed sequentially, a large number of frame memories for temporarily storing each image or a large-capacity frame memory are required.

図21は、図20と異なり、ノイズ除去を先行して実行し、ノイズ除去後に高ダイナミックレンジ画像を生成する構成例である。
図21に示す構成では、ノイズ除去部341が、以下の4つの画像を入力する。
(1)最短時間露光画像XS,321、
(2)短時間露光画像MS,322、
(3)長時間露光画像ML,323、
(4)最長時間露光画像XL,324、
さらに、フレームメモリa351〜フレームメモリd354に格納した先行撮影画像に対するノイズ低減画像を適用したノイズ低減を実行し、生成した各露光時間対応のノイズ低減画像をフレームメモリa351〜フレームメモリd354に格納する。
FIG. 21 is a configuration example in which noise removal is executed in advance and a high dynamic range image is generated after noise removal, unlike FIG.
In the configuration shown in FIG. 21, the noise removal unit 341 inputs the following four images.
(1) The shortest time exposure image XS, 321;
(2) Short exposure image MS, 322,
(3) Long exposure images ML, 323,
(4) Longest time exposure image XL, 324,
Further, noise reduction is performed by applying a noise reduction image to the preceding captured image stored in the frame memory a351 to frame memory d354, and the generated noise reduction image corresponding to each exposure time is stored in the frame memory a351 to frame memory d354.

その後、高ダイナミックレンジ(HDR)画像生成部355が、フレームメモリa351〜フレームメモリd354に格納されたノイズ低減処理が施された異なる露光時間の画像を取得して合成処理を実行し、ノイズ除去HDR画像356を生成して出力する。   Thereafter, the high dynamic range (HDR) image generation unit 355 acquires images with different exposure times subjected to the noise reduction processing stored in the frame memory a351 to the frame memory d354, executes the synthesis processing, and performs noise removal HDR. An image 356 is generated and output.

この構成においても、やはり、各画像を一時的に格納する多数のフレームメモリ、あるいは大容量のフレームメモリが必要となる。
このように、図20や図21に示す構成では、フレームメモリ容量の増加や個別の動き情報の算出や位置合わせ処理などが必要となるため、回路規模、消費電力が増加するという問題もある。また、個別の回路による動き補償画像の生成を行うと回路間の誤差などに起因して画像のブレなどが発生し、その後の合成処理によって偽色が発生する可能性が高まることも予想される。
以下では、このような回路規模の増加や生成画像の品質低下を防止した処理を実現する画像処理装置の実施例について説明する。
Even in this configuration, a large number of frame memories for temporarily storing each image or a large-capacity frame memory are also required.
As described above, the configurations shown in FIGS. 20 and 21 also have a problem in that the circuit scale and power consumption increase because an increase in frame memory capacity, calculation of individual motion information, alignment processing, and the like are required. In addition, when motion compensated images are generated by individual circuits, image blurring may occur due to errors between circuits, etc., and the possibility that false colors will occur due to subsequent synthesis processing is also expected. .
In the following, an embodiment of an image processing apparatus that realizes processing that prevents such an increase in circuit scale and a decrease in quality of a generated image will be described.

[2−2.本開示に従ったノイズ低減と高ダイナミックレンジ画像生成を併せて実行する処理の概要]
以下、本開示に従ったノイズ低減と高ダイナミックレンジ画像生成を併せて実行する処理の概要について説明する。
画像処理装置は、例えば図22に示すように複数枚の異なる露光時間で撮像された画像信号(短時間露光画像信号から長時間露光画像信号まで)を周期的に入力して処理を実行する。すなわち、
(1)最短時間露光画像XS、
(2)短時間露光画像MS、
(3)長時間露光画像ML、
(4)最長時間露光画像XL、
これらの4つの異なる露光時間の連続撮影画像を周期的に入力し、処理を実行する。
露光時間は、以下の関係にある。
XS<MS<ML<XL
露光時間は、上記関係にある。
[2-2. Overview of processing to combine noise reduction and high dynamic range image generation according to the present disclosure]
In the following, an overview of processing that executes noise reduction and high dynamic range image generation according to the present disclosure will be described.
For example, as shown in FIG. 22, the image processing apparatus periodically inputs image signals (from a short exposure image signal to a long exposure image signal) captured at a plurality of different exposure times to execute processing. That is,
(1) The shortest time exposure image XS,
(2) Short exposure image MS,
(3) Long exposure image ML,
(4) Longest time exposure image XL,
These four consecutive exposure images with different exposure times are periodically input to execute processing.
The exposure time has the following relationship.
XS <MS <ML <XL
The exposure time has the above relationship.

画像処理装置は、これらの4つの異なる露光時間の画像を合成してノイズ低減高ダイナミックレンジ(HDR)画像を生成して出力する。
なお、以下では、露光時間の種類を4とした例について説明するが、本開示の処理は、任意の露光時間の種類=N、すなわちN=2以上の任意の露光時間の種類=Nの画像に対する処理として実行することが可能である。
また、画像信号の入力順序に関しても、短時間露光画像信号から長時間露光画像信号の順で記載しているが、その限りではない。
The image processing apparatus combines these four images with different exposure times to generate and output a noise-reduced high dynamic range (HDR) image.
In the following, an example in which the type of exposure time is set to 4 will be described. However, the processing of the present disclosure is performed in an arbitrary exposure time type = N, that is, an image with an arbitrary exposure time type of N = 2 or more = N. It is possible to execute as a process for.
Also, the input order of the image signals is described in the order of the short exposure image signal to the long exposure image signal, but this is not restrictive.

まず、画像処理装置において実行する異なる露光時間の画像の合成処理の概要について図23を参照して説明する。
図23に示す例は、空と家とで構成される画像に対する処理例であり、
短時間露光画像、
長時間露光画像、
これら2種類の異なる露光画像を適用してダイナミックレンジを拡張する高ダイナミック化処理とノイズ除去処理を併せて実行するシーケンスを説明している。
First, an outline of the composition processing of images with different exposure times executed in the image processing apparatus will be described with reference to FIG.
The example shown in FIG. 23 is a processing example for an image composed of a sky and a house.
Short exposure image,
Long exposure images,
A sequence is described in which both the high dynamic processing for expanding the dynamic range by applying these two different exposure images and the noise removal processing are executed together.

図23には、上から、
(1)入力画像
(2)前フレームの合成画像
(3)合成画像
(4)更新領域
これらの各図を示している。
時間は左から右に経過し、(1)入力画像は、短時間露光画像(fn1)、長時間露光画像(fn2)、短時間露光画像(fn3)、長時間露光画像(fn4)・・・短時間露光画像(fn(i))、短時間露光画像(fn(i+1))の順番で入力される。
In FIG.
(1) Input image (2) Composite image of previous frame (3) Composite image (4) Update region These figures are shown.
The time elapses from left to right. (1) The input image is a short exposure image (fn1), a long exposure image (fn2), a short exposure image (fn3), a long exposure image (fn4),. The short exposure image (fn (i)) and the short exposure image (fn (i + 1)) are input in this order.

(1)入力画像〜(3)合成画像において、白領域は、白飛び領域、すなわち画素値が飽和画素値となっている領域を示し、黒領域は黒つぶれ領域、すなわち画素値がほぼ0に近い領域を示している。これらの領域の画素値は、無効な画素値の設定領域であると言える。一方、グレー(灰色)領域は有効画素値の設定された有効領域である。
(1)入力画像において、短時間露光画像では、家が黒潰れしており、長時間露光画像では、空が白飛びしている。
(1) In the input image to (3) composite image, the white area indicates a whiteout area, that is, an area where the pixel value is a saturated pixel value, and the black area is a blackened area, that is, the pixel value is almost zero. The close area is shown. It can be said that the pixel values of these areas are invalid pixel value setting areas. On the other hand, the gray area is an effective area in which an effective pixel value is set.
(1) In the input image, the house is crushed in the short-time exposure image, and the sky is white in the long-time exposure image.

また、図中の(4)更新領域には、(3)合成画像の生成処理において実行する画素値の更新領域と非更新領域を示している。白い領域は更新を行う画素領域であり、黒い領域が非更新領域である。   Further, (4) update area in the figure shows an update area and a non-update area of pixel values executed in (3) composite image generation processing. A white area is a pixel area to be updated, and a black area is a non-update area.

白い領域で示す更新領域は、入力画像に含まれる有効画素領域に対応する。この入力画像に含まれる有効画素領域のみを選択して、前フレームで生成した合成画像との合成処理を実行する。具体的には、これら2つの画像の有効画素値設定領域のみを利用した画素値ブレンドを実行して高ダイナミックレンジ化処理とノイズ低減処理を実行する。(4)更新領域に示す黒い領域は、非更新領域であり、前フレームで生成した合成画像の画素値をそのまま出力する。   An update area indicated by a white area corresponds to an effective pixel area included in the input image. Only the effective pixel area included in the input image is selected, and the synthesis process with the synthesized image generated in the previous frame is executed. Specifically, pixel value blending using only the effective pixel value setting area of these two images is executed, and high dynamic range processing and noise reduction processing are executed. (4) A black area shown in the update area is a non-update area, and the pixel value of the composite image generated in the previous frame is output as it is.

このような処理によって、ノイズ低減と高ダイナミックレンジ化処理を併せて実行した合成画像、すなわち図に示す(3)合成画像を順次、生成して出力する。
図23に示すように、露光の1周期目(最初の2フレーム)にはダイナミックレンジを拡張する高ダイナミックレンジ化処理のみを行い、2周期目(3フレーム目以降)から入力画像に対応した領域にノイズ除去処理を施すことで、ダイナミックレンジ拡張処理とノイズ除去処理の統合を実現している。
By such processing, a composite image obtained by performing both noise reduction and high dynamic range processing, that is, (3) composite image shown in the figure is sequentially generated and output.
As shown in FIG. 23, only the high dynamic range process for expanding the dynamic range is performed in the first cycle of exposure (first two frames), and the area corresponding to the input image from the second cycle (after the third frame). By applying noise removal processing to the dynamic range, integration of dynamic range expansion processing and noise removal processing is realized.

露光の1周期目は、各入力画像に対して露光比に応じた露出補正を実行し、露出補正画像同士の合成処理によってダイナミック拡張処理を行なう。露光の2周期目以降も同様に、各入力画像を露光比倍にゲインアップしたものを合成に用いるが、2周期目以降は、ダイナミックレンジ拡張処理に加えてノイズ除去処理も同時に行う。   In the first cycle of exposure, exposure correction corresponding to the exposure ratio is performed on each input image, and dynamic expansion processing is performed by combining exposure corrected images. Similarly, in the second and subsequent exposure cycles, the gains obtained by increasing the input images by the exposure ratio are used for synthesis. In the second and subsequent cycles, noise removal processing is simultaneously performed in addition to dynamic range expansion processing.

露光の2周期目以降に取得できる合成画像には、各露光画像の成分が含まれている。この特徴を利用して、各入力画像の有効領域でのみノイズ除去処理を行い、その他の領域は前フレームの合成画像の画素値をそのまま適用して合成画像を生成する。   The composite image that can be acquired after the second exposure cycle contains the components of each exposure image. Using this feature, noise removal processing is performed only in the effective area of each input image, and the pixel value of the synthesized image of the previous frame is applied as it is to other areas to generate a synthesized image.

例えば、左から3番目の入力画像fn3(短時間露光画像)の入力時には、この入力画像fn3の有効画素領域、すなわち、黒つぶれとなっている「家領域」以外の「空領域」の画素値を利用して、前フレームの合成画像fn2の「空領域」の画素値との合成処理を実行して、「空領域」のみのノイズ除去処理を行う。   For example, when the third input image fn3 (short-time exposure image) from the left is input, the effective pixel region of the input image fn3, that is, the pixel value of the “empty region” other than the “home region” that is blacked out. Is used to perform the synthesizing process with the pixel value of the “empty area” of the synthesized image fn2 of the previous frame, and the noise removal process for only the “empty area” is performed.

また、左から4番目の入力画像fn4(長時間露光画像)が入力された場合には、この入力画像の有効画素領域、すなわち白飛びしている「空領域」を除く「家領域」の画素値を利用して、前フレームの合成画像fn3の「家領域」の画素値との合成処理を実行して、「家領域」のみのノイズ除去処理を行う。
これらの処理を繰り返すことで、ダイナミックレンジ拡張処理とノイズ除去処理の統合処理を実現している。
When the fourth input image fn4 (long-time exposure image) from the left is input, the effective pixel area of this input image, that is, the pixels of the “house area” excluding the “empty area” that is overexposed. Using the value, a synthesis process with the pixel value of the “house region” of the synthesized image fn3 of the previous frame is executed, and a noise removal process for only the “house region” is performed.
By repeating these processes, integrated processing of dynamic range expansion processing and noise removal processing is realized.

この統合処理における各フレームの合成結果画像は、入力画像の露光成分に応じてノイズ除去の処理が施される領域が異なるため、露光の周期1セットが終わるごとに、画像の全領域においてダイナミックレンジ拡張処理とノイズ除去処理が施されたことになる。
以下に説明する実施例において、「合成処理」は、上記の処理、すなわちダイナミックレンジの拡張処理である高ダイナミックレンジ化処理とノイズ除去処理を実現する合成処理である。
Since the combined image of each frame in this integration process has a different area for noise removal depending on the exposure component of the input image, the dynamic range in the entire area of the image every time one set of exposure cycles is completed. The expansion process and the noise removal process are performed.
In the embodiment described below, the “combining process” is a combining process that realizes the above-described process, that is, a dynamic range expansion process and a noise removal process that are dynamic range expansion processes.

[2−3.本開示に従ったノイズ低減と高ダイナミックレンジ画像生成を併せて実行する実施例(実施例6)]
以下、本開示に従った画像処理装置の実施例6として、ノイズ低減と高ダイナミックレンジ画像生成を併せて実行する画像処理装置の実施例について説明する。
図24に、実施例6の画像処理装置の主要部構成を説明する構成図を示す。
[2-3. Embodiment in which Noise Reduction and High Dynamic Range Image Generation According to the Present Disclosure are Performed Together (Embodiment 6)]
Hereinafter, an embodiment of an image processing apparatus that executes both noise reduction and high dynamic range image generation will be described as an embodiment 6 of the image processing apparatus according to the present disclosure.
FIG. 24 is a configuration diagram illustrating the main configuration of the image processing apparatus according to the sixth embodiment.

24に示すように画像処理装置は、フレームメモリ401、露光比補正部402、動き推定部403、動き補償画像生成部404、信号処理部405、フレームメモリ406を有する。   As shown in FIG. 24, the image processing apparatus includes a frame memory 401, an exposure ratio correction unit 402, a motion estimation unit 403, a motion compensated image generation unit 404, a signal processing unit 405, and a frame memory 406.

入力画像411は、
(1)最短時間露光画像XS、
(2)短時間露光画像MS、
(3)長時間露光画像ML、
(4)最長時間露光画像XL、
これらの4つの異なる露光時間の連続撮影画像の周期的入力となる。
露光時間は、以下の関係にある。
XS<MS<ML<XL
上記関係にある。
The input image 411 is
(1) The shortest time exposure image XS,
(2) Short exposure image MS,
(3) Long exposure image ML,
(4) Longest time exposure image XL,
It becomes a periodic input of continuously shot images of these four different exposure times.
The exposure time has the following relationship.
XS <MS <ML <XL
It is in the above relationship.

これらの画像は順次、フレームメモリ401に格納される。
露光比補正部402は、新規入力画像とフレームメモリ401に保持されている前フレームの入力画像の各露光時間情報に基づいて、露光比を補正する。
These images are sequentially stored in the frame memory 401.
The exposure ratio correction unit 402 corrects the exposure ratio based on the exposure time information of the new input image and the input image of the previous frame held in the frame memory 401.

露光比補正された2つの画像は、図24に示すように、露光比補正済み連続撮影2画像412として動き推定部403に入力される。
動き推定部403は、露光比補正済み連続撮影2画像412を入力し、これらの2つの連続撮影画像の画素ブロック単位の類似度判別等のブロックマッチング等により2画像間の動き量を推定し、2画像間の動き情報を示す動きベクトル413を算出して動き補償画像生成部404に出力する。
As shown in FIG. 24, the two images whose exposure ratio is corrected are input to the motion estimator 403 as the exposure ratio-corrected continuous captured two images 412.
The motion estimation unit 403 inputs the exposure ratio-corrected continuously captured two images 412 and estimates the amount of motion between the two images by block matching such as similarity determination in pixel block units of these two continuously captured images. A motion vector 413 indicating motion information between two images is calculated and output to the motion compensated image generation unit 404.

動き補償画像生成部404は、動き推定部403から入力する動きベクトル413を適用して、フレームメモリ406に保持されている前フレームまでの合成結果画像を移動させて入力画像の画像位置に合わせた動き補償画像を生成する。
これにより、前フレームまでの合成結果画像の位置を入力画像の位置に合わせることができる。
The motion compensated image generation unit 404 applies the motion vector 413 input from the motion estimation unit 403, moves the synthesis result image up to the previous frame held in the frame memory 406, and matches it to the image position of the input image. A motion compensated image is generated.
Thereby, the position of the synthesis result image up to the previous frame can be matched with the position of the input image.

信号処理部405は、フレームメモリ401から入力画像を取得し、動き補償画像生成部404から、フレームメモリ406に格納されていた前フレームの合成結果画像に基づく動き補償画像を入力する。
信号処理部405は、これらの2つの画像に基づく合成処理、すなわち先に図23を参照して説明した高ダイナミックレンジ化とノイズ低減処理の双方を含む合成処理を実行する。この合成結果を、図に示すノイズ除去HDR画像415として出力する。
なお、次の処理に適用するため、この処理結果画像は、フレームメモリ406に格納される。
The signal processing unit 405 acquires an input image from the frame memory 401, and inputs a motion compensation image based on the previous frame synthesis result image stored in the frame memory 406 from the motion compensation image generation unit 404.
The signal processing unit 405 executes synthesis processing based on these two images, that is, synthesis processing including both the high dynamic range and the noise reduction processing described above with reference to FIG. The synthesis result is output as a noise-removed HDR image 415 shown in the figure.
Note that this processing result image is stored in the frame memory 406 for application to the next processing.

図24を参照して説明した処理において、異なる露光時間の設定を4とした場合の画像位置合わせシーケンスにいて図25を参照して説明する。
図25には、左から右に時間経過を示す時間軸(t)に沿った、入力画像のシーケンスと、図24の動き補償画像生成部404において実行される動きベクトルに従った動き補償画像生成、すなわち2つの画像の位置合わせ処理の画像の組み合わせを示している。
In the processing described with reference to FIG. 24, an image alignment sequence in the case where the different exposure time is set to 4 will be described with reference to FIG.
FIG. 25 shows motion compensated image generation according to the sequence of input images along the time axis (t) indicating the passage of time from left to right and the motion vector executed in the motion compensated image generation unit 404 in FIG. That is, a combination of images in the alignment processing of two images is shown.

入力画像と、1フレーム前の入力画像の露光時間情報に基づいて露光比補正を行ったあと、2つの画像間で動き推定を行い、動きベクトルを算出する。ここで求めた動きベクトルを使って、1フレーム前までの合成結果画像を入力画像の位置に合わせを行う。
この位置合わせ後の2つの画像を合成することで、ダイナミックレンジ拡張処理とノイズ除去処理を同時処に実行している。この処理によって、画像の位置ズレによるアーティファクトを含まずに、ダイナミックレンジを拡張したノイズノ少ない高S/N比の画像を得ることができる。
After performing exposure ratio correction based on the exposure time information of the input image and the input image one frame before, motion estimation is performed between the two images to calculate a motion vector. Using the motion vector obtained here, the composite result image up to the previous frame is aligned with the position of the input image.
By synthesizing the two images after the alignment, the dynamic range expansion process and the noise removal process are executed simultaneously. By this processing, an image with a high S / N ratio with reduced noise can be obtained by extending the dynamic range without including artifacts due to image misalignment.

[2−4.本開示に従ったノイズ低減と高ダイナミックレンジ画像生成を併せて実行する実施例(実施例7)]
次に、本開示の画像処理装置の実施例7について説明する。
上述した実施例6に従った画像処理装置においては、図25に示すシーケンス図から理解されるように、画像の位置合わせを、異なる露光時間の画像を適用して実行している。露光画像の周期をまたぐ位置合わせを行う際に、最長時間露光画像と最短時間露光画像との間で動き推定を行うことになり、露光比が大きいと動き推定に失敗する可能性が高くなる。
動き推定に失敗すると、例えばIIRフィルタ等を適用したフィルタ処理によるノイズ除去の効果が途切れ、画像が破たんする等の画質劣化につながる可能性がある。
[2-4. Embodiment in which Noise Reduction and High Dynamic Range Image Generation According to the Present Disclosure are Performed Together (Embodiment 7)]
Next, an image processing apparatus according to a seventh embodiment of the present disclosure will be described.
In the image processing apparatus according to the sixth embodiment described above, as understood from the sequence diagram shown in FIG. 25, image alignment is executed by applying images having different exposure times. When performing alignment over the period of the exposure image, motion estimation is performed between the longest exposure image and the shortest exposure image, and if the exposure ratio is large, there is a high possibility that the motion estimation will fail.
If the motion estimation fails, for example, the effect of noise removal by the filter processing using an IIR filter or the like may be interrupted, leading to image quality degradation such as image corruption.

このような問題を解決する構成を以下に実施例7として説明する。
実施例7に従った画像位置合わせシーケンスについて、図26を参照して説明する。
図26には、図25と同様、左から右に時間経過を示す時間軸(t)に沿った、入力画像のシーケンスと、図27に示す本実施例の画像処理装置の動き補償画像生成部404において実行される動きベクトルに従った動き補償画像生成、すなわち2つの画像の位置合わせ処理の画像の組み合わせを示している。
A configuration for solving such a problem will be described below as a seventh embodiment.
An image alignment sequence according to the seventh embodiment will be described with reference to FIG.
26, as in FIG. 25, the sequence of input images along the time axis (t) indicating the passage of time from left to right, and the motion compensated image generation unit of the image processing apparatus of the present embodiment shown in FIG. A motion compensated image generation according to the motion vector executed in 404, that is, a combination of two images for alignment processing is shown.

本実施例では、特定の露光時間画像を基準画像として選択する。例えばN種類の露光時間の画像がある場合、これらのN種類の露光時間中、ほぼ中間の露光時間の画像を基準画像として選択する。
図26に示す例では長時間露光画像MLを基準画像として選択し、この基準画像を図27に示すフレームメモリ401に保持しておき、他の露光画像が入力された際は、入力画像と基準画像間で動き推定を行い、動きベクトルを算出する。ここで求めた動きベクトルを使って、入力画像の画像位置を基準画像の画像位置に合わせる位置合わせ、すなわち動き補償画像を生成する。
この位置合わせ後の2つの画像を合成する。
In this embodiment, a specific exposure time image is selected as a reference image. For example, when there are N types of exposure time images, an image with an intermediate exposure time among these N types of exposure times is selected as the reference image.
In the example shown in FIG. 26, the long-exposure image ML is selected as a reference image, and this reference image is stored in the frame memory 401 shown in FIG. 27. When another exposure image is input, the input image and the reference image Motion estimation is performed between images and a motion vector is calculated. By using the motion vector obtained here, an alignment for matching the image position of the input image with the image position of the reference image, that is, a motion compensated image is generated.
The two images after the alignment are synthesized.

なお、新規入力画像として、フレームメモリ401に格納された基準画像と同じ露光時間の画像が入力された場合は、その新規入力画像を新しい基準画像としてフレームメモリ401の格納画像の更新処理を実行し、それまでの合成結果画像を最新の基準画像の画像位置に合わせて、合成を行う。
これによって、最長時間露光画像と最短時間露光画像との間の動き推定を行わずに処理をすることが可能となり、露光比の大きさによる動き推定の失敗を防ぐことができる。結果として、時間方向に連続して露光している画像に対して、ダイナミックレンジ拡張処理とノイズ除去処理の同時合成を際に、画質を劣化させることなく繰り返し処理を行うことが可能となる。
If an image having the same exposure time as the reference image stored in the frame memory 401 is input as a new input image, the stored image in the frame memory 401 is updated using the new input image as a new reference image. Then, the synthesis result image so far is synthesized according to the image position of the latest reference image.
Accordingly, it is possible to perform processing without estimating the motion between the longest time exposure image and the shortest time exposure image, and it is possible to prevent a motion estimation failure due to the magnitude of the exposure ratio. As a result, it is possible to repeatedly perform an image that is continuously exposed in the time direction without degrading the image quality when the dynamic range expansion process and the noise removal process are simultaneously combined.

なお、図26に示す位置合わせシーケンスは、先に図25を参照して説明したシーケンス、すなわち常に最新の入力画像の位置に合成結果画像を位置合わせする位置合わせシーケンスと異なり、入力画像より過去に入力された基準画像の位置に合成結果画像を位置合わせする処理をすることになる。   The alignment sequence shown in FIG. 26 is different from the sequence described above with reference to FIG. 25, that is, the alignment sequence in which the composite result image is always aligned with the position of the latest input image. A process of aligning the synthesized result image with the position of the input reference image is performed.

本実施例7の画像処理装置の構成と処理について、図27を参照して説明する。
図27に示す画像処理装置は、図24を参照して説明した画像処理装置と同様、フレームメモリ401、露光比補正部402、動き推定部403、動き補償画像生成部404、信号処理部405、フレームメモリ406を有する。
The configuration and processing of the image processing apparatus according to the seventh embodiment will be described with reference to FIG.
The image processing apparatus shown in FIG. 27 is similar to the image processing apparatus described with reference to FIG. 24, and includes a frame memory 401, an exposure ratio correction unit 402, a motion estimation unit 403, a motion compensated image generation unit 404, a signal processing unit 405, A frame memory 406 is included.

入力画像411は、
(1)最短時間露光画像XS、
(2)短時間露光画像MS、
(3)長時間露光画像ML、
(4)最長時間露光画像XL、
これらの4つの異なる露光時間の連続撮影画像の周期的入力となる。
露光時間は、以下の設定である。すなわち、
XS<MS<ML<XL
上記関係にある。
The input image 411 is
(1) The shortest time exposure image XS,
(2) Short exposure image MS,
(3) Long exposure image ML,
(4) Longest time exposure image XL,
It becomes a periodic input of continuously shot images of these four different exposure times.
The exposure time is set as follows. That is,
XS <MS <ML <XL
It is in the above relationship.

これらの画像から、特定の露光時間の画像を基準画像としてフレームメモリ401に格納される。
本例では、
(1)最短時間露光画像XS、
(2)短時間露光画像MS、
(3)長時間露光画像ML、
(4)最長時間露光画像XL、
この4種類の露光時間画像中、「(3)長時間露光画像ML」を選択して、基準画像としてフレームメモリ401に格納する。
From these images, an image having a specific exposure time is stored in the frame memory 401 as a reference image.
In this example,
(1) The shortest time exposure image XS,
(2) Short exposure image MS,
(3) Long exposure image ML,
(4) Longest time exposure image XL,
Among these four types of exposure time images, “(3) long exposure image ML” is selected and stored in the frame memory 401 as a reference image.

露光比補正部402は、新規入力画像とフレームメモリ401に保持されている基準画像の各露光時間情報に基づいて、露光比を補正する。
露光比補正された2つの画像は、図27に示すように、露光比補正済み連続撮影2画像412として動き推定部403に入力される。
動き推定部403は、露光比補正済み連続撮影2画像412を入力し、これらの2つの連続撮影画像の画素ブロック単位の類似度判別等のブロックマッチング等により2画像間の動き量を推定し、2画像間の動き情報を示す動きベクトル413を算出して動き補償画像生成部404に出力する。
The exposure ratio correction unit 402 corrects the exposure ratio based on the exposure time information of the new input image and the reference image held in the frame memory 401.
As shown in FIG. 27, the two images whose exposure ratio is corrected are input to the motion estimator 403 as the exposure ratio-corrected continuous captured two images 412.
The motion estimation unit 403 inputs the exposure ratio-corrected continuously captured two images 412 and estimates the amount of motion between the two images by block matching such as similarity determination in pixel block units of these two continuously captured images. A motion vector 413 indicating motion information between two images is calculated and output to the motion compensated image generation unit 404.

動き補償画像生成部404は、動き推定部403から入力する動きベクトル413を適用して、入力画像を移動させてフレームメモリ401に格納されている基準画像の画像位置に合わせた動き補償画像を生成する。
これにより、入力画像の画像位置を基準画像の位置に合わせることができる。
The motion compensation image generation unit 404 applies the motion vector 413 input from the motion estimation unit 403 to move the input image and generate a motion compensation image that matches the image position of the reference image stored in the frame memory 401. To do.
Thereby, the image position of the input image can be matched with the position of the reference image.

信号処理部405は、動き補償画像生成部404から、入力画像の画像位置を基準画像の位置に合わせた動き補償画像を入力し、さらにフレームメモリ406に格納されていた前フレームの合成結果画像を入力する。
信号処理部405は、これらの2つの画像に基づく合成処理、すなわち先に図23を参照して説明した高ダイナミックレンジ化とノイズ低減処理の双方を含む合成処理を実行する。この合成結果を、図に示すノイズ除去HDR画像415として出力する。
なお、次の処理に適用するため、この処理結果画像は、フレームメモリ406に格納される。
The signal processing unit 405 inputs a motion compensation image obtained by matching the image position of the input image with the position of the reference image from the motion compensation image generation unit 404, and further displays the synthesis result image of the previous frame stored in the frame memory 406. input.
The signal processing unit 405 executes synthesis processing based on these two images, that is, synthesis processing including both the high dynamic range and the noise reduction processing described above with reference to FIG. The synthesis result is output as a noise-removed HDR image 415 shown in the figure.
Note that this processing result image is stored in the frame memory 406 for application to the next processing.

この図27に示す画像処理装置と、先に図24を参照して説明した画像処理装置との違いは、動き補償画像生成部404と、信号処理部405の処理である。すなわち、以下の点が異なっている。   The difference between the image processing apparatus shown in FIG. 27 and the image processing apparatus described above with reference to FIG. 24 is the processing of the motion compensation image generation unit 404 and the signal processing unit 405. That is, the following points are different.

図24に示す実施例6の構成では、動き補償画像生成部404は、動き推定部403から入力する動きベクトル413を適用して、フレームメモリ406に保持されている前フレームまでの合成結果画像を移動させて入力画像の画像位置に合わせた動き補償画像を生成する。
一方、図27に示す実施例7の構成では、動き推定部403から入力する動きベクトル413を適用して、入力画像を移動させてフレームメモリ401に格納されている基準画像の画像位置に合わせた動き補償画像を生成する。
In the configuration of the sixth embodiment illustrated in FIG. 24, the motion compensation image generation unit 404 applies the motion vector 413 input from the motion estimation unit 403, and displays the synthesis result image up to the previous frame held in the frame memory 406. A motion compensated image that is moved to match the image position of the input image is generated.
On the other hand, in the configuration of the seventh embodiment illustrated in FIG. 27, the motion vector 413 input from the motion estimation unit 403 is applied to move the input image to match the image position of the reference image stored in the frame memory 401. A motion compensated image is generated.

また、図24に示す実施例6の構成では、信号処理部405が、フレームメモリ401から入力画像を取得し、動き補償画像生成部404からフレームメモリ406に格納されていた前フレームの合成結果画像に基づく動き補償画像を入力し、これらの2つの画像に基づく画像合成処理を実行してノイズ除去HDR画像415として出力する。
一方、図27に示す実施例7の構成では、信号処理部405は、動き補償画像生成部404から入力画像の画像位置を基準画像の位置に合わせた動き補償画像を入力し、さらにフレームメモリ406に格納されていた前フレームの合成結果画像を入力する。
信号処理部405は、これらの2つの画像に基づく合成処理を実行してノイズ除去HDR画像415として出力する。
In the configuration of the sixth embodiment illustrated in FIG. 24, the signal processing unit 405 acquires an input image from the frame memory 401, and the previous frame synthesis result image stored in the frame memory 406 from the motion compensation image generation unit 404. A motion compensated image based on the image is input, an image synthesis process based on these two images is executed, and output as a noise-removed HDR image 415.
On the other hand, in the configuration of the seventh embodiment illustrated in FIG. 27, the signal processing unit 405 inputs a motion compensation image obtained by matching the image position of the input image with the position of the reference image from the motion compensation image generation unit 404, and further the frame memory 406. The composite image of the previous frame stored in is input.
The signal processing unit 405 performs synthesis processing based on these two images and outputs the resultant as a noise-removed HDR image 415.

次に、上述した実施例7の画像処理の処理シーケンスについて図28、図29に示すフローチャートを参照して説明する。
図28、図29に示す処理は、例えば、図27に示す構成を持つ画像処理装置において、画像処理装置の制御部の制御下で行われる。制御部は画像処理装置のメモリに格納されたプログラムを実行して図28、図29のフローに従った処理の制御を行う。
Next, the processing sequence of the image processing according to the seventh embodiment will be described with reference to the flowcharts shown in FIGS.
The processes shown in FIGS. 28 and 29 are performed under the control of the control unit of the image processing apparatus in the image processing apparatus having the configuration shown in FIG. 27, for example. The control unit executes a program stored in the memory of the image processing apparatus, and controls processing according to the flow of FIGS.

まず、ステップS301において画像を入力する。例えばN種類の異なる露光時間の連続撮影画像中の特定の露光時間の画像を入力する。
次に、ステップS302において、フレームメモリ401に保持してある基準画像を取得し、ステップS303において、フレームメモリ406に保持された前フレーム合成画像を取得する。
First, an image is input in step S301. For example, an image having a specific exposure time among consecutively photographed images having N different exposure times is input.
Next, in step S302, the reference image stored in the frame memory 401 is acquired, and in step S303, the previous frame composite image stored in the frame memory 406 is acquired.

次に、ステップS304において、入力画像の露光時間と基準像像の露光時間を比較し、入力画像の露光時間が基準画像の露光時間と同じか否かを判定する。
入力画像の露光時間と基準画像の露光時間が異なる場合、ステップS305に進み、さらに、入力画像の露光時間が、基準画像の露光時間より長いか否かを判定する。
入力画像の露光時間の方が長い場合、ステップS307において、基準画像に対して露光比補正を行う。
一方、基準画像の露光時間の方が長い場合、ステップS306において、入力画像に対して露光比補正を行う。
これらの露光比補正処理は、図27に示す露光比補正部402において実行する処理である。
この露光比補正によって、入力画像と基準画像の明るさが揃うことになる。
Next, in step S304, the exposure time of the input image is compared with the exposure time of the reference image, and it is determined whether or not the exposure time of the input image is the same as the exposure time of the reference image.
If the exposure time of the input image is different from the exposure time of the reference image, the process proceeds to step S305, and it is further determined whether or not the exposure time of the input image is longer than the exposure time of the reference image.
If the exposure time of the input image is longer, exposure ratio correction is performed on the reference image in step S307.
On the other hand, if the exposure time of the reference image is longer, exposure ratio correction is performed on the input image in step S306.
These exposure ratio correction processes are processes executed in the exposure ratio correction unit 402 shown in FIG.
By this exposure ratio correction, the brightness of the input image and the reference image are made uniform.

次に、ステップS321において、明るさの揃った基準画像と入力画像の間で動き推定を行い、これらの2画像間の移動量に相当する動きベクトルを算出する。
この処理は、図27に示す動き推定部403において実行する処理である。
Next, in step S321, motion estimation is performed between the reference image with uniform brightness and the input image, and a motion vector corresponding to the amount of movement between these two images is calculated.
This process is a process executed in the motion estimation unit 403 shown in FIG.

さらに、ステップS322において、求めた動きベクトルを用いて、入力画像に対して動き補償を行い、動き補償画像を生成する。
この処理は、図27に示す動き補償画像生成部404において実行する処理である。
この動き補償によって、入力画像が基準画像の位置に合わせられたことになる。
ステップS323では、動き補償をした入力画像と、前フレーム合成画像を合成することで、合成画像を生成する。
この処理は、図27に示す信号処理部405の実行する処理である。
ステップS324において、以上の処理で生成された合成画像をフレームメモリに格納し、ステップする。
Further, in step S322, motion compensation is performed on the input image using the obtained motion vector to generate a motion compensated image.
This process is a process executed in the motion compensated image generation unit 404 shown in FIG.
By this motion compensation, the input image is adjusted to the position of the reference image.
In step S323, a synthesized image is generated by synthesizing the input image subjected to motion compensation and the previous frame synthesized image.
This process is a process executed by the signal processing unit 405 shown in FIG.
In step S324, the composite image generated by the above processing is stored in the frame memory and stepped.

一方、ステップS304の判定処理において、入力画像の露光時間と基準画像の露光時間が同じと判定した場合は、ステップS331において、この2つの画像間で動き推定を行い、2画像間の動きを示す動きベクトルを算出する。
この処理は、図27に示す動き推定部403において実行する処理である。
On the other hand, if it is determined in step S304 that the exposure time of the input image and the exposure time of the reference image are the same, in step S331, motion estimation is performed between the two images to indicate the motion between the two images. A motion vector is calculated.
This process is a process executed in the motion estimation unit 403 shown in FIG.

次に、ステップS332において、求めた動きベクトルを用いて、前フレーム合成画像に対する動き補償を行い動き補償画像を生成する。
この処理は、図27に示す動き補償画像生成部404において実行する処理である。
Next, in step S332, using the obtained motion vector, motion compensation is performed on the previous frame composite image to generate a motion compensated image.
This process is a process executed in the motion compensated image generation unit 404 shown in FIG.

さらに、ステップS333において、前フレーム合成画像に基づいて生成した動き補償画像と入力画像を合成することで、合成画像を生成する。
この処理は、図27に示す信号処理部405の実行する処理である。
ステップS334において、入力画像をフレームメモリに格納する。
Further, in step S333, a synthesized image is generated by synthesizing the motion compensated image generated based on the previous frame synthesized image and the input image.
This process is a process executed by the signal processing unit 405 shown in FIG.
In step S334, the input image is stored in the frame memory.

ステップS323の処理、またはステップS334の処理後、ステップS324に進み、ステップS324では、以上の処理で生成された合成画像をフレームメモリに格納し、さらに、ステップS325において生成した合成画像を出力する。   After the process of step S323 or step S334, the process proceeds to step S324. In step S324, the composite image generated by the above process is stored in the frame memory, and the composite image generated in step S325 is output.

[2−5.露光時間の同じ画像同士で動き推定を行う実施例(実施例8)]
次に、本開示の画像処理装置の実施例8として、露光時間の同じ画像同士で動き推定を行う実施例について説明する。
図30は、本実施例8の画像処理装置の構成を示す図である。
入力画像511は、N種類の異なる露光時間の連続撮影画像の周期的入力となる。
これらのN種類の異なる露光画像は、N個のフレームメモリからなるフレームメモリ群501の各フレームメモリ1〜Nに各画像単位で格納する。
すなわち、露光画像の周期1セット分の画像を全てフレームメモリに保持する。
[2-5. Embodiment in which motion estimation is performed between images having the same exposure time (Embodiment 8)]
Next, as an eighth embodiment of the image processing apparatus according to the present disclosure, an embodiment in which motion estimation is performed between images having the same exposure time will be described.
FIG. 30 is a diagram illustrating the configuration of the image processing apparatus according to the eighth embodiment.
The input image 511 is a periodic input of continuously shot images with N different exposure times.
These N kinds of different exposure images are stored for each image in each frame memory 1 to N of the frame memory group 501 composed of N frame memories.
That is, all the images for one set of the period of the exposure image are held in the frame memory.

動き推定部502は、その次の周期の画像が入力された時に、N枚のフレームメモリの中に含まれる入力画像と露光時間が同じ画像との間で動き推定を行い、同一露光画像間動きベクトル512を算出して動きベクトル演算部503に出力する。
動きベクトル演算部503は、動き推定部502から、同一露光画像間動きベクトル512を入力し、この同一露光画像間動きベクトル512に基づいて、異なる露光時間の連続撮影2画像間の動き量を示す連続撮影画像間動きベクトル513を算出して、動き補償画像精製部504に出力する。動きベクトル演算部512は、例えば、動き推定部502の算出した動きベクトルに対する線型演算により、動き補償画像生成部504における動き補償画像の生成に適用する動きベクトルを算出する。
When an image of the next period is input, the motion estimation unit 502 performs motion estimation between the input image included in the N frame memories and the image having the same exposure time, and moves between the same exposure images. The vector 512 is calculated and output to the motion vector calculation unit 503.
The motion vector calculation unit 503 inputs the motion vector 512 between the same exposure images from the motion estimation unit 502, and indicates the motion amount between two consecutively shot images with different exposure times based on the motion vector 512 between the same exposure images. A motion vector 513 between continuously shot images is calculated and output to the motion compensated image refiner 504. The motion vector calculation unit 512 calculates a motion vector to be applied to generation of a motion compensated image in the motion compensated image generation unit 504, for example, by linear calculation on the motion vector calculated by the motion estimation unit 502.

動き推定部502の算出する同一露光画像間動きベクトル512と、
動きベクトル演算部503の算出する連続撮影画像間動きベクトル513との関係について図31を参照して説明する。
図31に示すように、動き推定部502の算出する同一露光画像間動きベクトル512は、動きベクトル演算部503の算出する連続撮影画像間動きベクトル513の集合であると考えることができる。
A motion vector 512 between the same exposure images calculated by the motion estimation unit 502;
The relationship with the continuous captured image motion vector 513 calculated by the motion vector calculation unit 503 will be described with reference to FIG.
As shown in FIG. 31, the motion vector 512 between the same exposure images calculated by the motion estimation unit 502 can be considered as a set of motion vectors 513 between continuously shot images calculated by the motion vector calculation unit 503.

すなわち、動き推定によって求めた露光時間が同じ画像同士の動きベクトルに対して線形演算することで、そのベクトルに含まれる、露光時間が異なる画像同士の動きベクトルを求めることができる。   That is, by performing a linear operation on motion vectors between images having the same exposure time obtained by motion estimation, motion vectors between images having different exposure times included in the vector can be obtained.

なお、動きベクトル演算部503の実行するベクトルの演算に関しては、露光枚数や露光比を利用して分割する方法等が適用できる。また、求めた動きベクトルを保持しておけば、過去のベクトル情報を利用して算出する方法等も適用でき、露光時間が同じ画像同士で求めた動きベクトルから、露光時間が異なる画像間の動きベクトルを算出する方法は特に限定されるものではない。   For vector calculation executed by the motion vector calculation unit 503, a method of dividing using the number of exposures or an exposure ratio can be applied. In addition, if the obtained motion vector is retained, a method of calculating using past vector information can be applied, and the motion between images with different exposure times can be applied from the motion vector obtained with the same exposure time. The method for calculating the vector is not particularly limited.

図30に示す画像処理装置の構成を参照して、処理シーケンスについて説明する。
画像撮像が開始されてから最初に位置合わせを行うN+1枚目の画像(最短時間露光画像)が入力された際の処理について説明する。
The processing sequence will be described with reference to the configuration of the image processing apparatus shown in FIG.
A process when the (N + 1) th image (shortest time exposure image) for which alignment is first performed after the start of imaging is input will be described.

まず、動き推定部502は、入力画像である最短時間露光画像と1枚目の入力画像(最短時間露光画像)が保持されているフレームメモリ1の格納画像との間で動き推定を行い、同一露光画像間動きベクトル512を算出して動きベクトル演算部503に出力する。   First, the motion estimator 502 performs motion estimation between the shortest time exposure image that is an input image and the stored image of the frame memory 1 that holds the first input image (shortest time exposure image). An inter-exposure image motion vector 512 is calculated and output to the motion vector calculation unit 503.

動きベクトル演算部503は、同一露光画像間動きベクトル512を入力して、フレームメモリ1とフレームメモリ2に格納された連続撮影画像の間、すなわち露光が異なる画像間の動きベクトルを求める。ここで求めた動きベクトルを連続撮影画像間動きベクトル513として動き補償画像生成部504に出力する。   The motion vector calculation unit 503 receives the motion vector 512 between the same exposure images, and obtains a motion vector between continuously shot images stored in the frame memory 1 and the frame memory 2, that is, between images having different exposures. The motion vector obtained here is output to the motion compensated image generation unit 504 as a motion vector 513 between continuously shot images.

動き補償画像生成部504は、フレームメモリ1の格納画像の画像位置を、フレームメモリ2の格納画像の画像位置に合わせた動き補償画像514を生成する。
動き補償画像生成部504は、生成した動き補償画像514を信号処理部505に出力する。
The motion compensated image generation unit 504 generates a motion compensated image 514 in which the image position of the stored image in the frame memory 1 is matched with the image position of the stored image in the frame memory 2.
The motion compensation image generation unit 504 outputs the generated motion compensation image 514 to the signal processing unit 505.

信号処理部505は、フレームメモリ2に格納された画像と、動き補償画像生成部504の生成した動き補償画像514の合成処理を実行してノイズ除去HDR画像515を生成して出力する。出力画像は、フレームメモリ505に格納する。
以下、N種類の露光時間の各画像、すなわち、同一の露光時間の入力画像とフレームメモリ格納画像との間で同様の処理を繰り返し実行する。
The signal processing unit 505 performs synthesis processing of the image stored in the frame memory 2 and the motion compensation image 514 generated by the motion compensation image generation unit 504 to generate and output a noise-removed HDR image 515. The output image is stored in the frame memory 505.
Hereinafter, the same processing is repeatedly executed between each image having N types of exposure times, that is, an input image having the same exposure time and an image stored in the frame memory.

図32は、N+2枚目以降の画像が入力される際、すなわち図30を参照して説明した処理の後に連続入力する画像に対する処理を説明する図である。
画像撮像が開始されてからN+2枚目の画像(第2短時間露光画像)が入力された際の処理について説明する。
FIG. 32 is a diagram for describing processing for images that are continuously input when the N + 2nd and subsequent images are input, that is, after the processing described with reference to FIG. 30.
A process when the (N + 2) th image (second short-exposure image) is input after the image capturing is started will be described.

まず、動き推定部502は、入力画像である第2短時間露光画像と同一の露光時間の画像(第2短時間露光画像)が保持されているフレームメモリ2の格納画像との間で動き推定を行い、同一露光画像間動きベクトル512を算出して動きベクトル演算部503に出力する。   First, the motion estimation unit 502 estimates motion between the second short-exposure image that is an input image and the stored image in the frame memory 2 that holds the same exposure time image (second short-exposure image). The same exposure image motion vector 512 is calculated and output to the motion vector calculation unit 503.

動きベクトル演算部503は、同一露光画像間動きベクトル512を入力して、フレームメモリ2とフレームメモリ3に格納された連続撮影画像の間、すなわち露光が異なる画像間の動きベクトルを求める。ここで求めた動きベクトルを連続撮影画像間動きベクトル513として動き補償画像生成部504に出力する。   The motion vector calculation unit 503 receives the motion vector 512 between the same exposure images, and obtains a motion vector between the continuously shot images stored in the frame memory 2 and the frame memory 3, that is, between images with different exposures. The motion vector obtained here is output to the motion compensated image generation unit 504 as a motion vector 513 between continuously shot images.

動き補償画像生成部504は、動きベクトル513を適用してフレームメモリ506の格納画像の画像位置を、フレームメモリ3の格納画像の画像位置に合わせた動き補償画像514を生成する。
動き補償画像生成部504は、生成した動き補償画像514を信号処理部505に出力する。
The motion compensated image generation unit 504 applies the motion vector 513 to generate a motion compensated image 514 that matches the image position of the stored image in the frame memory 506 with the image position of the stored image in the frame memory 3.
The motion compensation image generation unit 504 outputs the generated motion compensation image 514 to the signal processing unit 505.

信号処理部505は、フレームメモリ3に格納された画像と、動き補償画像生成部504の生成した動き補償画像514の合成処理を実行してノイズ除去HDR画像515を生成して出力する。出力画像は、フレームメモリ505に格納する。
以下、N種類の露光時間の各画像、すなわち、同一の露光時間の入力画像とフレームメモリ格納画像との間で同様の処理を繰り返し実行する。
これらの処理によって、動き推定を行う画像間の露光比によらず、画像の位置ズレによるアーティファクトを含まずに、ダイナミックレンジを拡張した高S/N画像を得ることができる。
The signal processing unit 505 performs synthesis processing of the image stored in the frame memory 3 and the motion compensation image 514 generated by the motion compensation image generation unit 504 to generate and output a noise-removed HDR image 515. The output image is stored in the frame memory 505.
Hereinafter, the same processing is repeatedly executed between each image having N types of exposure times, that is, between an input image having the same exposure time and a frame memory stored image.
With these processes, it is possible to obtain a high S / N image with an expanded dynamic range without including artifacts due to image misregistration regardless of the exposure ratio between images for which motion estimation is performed.

本実施例の画像処理装置の処理シーケンスについて、図33に示すフローチャートを参照して説明する。
図33に示す処理は、例えば、図30、図32に示す構成を持つ画像処理装置において、画像処理装置の制御部の制御下で行われる。制御部は画像処理装置のメモリに格納されたプログラムを実行して図33のフローに従った処理の制御を行う。
A processing sequence of the image processing apparatus according to the present embodiment will be described with reference to a flowchart shown in FIG.
The process shown in FIG. 33 is performed under the control of the control unit of the image processing apparatus in the image processing apparatus having the configuration shown in FIGS. 30 and 32, for example. The control unit executes a program stored in the memory of the image processing apparatus to control processing according to the flow of FIG.

まず、ステップS401において画像を入力する。例えばN種類の異なる露光時間の連続撮影画像中の特定の露光時間の画像を入力する。
次に、ステップS402において、入力画像が連続撮影されるN枚の異なる露光時間の露光画像セットの1周期目であるか否かの判定を行う。
1周期目である場合、ステップS421に進み、取得した入力画像をフレームメモリに格納し、次フレームの入力画像を取得する処理へ戻る。
すなわち、入力画像が露光セットの2周期目に入るまでは、異なる露光時間で撮像した入力画像をそれぞれフレームメモリに保持する処理を繰り返す。
First, an image is input in step S401. For example, an image having a specific exposure time among consecutively photographed images having N different exposure times is input.
Next, in step S402, it is determined whether or not the input image is the first cycle of an exposure image set of N different exposure times that are continuously captured.
If it is the first cycle, the process proceeds to step S421, the acquired input image is stored in the frame memory, and the process returns to the process of acquiring the input image of the next frame.
That is, until the input image enters the second period of the exposure set, the process of holding the input images captured at different exposure times in the frame memory is repeated.

入力画像が2周期目以降になると、入力された画像と同じ露光時間で撮像された過去の入力画像がフレームメモリに格納済みになる。
このような状態において新しく画像が入力されると、ステップS403以下の処理が開始される。
When the input image is in the second cycle or later, the past input image captured with the same exposure time as the input image is already stored in the frame memory.
When a new image is input in such a state, the processing from step S403 is started.

ステップS403において、入力画像と同じ露光時間で撮像された過去入力画像(以降、同露光過去入力画像と記述する)をフレームメモリから取得する。
次に、ステップS404において、取得した同露光過去入力画像と入力画像の間で動き推定を行う。
次に、ステップS405において、露光セット1周期分の動きベクトル、すなわち、同一露光画像間動きベクトルを算出する。
この処理は、図30、図32に示す動き推定部502の実行する処理である。
ステップS406では、入力画像をフレームメモリに格納する。
In step S403, a past input image (hereinafter referred to as the same exposure past input image) captured with the same exposure time as the input image is acquired from the frame memory.
Next, in step S404, motion estimation is performed between the acquired past exposure past input image and the input image.
Next, in step S405, a motion vector for one exposure set period, that is, a motion vector between the same exposure images is calculated.
This process is a process executed by the motion estimation unit 502 shown in FIGS.
In step S406, the input image is stored in the frame memory.

次にステップS407において、同一露光画像間動きベクトルに基づいて、連続撮影画像間動きベクトルを算出する。この動きベクトル演算で、露光時間の異なる入力画像(以降、異露光過去入力画像と記述する)の間の動きベクトルを求める。
この処理は、図30、図32に示す動きベクトル演算部503の実行する処理である。
In step S407, based on the same exposure image motion vector, a continuous captured image motion vector is calculated. With this motion vector calculation, a motion vector between input images having different exposure times (hereinafter referred to as different exposure past input images) is obtained.
This process is a process executed by the motion vector calculation unit 503 shown in FIGS.

次に、ステップS408において、前フレーム合成画像を取得し、ステップS409において、異露光過去入力画像をフレームメモリから取得する。
次に、ステップS410において、フレームメモリから取得した前フレーム合成画像に対して、ステップS407で算出した連続撮影画像間動きベクトルを用いて動き補償を行い、動き補償画像を生成する。
この処理は、図30、図32に示す動き補償画像生成部504の実行する処理である。
前フレーム合成画像は、同露光過去入力画像と同じ位置にあるので、この動き補償によって、前フレーム合成画像が異露光過去入力画像の位置に合わせられたことになる。
Next, in step S408, the previous frame composite image is acquired, and in step S409, the different exposure past input image is acquired from the frame memory.
Next, in step S410, motion compensation is performed on the previous frame composite image acquired from the frame memory using the motion vector between consecutive captured images calculated in step S407, thereby generating a motion compensated image.
This process is a process executed by the motion compensated image generation unit 504 shown in FIGS. 30 and 32.
Since the previous frame composite image is at the same position as the same exposure past input image, the previous frame composite image is aligned with the position of the different exposure past input image by this motion compensation.

次に、ステップS411において、動き補償した前フレーム合成画像と、異露光過去入力画像を合成して、合成画像を生成する。
この処理は、図30、図32に示す信号処理部505の実行する処理である。
ステップS412において、以上の処理で生成した合成画像をフレームメモリに格納し、ステップS413において生成した合成画像を出力する。
Next, in step S411, the motion-compensated previous frame composite image and the different exposure past input image are combined to generate a composite image.
This process is a process executed by the signal processing unit 505 shown in FIGS.
In step S412, the composite image generated by the above processing is stored in the frame memory, and the composite image generated in step S413 is output.

上述した実施例6,7、すなわち複数画像の合成によるノイズ低減と、高ダイナミックレンジ化処理を併せて実行する実施例の画像処理装置の処理によって、例えば以下の効果がもたらされる。
最短時間露光画像と最長時間露光画像の露光比に関わらず、動きズレによるアーティファクトを含まずに逐次的にダイナミックレンジ拡張処理とノイズ除去処理を行うことが可能となる。これによって、動き推定の失敗を避けることができ、画質を劣化させることなくダイナミックレンジ拡張処理とノイズ除去処理の統合を行うことが可能となる。
For example, the following effects are brought about by the processing of the image processing apparatus according to the sixth and seventh embodiments, that is, the noise reduction by combining a plurality of images and the high dynamic range processing.
Regardless of the exposure ratio between the shortest time exposure image and the longest time exposure image, it is possible to sequentially perform dynamic range expansion processing and noise removal processing without including artifacts due to motion shift. As a result, failure in motion estimation can be avoided, and dynamic range expansion processing and noise removal processing can be integrated without degrading image quality.

また、露光時間が同じ画像同士でのみ動き推定を行うことで、連続する画像間の露光比にも関わらず、動き推定の失敗を避けることができる。求めた動きベクトル情報を演算することで、ダイナミックレンジ拡張処理とノイズ除去処理の各処理で必要となる動きベクトル情報を1つの動き推定ブロック・動き補償ブロックで実現することができ、それはすなわち少ない回路規模、消費電力でダイナミックレンジ拡張処理とノイズ除去処理の統合を行うことが可能となる。   In addition, by performing motion estimation only between images having the same exposure time, failure in motion estimation can be avoided regardless of the exposure ratio between consecutive images. By calculating the obtained motion vector information, the motion vector information necessary for each of the dynamic range expansion processing and noise removal processing can be realized with one motion estimation block / motion compensation block, that is, with a small number of circuits. It is possible to integrate dynamic range expansion processing and noise removal processing with scale and power consumption.

[3.画像処理装置の全体構成例について]
最後に、上述した各実施例に従った処理を実行する画像処理装置の全体構成例について説明する。
図34は、本開示の画像処理装置の一実施例としての撮像装置600の構成例を示す図である。光学レンズ601を介して入射される光は撮像部、例えばCMOSイメージセンサなどによって構成される撮像デバイス602に入射し、光電変換による画像データを出力する。出力画像データは画像処理部603に入力される。
[3. Example of overall configuration of image processing apparatus]
Finally, an overall configuration example of an image processing apparatus that executes processing according to the above-described embodiments will be described.
FIG. 34 is a diagram illustrating a configuration example of an imaging apparatus 600 as an embodiment of the image processing apparatus of the present disclosure. Light incident through the optical lens 601 enters an imaging device 602 including an imaging unit, for example, a CMOS image sensor, and outputs image data by photoelectric conversion. The output image data is input to the image processing unit 603.

画像処理部603は、上述した各実施例に従った処理、すなわち複数画像の合成処理を伴う出力画像の生成処理を実行する。さらに、画像処理部603は、撮像データに対する一般的なカメラ信号処理、例えば、ホワイトバランス(WB)調整、ガンマ補正等の信号処理も実行して、出力画像620を生成する。出力画像620は図示しない記憶部に格納される。あるいは表示部に出力される。   The image processing unit 603 executes a process according to each of the above-described embodiments, that is, an output image generation process involving a combination process of a plurality of images. Furthermore, the image processing unit 603 also performs general camera signal processing on the captured data, for example, signal processing such as white balance (WB) adjustment and gamma correction, and generates an output image 620. The output image 620 is stored in a storage unit (not shown). Or it outputs to a display part.

制御部605は、例えばメモリ606に格納されたプログラムに従って各部に制御信号を出力し、各種の処理の制御を行う。   The control unit 605 outputs a control signal to each unit according to a program stored in the memory 606, for example, and controls various processes.

[4.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
[4. Summary of composition of the present disclosure]
As described above, the embodiments of the present disclosure have been described in detail with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present disclosure. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present disclosure, the claims should be taken into consideration.

なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1)異なるタイミングの撮影画像である第1画像と第2画像の二画像間の動き量を推定する動き推定部と、
前記動き推定部の推定した動き量に基づいて、前記第2画像を第1画像の位置に合わせる動き補償処理を実行して動き補償画像を生成する動き補償画像生成部と、
前記動き補償画像と、前記第1画像との合成処理により合成画像を生成する信号処理部を有し、
前記動き補償画像生成部は、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成する画像処理装置。
The technology disclosed in this specification can take the following configurations.
(1) a motion estimation unit that estimates a motion amount between two images of a first image and a second image that are captured images at different timings;
A motion compensated image generating unit that generates a motion compensated image by executing a motion compensation process for aligning the second image with the position of the first image based on the motion amount estimated by the motion estimator;
A signal processing unit that generates a synthesized image by synthesizing the motion compensation image and the first image;
The motion compensation image generation unit is an image processing device that generates a motion compensation image using a selected image selected according to a predetermined image selection criterion.

(2)前記画像処理装置は、入力画像が動き推定に好適な適格画像であるか否かを判定する動き推定好適度判定部を有し、前記動き推定好適度判定部は、前記入力画像が適格画像である場合に限り、該入力画像を前記動き推定に適用する参照画像としてフレームメモリに格納する制御を実行し、前記動き推定部は、前記フレームメモリに格納された参照画像を適用した動き推定を実行し、前記動き補償画像生成部は、前記参照画像を利用した動き補償画像を生成する前記(1)に記載の画像処理装置。   (2) The image processing apparatus includes a motion estimation suitability determination unit that determines whether or not the input image is a qualified image suitable for motion estimation, and the motion estimation suitability determination unit includes: Only when it is a qualified image, control is performed to store the input image in a frame memory as a reference image to be applied to the motion estimation, and the motion estimation unit applies a motion to which the reference image stored in the frame memory is applied. The image processing apparatus according to (1), wherein estimation is performed, and the motion compensation image generation unit generates a motion compensation image using the reference image.

(3)前記動き推定部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像が適格画像であると判定される場合に、該入力画像と前記参照画像を適用した動き推定を実行する前記(2)に記載の画像処理装置。
(4)前記動き推定部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像が動き推定に好適でない不適格画像であると判定される場合に、該入力画像と前記参照画像を適用した動き推定を実行せず、前記動き推定部において動き推定が実行されない場合、予め規定したアルゴリズムに従って決定する例外動き量を前記動き補償画像生成部に出力する動き量補正部を有する前記(3)に記載の画像処理装置。
(3) The motion estimation unit inputs determination information indicating whether or not the input image is a qualified image as determination information of the motion estimation appropriateness determination unit, and based on the determination information, the input image The image processing apparatus according to (2), wherein when the image is determined to be a qualified image, motion estimation is performed by applying the input image and the reference image.
(4) The motion estimation unit inputs determination information indicating whether or not the input image is a qualified image as determination information of the motion estimation appropriateness determination unit, and based on the determination information, the input image Is determined not to be suitable for motion estimation, the motion estimation using the input image and the reference image is not performed, and the motion estimation is not performed in the motion estimation unit. The image processing apparatus according to (3), further including a motion amount correction unit that outputs an exceptional motion amount determined according to an algorithm to the motion compensated image generation unit.

(5)前記信号処理部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像に対する信号処理を実行する前記(2)〜(4)いずれかに記載の画像処理装置。
(6)前記動き推定好適度判定部は、前記入力画像中のぼけ領域、飽和画素領域、ノイズの大きい領域の少なくともいずれか、または入力画像撮影時のカメラの動き、または入力画像の輝度範囲のいずれかの指標を適用して入力画像が動き推定に好適な画像であるか否かの判定処理を実行する前記(2)〜(5)いずれかに記載の画像処理装置。
(5) The signal processing unit inputs determination information indicating whether or not the input image is a qualified image as determination information of the motion estimation appropriateness determination unit, and based on the determination information, the input image The image processing apparatus according to any one of (2) to (4), wherein the signal processing is performed on the image.
(6) The motion estimation suitability determination unit may determine at least one of a blurred area, a saturated pixel area, and a noisy area in the input image, a camera movement at the time of capturing the input image, or a luminance range of the input image. The image processing apparatus according to any one of (2) to (5), wherein any one of the indices is applied to execute a determination process as to whether or not the input image is an image suitable for motion estimation.

(7)前記動き推定好適度判定部は、前記入力画像として、異なる露光時間に設定された連続撮影画像を入力する場合、各露光画像の有効画素値面積を比較してより広い有効画素面積を持つ画像を前記フレームメモリに格納する参照画像とする制御を行う前記(2)〜(6)いずれかに記載の画像処理装置。
(8)前記画像処理装置は、さらに、前記フレームメモリに格納された画像を基準画像として、該基準画像の画像位置に入力画像の画像位置を合わせるために実行する動き推定方向の切り替え処理を実行する動き推定方向切り替え部を有する前記(2)〜(7)いずれかに記載の画像処理装置。
(7) When the continuous estimation image set to different exposure time is input as the input image, the motion estimation appropriateness determination unit compares the effective pixel value areas of the exposure images to obtain a wider effective pixel area. The image processing apparatus according to any one of (2) to (6), wherein control is performed so that an image having the reference image stored in the frame memory is a reference image.
(8) The image processing apparatus further executes a motion estimation direction switching process executed to match the image position of the input image with the image position of the reference image using the image stored in the frame memory as the reference image. The image processing device according to any one of (2) to (7), further including: a motion estimation direction switching unit that performs the operation.

(9)前記画像処理装置は、さらに、前記入力画像として、異なる露光時間に設定された連続撮影画像を入力し、露光比補正を実行する露光比補正部を有し、前記動き推定部は、前記露光比補正部において露光比補正の施された連続撮影画像間の動き推定を実行して、該連続撮影画像間の動き量を算出し、前記動き補償画像生成部は、前記動き量を利用して、前記連続撮影画像の一方の画像位置を他方の画像位置に合わせた動き補償画像を生成し、前記信号処理部は、前記動き補償画像と、フレームメモリに格納した基準画像との合成処理を実行する前記(1)〜(8)いずれかに記載の画像処理装置。   (9) The image processing apparatus further includes an exposure ratio correction unit that inputs continuous shot images set at different exposure times as the input image and executes exposure ratio correction, and the motion estimation unit includes: The exposure ratio correction unit performs motion estimation between continuously shot images subjected to exposure ratio correction, calculates a motion amount between the continuously shot images, and the motion compensated image generation unit uses the motion amount. Then, a motion compensated image in which one image position of the continuously shot image is matched with the other image position is generated, and the signal processing unit combines the motion compensated image and a reference image stored in a frame memory. The image processing apparatus according to any one of (1) to (8), wherein:

(10)前記フレームメモリに格納する基準画像は、予め定めた所定の露光時間の画像であり、前記露光比補正部は、前記入力画像と、前記フレームメモリに格納した基準画像間の露光比補正を実行し、前記動き推定部は、前記露光比補正部において露光比補正の施された入力画像と基準画像との動き推定を実行する前記(9)に記載の画像処理装置。
(11)前記動き推定部は、同一露光時間に設定された画像間の動きベクトルを算出し、前記動き推定部の算出した動きベクトルを入力し、該動きベクトルに対する線型演算により、前記動き補償画像生成部における動き補償画像の生成に適用する動きベクトルを算出する動きベクトル演算部を有する前記(9)または(10)に記載の画像処理装置。
(10) The reference image stored in the frame memory is an image having a predetermined exposure time, and the exposure ratio correction unit corrects the exposure ratio between the input image and the reference image stored in the frame memory. The image processing apparatus according to (9), wherein the motion estimation unit executes motion estimation between an input image that has been subjected to exposure ratio correction and a reference image in the exposure ratio correction unit.
(11) The motion estimation unit calculates a motion vector between images set at the same exposure time, inputs the motion vector calculated by the motion estimation unit, and performs linear computation on the motion vector to perform the motion compensation image. The image processing apparatus according to (9) or (10), further including a motion vector calculation unit that calculates a motion vector to be applied to generation of a motion compensated image in the generation unit.

さらに、上記した装置およびシステムにおいて実行する処理の方法や、処理を実行させるプログラムも本開示の構成に含まれる。   Furthermore, the configuration of the present disclosure includes a method of processing executed in the above-described apparatus and system, and a program for executing the processing.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run. For example, the program can be recorded in advance on a recording medium. In addition to being installed on a computer from a recording medium, the program can be received via a network such as a LAN (Local Area Network) or the Internet and can be installed on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本開示の一実施例の構成によれば、高精度な動き推定による動き補償画像を適用した画像の合成処理により、高品質なノイズ低減や高ダイナミックレンジ画像等を生成する構成が実現される。
具体的には、画像間の動き量を推定し、一方の画像を他方の画像の位置に合わせる動き補償処理を実行して動き補償画像を生成し、動き補償画像と位置合わせされた画像との合成処理によりノイズ低減等の施された画像を生成する。動き補償画像生成部は、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成する。例えば、入力画像が動き推定に好適な適格画像であるか否かを判定する動き推定好適度判定部を有し、入力画像が適格画像である場合に限り、該入力画像を動き推定に適用する参照画像としてフレームメモリに格納する。
これらの処理により、高精度な動き推定による動き補償画像を適用した画像の合成処理により、品質の高いノイズ低減や高ダイナミックレンジ画像を生成することが可能となる。
As described above, according to the configuration of an embodiment of the present disclosure, high-quality noise reduction, a high dynamic range image, and the like are generated by image synthesis processing using a motion-compensated image based on highly accurate motion estimation. The configuration to be realized is realized.
Specifically, the amount of motion between the images is estimated, a motion compensation image is generated by matching one image with the position of the other image, and a motion compensated image is generated. An image subjected to noise reduction or the like is generated by the synthesis process. The motion compensated image generation unit generates a motion compensated image using a selected image selected according to a predetermined image selection criterion. For example, a motion estimation suitability determination unit that determines whether or not an input image is a qualified image suitable for motion estimation, and applies the input image to motion estimation only when the input image is a qualified image It is stored in the frame memory as a reference image.
With these processes, high-quality noise reduction and a high dynamic range image can be generated by image synthesis processing using a motion compensated image based on highly accurate motion estimation.

111 静止領域検出部
112 画素値補正部
201 フレームメモリ
202 動き推定好適度判定部
203 動き推定部
204 動き量補正部
205 動き補償画像生成部
206 信号処理部
207 フレームメモリ格納画像更新制御スイッチ
251 動き推定方向切り替え部
331〜334 フレームメモリ
335 高ダイナミックレンジ画像生成部
336 ノイズ除去部
337 フレームメモリ
341 ノイズ除去部
351〜354 フレームメモリ
355 高ダイナミックレンジ画像生成部
401 フレームメモリ
402 露光比補正部
403 動き推定部
404 動き補償画像生成部
405 信号処理部
406 フレームメモリ
501 フレームメモリ群
502 動き推定部
503 動きベクトル演算部
504 動き補償画像生成部
505 信号処理部
506 フレームメモリ
600 撮像装置
601 光学レンズ
602 撮像デバイス
603 画像処理部
605 制御部
606 メモリ
DESCRIPTION OF SYMBOLS 111 Still region detection part 112 Pixel value correction | amendment part 201 Frame memory 202 Motion estimation suitable degree determination part 203 Motion estimation part 204 Motion amount correction | amendment part 205 Motion compensation image generation part 206 Signal processing part 207 Frame memory stored image update control switch 251 Motion estimation Direction switching unit 331 to 334 Frame memory 335 High dynamic range image generation unit 336 Noise removal unit 337 Frame memory 341 Noise removal unit 351 to 354 Frame memory 355 High dynamic range image generation unit 401 Frame memory 402 Exposure ratio correction unit 403 Motion estimation unit 404 Motion Compensation Image Generation Unit 405 Signal Processing Unit 406 Frame Memory 501 Frame Memory Group 502 Motion Estimation Unit 503 Motion Vector Calculation Unit 504 Motion Compensation Image Generation Unit 505 Signal Processing Unit 506 Frame memory 600 Imaging device 601 Optical lens 602 Imaging device 603 Image processing unit 605 Control unit 606 Memory

Claims (13)

異なるタイミングの撮影画像である第1画像と第2画像の二画像間の動き量を推定する動き推定部と、
前記動き推定部の推定した動き量に基づいて、前記第2画像を第1画像の位置に合わせる動き補償処理を実行して動き補償画像を生成する動き補償画像生成部と、
前記動き補償画像と、前記第1画像との合成処理により合成画像を生成する信号処理部を有し、
前記動き補償画像生成部は、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成する画像処理装置。
A motion estimator that estimates the amount of motion between two images of a first image and a second image that are captured images at different timings;
A motion compensated image generating unit that generates a motion compensated image by executing a motion compensation process for aligning the second image with the position of the first image based on the motion amount estimated by the motion estimator;
A signal processing unit that generates a synthesized image by synthesizing the motion compensation image and the first image;
The motion compensation image generation unit is an image processing device that generates a motion compensation image using a selected image selected according to a predetermined image selection criterion.
前記画像処理装置は、
入力画像が動き推定に好適な適格画像であるか否かを判定する動き推定好適度判定部を有し、
前記動き推定好適度判定部は、前記入力画像が適格画像である場合に限り、該入力画像を前記動き推定に適用する参照画像としてフレームメモリに格納する制御を実行し、
前記動き推定部は、前記フレームメモリに格納された参照画像を適用した動き推定を実行し、
前記動き補償画像生成部は、前記参照画像を利用した動き補償画像を生成する請求項1に記載の画像処理装置。
The image processing apparatus includes:
A motion estimation suitability determination unit that determines whether the input image is a suitable image suitable for motion estimation;
The motion estimation suitability determination unit executes control to store the input image in a frame memory as a reference image to be applied to the motion estimation only when the input image is a qualified image,
The motion estimation unit performs motion estimation using a reference image stored in the frame memory;
The image processing device according to claim 1, wherein the motion compensation image generation unit generates a motion compensation image using the reference image.
前記動き推定部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像が適格画像であると判定される場合に、該入力画像と前記参照画像を適用した動き推定を実行する請求項2に記載の画像処理装置。   The motion estimation unit inputs determination information indicating whether or not the input image is a qualified image as the determination information of the motion estimation suitability determination unit, and based on the determination information, the input image is a qualified image The image processing apparatus according to claim 2, wherein when it is determined that the input image and the reference image are applied, motion estimation is performed. 前記動き推定部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像が動き推定に好適でない不適格画像であると判定される場合に、該入力画像と前記参照画像を適用した動き推定を実行せず、
前記動き推定部において動き推定が実行されない場合、予め規定したアルゴリズムに従って決定する例外動き量を前記動き補償画像生成部に出力する動き量補正部を有する請求項3に記載の画像処理装置。
The motion estimation unit inputs determination information indicating whether or not the input image is a qualified image as determination information of the motion estimation suitability determination unit, and the input image is estimated based on the determination information. If it is determined that the image is not suitable for the image, motion estimation is not performed by applying the input image and the reference image.
The image processing apparatus according to claim 3, further comprising a motion amount correction unit that outputs an exceptional motion amount determined according to a predetermined algorithm to the motion compensated image generation unit when motion estimation is not performed in the motion estimation unit.
前記信号処理部は、前記動き推定好適度判定部の判定情報として、前記入力画像が適格画像であるか否かを示す判定情報を入力し、該判定情報に基づいて、前記入力画像に対する信号処理を実行する請求項2に記載の画像処理装置。   The signal processing unit inputs determination information indicating whether or not the input image is a qualified image as determination information of the motion estimation appropriateness determination unit, and performs signal processing on the input image based on the determination information The image processing apparatus according to claim 2, wherein: 前記動き推定好適度判定部は、
前記入力画像中のぼけ領域、飽和画素領域、ノイズの大きい領域の少なくともいずれか、または入力画像撮影時のカメラの動き、または入力画像の輝度範囲のいずれかの指標を適用して入力画像が動き推定に好適な画像であるか否かの判定処理を実行する請求項2に記載の画像処理装置。
The motion estimation suitability determination unit
The input image moves by applying at least one of a blur area, a saturated pixel area, a noisy area in the input image, a camera movement at the time of shooting the input image, or a luminance range of the input image. The image processing apparatus according to claim 2, wherein a process for determining whether the image is suitable for estimation is executed.
前記動き推定好適度判定部は、
前記入力画像として、異なる露光時間に設定された連続撮影画像を入力する場合、各露光画像の有効画素値面積を比較してより広い有効画素面積を持つ画像を前記フレームメモリに格納する参照画像とする制御を行う請求項2に記載の画像処理装置。
The motion estimation suitability determination unit
When inputting continuously shot images set at different exposure times as the input image, a reference image for storing an image having a wider effective pixel area in the frame memory by comparing effective pixel value areas of the respective exposure images; The image processing apparatus according to claim 2, wherein control is performed.
前記画像処理装置は、さらに、
前記フレームメモリに格納された画像を基準画像として、該基準画像の画像位置に入力画像の画像位置を合わせるために実行する動き推定方向の切り替え処理を実行する動き推定方向切り替え部を有する請求項2に記載の画像処理装置。
The image processing apparatus further includes:
The image processing apparatus includes a motion estimation direction switching unit that executes a motion estimation direction switching process that is executed to match the image position of the input image with the image position of the reference image using the image stored in the frame memory as a reference image. An image processing apparatus according to 1.
前記画像処理装置は、さらに、
前記入力画像として、異なる露光時間に設定された連続撮影画像を入力し、露光比補正を実行する露光比補正部を有し、
前記動き推定部は、前記露光比補正部において露光比補正の施された連続撮影画像間の動き推定を実行して、該連続撮影画像間の動き量を算出し、
前記動き補償画像生成部は、前記動き量を利用して、前記連続撮影画像の一方の画像位置を他方の画像位置に合わせた動き補償画像を生成し、
前記信号処理部は、前記動き補償画像と、フレームメモリに格納した基準画像との合成処理を実行する請求項1に記載の画像処理装置。
The image processing apparatus further includes:
As the input image, it has an exposure ratio correction unit that inputs continuous shot images set at different exposure times and executes exposure ratio correction,
The motion estimation unit performs motion estimation between continuously shot images subjected to exposure ratio correction in the exposure ratio correction unit, calculates a motion amount between the continuously shot images,
The motion compensated image generating unit generates a motion compensated image in which one image position of the continuously shot image is matched with the other image position using the amount of motion.
The image processing apparatus according to claim 1, wherein the signal processing unit executes a synthesis process of the motion compensation image and a reference image stored in a frame memory.
前記フレームメモリに格納する基準画像は、予め定めた所定の露光時間の画像であり、
前記露光比補正部は、前記入力画像と、前記フレームメモリに格納した基準画像間の露光比補正を実行し、
前記動き推定部は、前記露光比補正部において露光比補正の施された入力画像と基準画像との動き推定を実行する請求項9に記載の画像処理装置。
The reference image stored in the frame memory is an image having a predetermined exposure time,
The exposure ratio correction unit performs exposure ratio correction between the input image and a reference image stored in the frame memory,
The image processing apparatus according to claim 9, wherein the motion estimation unit performs motion estimation between an input image and a reference image that have been subjected to exposure ratio correction in the exposure ratio correction unit.
前記動き推定部は、同一露光時間に設定された画像間の動きベクトルを算出し、
前記動き推定部の算出した動きベクトルを入力し、該動きベクトルに対する線型演算により、前記動き補償画像生成部における動き補償画像の生成に適用する動きベクトルを算出する動きベクトル演算部を有する請求項9に記載の画像処理装置。
The motion estimation unit calculates a motion vector between images set at the same exposure time,
10. A motion vector calculation unit that inputs a motion vector calculated by the motion estimation unit and calculates a motion vector to be applied to generation of a motion compensated image in the motion compensated image generation unit by linear calculation on the motion vector. An image processing apparatus according to 1.
画像処理装置において実行する画像処理方法であり、
動き推定部が、異なるタイミングの撮影画像である第1画像と第2画像の二画像間の動き量を推定する動き推定ステップと、
動き補償画像生成部が、前記動き推定ステップにおいて推定した動き量に基づいて、前記第2画像を第1画像の位置に合わせる動き補償処理を実行して動き補償画像を生成する動き補償画像生成ステップと、
信号処理部が、前記動き補償画像と、前記第1画像との合成処理により合成画像を生成する信号処理ステップを実行し、
前記動き補償画像生成ステップは、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成する画像処理方法。
An image processing method executed in an image processing apparatus,
A motion estimation step in which a motion estimation unit estimates a motion amount between two images of a first image and a second image that are captured images at different timings;
A motion compensated image generating step for generating a motion compensated image by executing a motion compensation process for aligning the second image with the position of the first image based on the motion amount estimated in the motion estimating step. When,
A signal processing unit that performs a signal processing step of generating a synthesized image by synthesizing the motion compensated image and the first image;
The motion compensation image generation step is an image processing method for generating a motion compensation image using a selected image selected according to a predetermined image selection criterion.
画像処理装置において画像処理を実行させるプログラムであり、
動き推定部に、異なるタイミングの撮影画像である第1画像と第2画像の二画像間の動き量を推定させる動き推定ステップと、
動き補償画像生成部に、前記動き推定ステップにおいて推定した動き量に基づいて、前記第2画像を第1画像の位置に合わせる動き補償処理を実行して動き補償画像を生成させる動き補償画像生成ステップと、
信号処理部に、前記動き補償画像と、前記第1画像との合成処理により合成画像を生成させる信号処理ステップを実行し、
前記動き補償画像生成ステップにおいては、予め規定した画像選択基準に従って選択された選択画像を利用した動き補償画像を生成させるプログラム。
A program for executing image processing in an image processing apparatus;
A motion estimation step for causing the motion estimation unit to estimate a motion amount between the first image and the second image that are captured images at different timings;
A motion compensation image generation step for causing the motion compensation image generation unit to generate a motion compensation image by executing a motion compensation process for aligning the second image with the position of the first image based on the motion amount estimated in the motion estimation step. When,
Performing a signal processing step of causing a signal processing unit to generate a composite image by combining the motion compensated image and the first image;
In the motion compensation image generation step, a program for generating a motion compensation image using a selected image selected according to a predetermined image selection criterion.
JP2012180529A 2012-08-16 2012-08-16 Image processor, image processing method, and program Pending JP2014039169A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012180529A JP2014039169A (en) 2012-08-16 2012-08-16 Image processor, image processing method, and program
PCT/JP2013/070140 WO2014027551A1 (en) 2012-08-16 2013-07-25 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012180529A JP2014039169A (en) 2012-08-16 2012-08-16 Image processor, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2014039169A true JP2014039169A (en) 2014-02-27

Family

ID=50286980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012180529A Pending JP2014039169A (en) 2012-08-16 2012-08-16 Image processor, image processing method, and program

Country Status (2)

Country Link
JP (1) JP2014039169A (en)
WO (1) WO2014027551A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096392A (en) * 2014-11-12 2016-05-26 キヤノン株式会社 Imaging apparatus, control method of the same, program, and storage medium
WO2017154423A1 (en) * 2016-03-10 2017-09-14 キヤノン株式会社 Image processing device, image processing method, and program
EP3462725A1 (en) 2017-09-27 2019-04-03 Canon Kabushiki Kaisha Image processing method, image processing apparatus, imaging apparatus, and program
US10516825B2 (en) 2015-05-21 2019-12-24 Olympus Corporation Image processing device, image processing method, and computer program product for correcting a motion vector of a low-reliability block
WO2023140027A1 (en) * 2022-01-24 2023-07-27 ソニーグループ株式会社 Information processing device, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115150542B (en) * 2021-03-30 2023-11-14 华为技术有限公司 Video anti-shake method and related equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4282113B2 (en) * 1998-07-24 2009-06-17 オリンパス株式会社 IMAGING DEVICE, IMAGING METHOD, AND RECORDING MEDIUM CONTAINING IMAGING PROGRAM
JP2003101862A (en) * 2001-09-21 2003-04-04 Ricoh Co Ltd Image pickup device and image pickup method
JP4777116B2 (en) * 2006-03-30 2011-09-21 キヤノン株式会社 Image processing apparatus and method, and imaging apparatus
JP5388059B2 (en) * 2009-07-02 2014-01-15 国立大学法人九州工業大学 Object detection method and object detection apparatus based on background image estimation
JP4970516B2 (en) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 Surrounding confirmation support device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096392A (en) * 2014-11-12 2016-05-26 キヤノン株式会社 Imaging apparatus, control method of the same, program, and storage medium
US10516825B2 (en) 2015-05-21 2019-12-24 Olympus Corporation Image processing device, image processing method, and computer program product for correcting a motion vector of a low-reliability block
WO2017154423A1 (en) * 2016-03-10 2017-09-14 キヤノン株式会社 Image processing device, image processing method, and program
JP2017162314A (en) * 2016-03-10 2017-09-14 キヤノン株式会社 Image processing device
US10846837B2 (en) 2016-03-10 2020-11-24 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
EP3462725A1 (en) 2017-09-27 2019-04-03 Canon Kabushiki Kaisha Image processing method, image processing apparatus, imaging apparatus, and program
US10812719B2 (en) 2017-09-27 2020-10-20 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, and image processing method for reducing noise and corrects shaking of image data
WO2023140027A1 (en) * 2022-01-24 2023-07-27 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
WO2014027551A1 (en) 2014-02-20

Similar Documents

Publication Publication Date Title
KR101396743B1 (en) An image processing device, an image processing method, and a recording medium
WO2014027551A1 (en) Image processing device, image processing method, and program
US9055217B2 (en) Image compositing apparatus, image compositing method and program recording device
US8830360B1 (en) Method and apparatus for optimizing image quality based on scene content
JP6326180B1 (en) Image processing device
US20120008005A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium having image processing program recorded thereon
JP6308748B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR20110052507A (en) Image capture apparatus and image capturing method
JP2012235197A (en) Device, method and program for image processing
JP2012029014A (en) Image processing device, and control method of the same
JP2017069926A (en) Image processing device, and image processing method, and program
JP2015186247A (en) Image processing system, control method, and program
JP2014187610A (en) Image processing device, image processing method, program, and imaging device
JP2015144475A (en) Imaging apparatus, control method of the same, program and storage medium
JP2012049603A (en) Image processing apparatus and image processing program
WO2014065055A1 (en) Image processing device, image processing method, and program
JP2013255080A (en) Imaging apparatus, synthesized image generating method and program
JP2008099025A (en) Apparatus and method for taking image, and blur correction method
US20180352154A1 (en) Image processing method, electronic device, and non-transitory computer readable storage medium
JP2023174740A (en) Imaging apparatus
JP2019110430A (en) Control apparatus, imaging apparatus, control method, and program
JP5446847B2 (en) Image processing apparatus and method, and program
JP2019071522A (en) Imaging apparatus and control method
KR100843098B1 (en) Apparatus and method for preventing shaking of image photographing device
JP2019016893A (en) Image processing apparatus, control method therefor, and program