JP2011055259A - Image processing apparatus, image processing method, image processing program and program storage medium stored with image processing program - Google Patents

Image processing apparatus, image processing method, image processing program and program storage medium stored with image processing program Download PDF

Info

Publication number
JP2011055259A
JP2011055259A JP2009202438A JP2009202438A JP2011055259A JP 2011055259 A JP2011055259 A JP 2011055259A JP 2009202438 A JP2009202438 A JP 2009202438A JP 2009202438 A JP2009202438 A JP 2009202438A JP 2011055259 A JP2011055259 A JP 2011055259A
Authority
JP
Japan
Prior art keywords
image
band
frequency band
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009202438A
Other languages
Japanese (ja)
Inventor
Yukihiro Naito
幸宏 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009202438A priority Critical patent/JP2011055259A/en
Publication of JP2011055259A publication Critical patent/JP2011055259A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce an artifact such as a blur or a double image while maintaining a noise reduction effect in an electronic shake correction technology for reducing a shake by performing combination processing after performing the alignment processing of a plurality sheets of images. <P>SOLUTION: Frequency decomposing means 200 and 201 decompose a plurality of images into a plurality of frequency bands to generate band images for the plurality of frequency bands. When one of the plurality of images is defined as a reference image and other image are defined as target images, a combination ratio determining means determines, for each frequency band, a combination ratio of the band images of the target images relative to the band images of the reference image. Band image combining means 202, 203 and 204 combine, for each frequency band, the band images based on the combination ratio to generate, for each frequency band, a combination band image. An image combining means 205 combines a plurality of combination band images to generate a combination image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムが格納されたプログラム記憶媒体に関し、特に時系列に撮影した複数枚の画像を用いて画像を合成する画像処理装置、画像処理プログラムおよび画像処理プログラムが格納されたプログラム記憶媒体に関するものである。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, and a program storage medium storing the image processing program, and in particular, an image processing apparatus that synthesizes an image using a plurality of images taken in time series, and an image The present invention relates to a program storage medium storing a processing program and an image processing program.

デジタルカメラ等の撮像装置において静止画を撮影する際に、ノイズの少ない画像を得るためには、十分な露光時間を確保することが有効である。しかしながら露光時間を長くすると、手ぶれによるカメラの動きや、被写体の動きにより画像にぶれが生じ不鮮明になるという問題がある。   It is effective to secure a sufficient exposure time in order to obtain an image with less noise when taking a still image with an imaging device such as a digital camera. However, if the exposure time is lengthened, there is a problem that the image is blurred due to camera movement due to camera shake or subject movement, resulting in blurring.

このようなぶれに対処する方式として、電子ぶれ補正方式が提案されている。例えば、特開平9−261526号公報(特許文献1)では、ぶれの少ない短い露光時間での撮影を連続して複数回実施し、得られた複数枚の画像間の動きがキャンセルされるように位置合わせ処理をした後、合成処理をすることにより、ぶれの無い良好な画像を得る発明が開示されている。   As a method for dealing with such blurring, an electronic blur correction method has been proposed. For example, in Japanese Patent Application Laid-Open No. 9-261526 (Patent Document 1), shooting with a short exposure time with little blurring is continuously performed a plurality of times so that the movement between the obtained images is canceled. An invention is disclosed in which a good image without blurring is obtained by performing a composition process after the alignment process.

しかしながら、特許文献1に開示されている発明では、合成処理を複数の画像の単純な加算処理としているため、これらの複数枚の画像の位置合わせ処理が失敗した領域において、画像のぼけや、2重像等のアーティファクトが発生するという問題が生じる。   However, in the invention disclosed in Patent Document 1, since the composition process is a simple addition process of a plurality of images, in an area where the alignment process of the plurality of images has failed, an image blur or 2 There arises a problem that artifacts such as multiple images occur.

このアーティファクトを軽減するため、特開2002−290817号公報(特許文献2)では、合成処理による加算処理(平均化処理)の前に、対応する画素間の差分値を計算し、この差分値が閾値以上の場合には位置合わせ処理が失敗したと判断して合成処理を行わない発明が開示されている。また、特開2008−99260号公報(特許文献3)では、対応する画素間の差分値に基づいて、合成処理における加重平均処理の重みを調整する発明が開示されている。   In order to reduce this artifact, Japanese Patent Laid-Open No. 2002-290817 (Patent Document 2) calculates a difference value between corresponding pixels before addition processing (averaging processing) by combining processing, and this difference value is calculated. An invention is disclosed in which it is determined that the alignment process has failed when the threshold value is exceeded, and the synthesis process is not performed. Japanese Patent Laid-Open No. 2008-99260 (Patent Document 3) discloses an invention in which the weight of the weighted average process in the composition process is adjusted based on the difference value between corresponding pixels.

特開平9−261526号公報JP-A-9-261526 特開2002−290817号公報JP 2002-290817 A 特開2008−99260号公報JP 2008-99260 A

しかしながら、上記特許文献2及び特許文献3に記載の発明では、複数枚の画像の位置合わせ処理における誤差や、被写体の移動により数画素でもずれが生じると、合成画像を生成した場合にノイズ低減の効果が低下するという問題があった。   However, in the inventions described in Patent Document 2 and Patent Document 3 described above, if an error occurs in the alignment processing of a plurality of images or a shift occurs even in several pixels due to movement of the subject, noise reduction can be achieved when a composite image is generated. There was a problem that the effect was reduced.

本発明は、上記問題に鑑みてなされたものであって、複数枚の画像を位置合わせ処理した後、合成処理することにより、ぶれを低減する電子ぶれ補正技術において、ノイズ低減効果を維持しつつ、ぼけや2重像等のアーティファクトを軽減することが可能な画像処理装置等を提供することを目的とする。   The present invention has been made in view of the above-described problem, and maintains a noise reduction effect in an electronic shake correction technique that reduces shake by performing a composition process after aligning a plurality of images. An object of the present invention is to provide an image processing apparatus that can reduce artifacts such as blurring and double images.

上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、複数の画像を取得し、該複数の画像を合成して合成画像を生成する画像処理装置であって、各前記画像を、それぞれ複数の周波数帯域に分解し、該周波数帯域毎の帯域画像を生成する周波数分解手段と、前記複数の画像のうち何れか1つを基準画像とし、他の画像を対象画像とした場合に、前記基準画像の帯域画像に対する前記対象画像の帯域画像の合成比率を周波数帯域毎に決定する合成比率決定手段と、前記対象画像の帯域画像を前記基準画像の帯域画像に対して、前記合成比率に基づいて周波数帯域毎に合成し、該周波数帯域毎にそれぞれ合成帯域画像を生成する帯域画像合成手段と、前記複数の合成帯域画像を合成して合成画像を生成する画像合成手段と、を備えたことを特徴とする画像処理装置を提供する。
In order to solve the above problems, the present invention employs the following means.
The present invention is an image processing apparatus that acquires a plurality of images, generates a composite image by combining the plurality of images, and decomposes each of the images into a plurality of frequency bands. A frequency resolving means for generating a band image; and when any one of the plurality of images is a reference image and another image is a target image, the band image of the target image with respect to the band image of the reference image A synthesis ratio determining unit that determines a synthesis ratio for each frequency band; and a band image of the target image is synthesized for each frequency band based on the synthesis ratio with respect to the band image of the reference image. There is provided an image processing apparatus comprising: a band image synthesizing unit for generating a synthesized band image; and an image synthesizing unit for synthesizing the plurality of synthesized band images to generate a synthesized image.

また、本発明は、複数の画像を取得し、該複数の画像を合成して合成画像を生成する画像処理方法であって、各前記画像を、それぞれ複数の周波数帯域に分解し、該周波数帯域毎の帯域画像を生成する周波数分解ステップと、前記複数の画像のうち何れか1つを基準画像とし、他の画像を対象画像とした場合に、前記基準画像の帯域画像に対する前記対象画像の帯域画像の合成比率を周波数帯域毎に決定する合成比率決定ステップと、前記対象画像の帯域画像を前記基準画像の帯域画像に対して、前記合成比率に基づいて周波数帯域毎に合成し、該周波数帯域毎にそれぞれ合成帯域画像を生成する帯域画像合成ステップと、前記複数の合成帯域画像を合成して合成画像を生成する画像合成ステップと、を備えたことを特徴とする画像処理方法を提供する。   Further, the present invention is an image processing method for acquiring a plurality of images and synthesizing the plurality of images to generate a composite image, wherein each of the images is decomposed into a plurality of frequency bands, and the frequency bands A frequency resolving step for generating a band image for each, and a band of the target image with respect to the band image of the reference image when any one of the plurality of images is a reference image and another image is a target image A synthesis ratio determining step for determining an image synthesis ratio for each frequency band; and a band image of the target image is synthesized with respect to the band image of the reference image for each frequency band based on the synthesis ratio. An image processing method comprising: a band image synthesizing step for generating a synthesized band image for each, and an image synthesizing step for synthesizing the plurality of synthesized band images to generate a synthesized image. To provide.

さらに、本発明は、複数の画像を取得し、該複数の画像を合成して合成画像を生成する画像処理プログラムであって、各前記画像を、それぞれ複数の周波数帯域に分解し、該周波数帯域毎の帯域画像を生成する周波数分解ステップと、前記複数の画像のうち何れか1つを基準画像とし、他の画像を対象画像とした場合に、前記基準画像の帯域画像に対する前記対象画像の帯域画像の合成比率を周波数帯域毎に決定する合成比率決定ステップと、前記対象画像の帯域画像を前記基準画像の帯域画像に対して、前記合成比率に基づいて周波数帯域毎に合成し、該周波数帯域毎にそれぞれ合成帯域画像を生成する帯域画像合成ステップと、前記複数の合成帯域画像を合成して合成画像を生成する画像合成ステップと、を備える画像処理をコンピュータに実行させることを特徴とする画像処理プログラムを提供する。   Furthermore, the present invention is an image processing program for acquiring a plurality of images and generating a composite image by combining the plurality of images, wherein each of the images is decomposed into a plurality of frequency bands. A frequency resolving step for generating a band image for each, and a band of the target image with respect to the band image of the reference image when any one of the plurality of images is a reference image and another image is a target image A synthesis ratio determining step for determining an image synthesis ratio for each frequency band; and a band image of the target image is synthesized with respect to the band image of the reference image for each frequency band based on the synthesis ratio. An image processing comprising: a band image synthesizing step for generating a synthesized band image for each, and an image synthesizing step for synthesizing the plurality of synthesized band images to generate a synthesized image. It is executed to provide an image processing program characterized.

このように、本発明によれば、画像を複数の周波数帯域に周波数分解し、各周波数帯域における帯域画像を、周波数帯域毎に合成比率を決定し、周波数帯域ごとに合成処理を行うので、各周波数帯域それぞれに適した合成を行うことができ、周波数分解せずに合成を行う場合と比較して、合成失敗によるアーティファクトの発生を抑制しつつ、合成によるノイズ低減の効果を十分に得ることができるという効果を奏する。   Thus, according to the present invention, the image is frequency-decomposed into a plurality of frequency bands, the band image in each frequency band is determined for each frequency band, and the composition processing is performed for each frequency band. It is possible to perform synthesis suitable for each frequency band, and to obtain a sufficient noise reduction effect by synthesis while suppressing the occurrence of artifacts due to synthesis failure compared to synthesis without frequency decomposition. There is an effect that can be done.

本発明の第1の実施形態にかかる画像処理装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態にかかる画像処理装置において、画像を合成する場合の手順の例を示す参考図である。FIG. 5 is a reference diagram illustrating an example of a procedure when images are combined in the image processing apparatus according to the first embodiment of the present invention. 本発明の第1の実施形態にかかる画像処理装置における合成処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the synthetic | combination process part in the image processing apparatus concerning the 1st Embodiment of this invention. 本発明の第1の実施形態にかかる画像処理装置における周波数分解部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the frequency decomposition part in the image processing apparatus concerning the 1st Embodiment of this invention. 本発明の第1の実施形態にかかる画像処理装置における高周波帯域画像合成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the high frequency band image synthetic | combination part in the image processing apparatus concerning the 1st Embodiment of this invention. 本発明の第1の実施形態にかかる画像処理装置における周波数合成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the frequency synthetic | combination part in the image processing apparatus concerning the 1st Embodiment of this invention. 本発明の第2の実施形態にかかる画像処理装置における高周波帯域画像合成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the high frequency band image synthetic | combination part in the image processing apparatus concerning the 2nd Embodiment of this invention. 本発明の第2の実施形態にかかる画像処理装置における合成比率決定部で決定される合成比率と画像の差分絶対値との関係を示す参考図である。It is a reference figure which shows the relationship between the synthetic | combination ratio determined by the synthetic | combination ratio determination part in the image processing apparatus concerning the 2nd Embodiment of this invention, and the difference absolute value of an image. 本発明の第3の実施形態にかかる画像処理装置における高周波帯域画像合成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the high frequency band image synthetic | combination part in the image processing apparatus concerning the 3rd Embodiment of this invention. 撮像素子の出力画素値とノイズ量の典型的関係を示す参考図である。FIG. 6 is a reference diagram illustrating a typical relationship between an output pixel value of an image sensor and a noise amount. 階調変換処理後の画素値とノイズ量の典型的関係を示す参考図である。FIG. 6 is a reference diagram illustrating a typical relationship between a pixel value and a noise amount after gradation conversion processing. 本発明の第3の実施形態にかかる画像処理装置におけるノイズレベル推定部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the noise level estimation part in the image processing apparatus concerning the 3rd Embodiment of this invention. 本発明の第3の実施形態にかかる画像処理装置における合成比率決定部で決定される合成比率と画像の差分絶対値との関係を示す参考図である。It is a reference figure which shows the relationship between the composition ratio determined by the composition ratio determination part in the image processing apparatus concerning the 3rd Embodiment of this invention, and the difference absolute value of an image. 本発明の第4の実施形態にかかる画像処理装置における高周波帯域画像合成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the high frequency band image synthetic | combination part in the image processing apparatus concerning the 4th Embodiment of this invention. 本発明の第5の実施形態にかかる画像処理装置における高周波帯域画像合成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the high frequency band image synthetic | combination part in the image processing apparatus concerning the 5th Embodiment of this invention.

以下に、本発明に係る画像処理装置の実施形態について、図面を参照して説明する。
〔第1の実施形態〕
図1は、本発明の第1の実施形態に係る画像処理装置の概略構成を示すブロック図である。本実施形態にかかる画像処理装置は、図1に示すように、光学系100、撮像素子101、画像処理部102、フレームメモリ103、動き情報取得部104、画像補正部105及び合成処理部106を備えている。
Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the image processing apparatus according to the present embodiment includes an optical system 100, an image sensor 101, an image processing unit 102, a frame memory 103, a motion information acquisition unit 104, an image correction unit 105, and a synthesis processing unit 106. I have.

光学系100はレンズ等からなり被写体の像を結像するものであり、撮像素子101上に像を結像するように配置されている。撮像素子101は、光学系100により結像された被写体の像に基づいて電気的な画像情報である撮像信号を生成し、この撮像信号を画像処理部102に出力する。画像処理部102は、撮像素子101から入力された撮像信号に対して色処理や階調変換処理等の画像処理を行う。フレームメモリ103は、画像処理部102により所定の処理が施された画像を格納する。   The optical system 100 is composed of a lens or the like and forms an image of a subject, and is disposed on the image sensor 101 so as to form an image. The imaging element 101 generates an imaging signal that is electrical image information based on the subject image formed by the optical system 100, and outputs the imaging signal to the image processing unit 102. The image processing unit 102 performs image processing such as color processing and gradation conversion processing on the imaging signal input from the imaging element 101. The frame memory 103 stores an image that has been subjected to predetermined processing by the image processing unit 102.

図2に4枚の画像から1枚の画像を合成する例を示す。4枚の画像をフレームF1からフレームF4とし、合成は2枚から1枚を合成するという基本処理を3回行うことで、最終的に4枚の画像から1枚の合成画像を得る。最初に、フレームF1とフレームF2を合成し合成画像1を生成する。合成の際には一方を基準画像、他方を対象画像と定義するものとする。次にフレームF3を基準画像、フレームF4を対象画像として合成し合成画像2を生成する。最後に、合成画像1を基準画像、合成画像2を対象画像として合成し、最終結果である合成画像3を生成する。なお、複数枚の合成手法はこれに限られることはなく、例えば図2における合成画像1とフレームF3を合成し、この合成結果とフレームF4を合成する方式でもよい。   FIG. 2 shows an example in which one image is synthesized from four images. The four images are changed from the frame F1 to the frame F4, and the composition is performed three times by performing a basic process of combining one image from two images, thereby finally obtaining one composite image from the four images. First, the composite image 1 is generated by combining the frame F1 and the frame F2. At the time of synthesis, one is defined as a reference image and the other as a target image. Next, a composite image 2 is generated by combining the frame F3 as a reference image and the frame F4 as a target image. Finally, the synthesized image 1 is synthesized as a reference image, and the synthesized image 2 is synthesized as a target image to generate a synthesized image 3 as a final result. Note that the method of combining a plurality of sheets is not limited to this, and for example, a method of combining the combined image 1 and the frame F3 in FIG. 2 and combining the combined result with the frame F4 may be used.

また、合成の基本処理を基準画像と対象画像1枚の計2枚の合成処理とするのではなく、基準画像と対象画像3枚の計4枚とすることも、後述する動き情報取得部104、画像補正部105及び合成処理部106を拡張することにより容易に可能である。また、基準画像の定め方については、先に撮像した画像とする他にも、後に撮像された画像とする方法や、基本処理のたびに先後を変えることで、中間的な時刻に撮像された画像を基準にすることも可能である。   In addition, instead of combining the basic process of combining two reference images and one target image, a total of four reference images and three target images may be used. The image correction unit 105 and the composition processing unit 106 can be easily expanded. In addition to the method of determining the reference image, in addition to the image picked up first, the image was picked up at an intermediate time by changing the method of making the image picked up later or each time basic processing is performed. It is also possible to use the image as a reference.

動き情報取得部104は、フレームメモリ103に格納された複数枚の画像間の動きを動き情報として出力する。すなわち、動き情報取得部104は、フレームメモリ103に格納された複数枚の画像のうち、いずれか一の画像を、画像合成処理を行う際に基準となる基準画像とし、この基準画像との比較対象であり画像合成処理の対象となる対象画像と定義づける。そして、基準画像に対する対象画像の動きを水平方向移動量と垂直方向移動量とからなる1つのベクトル情報で表し、このベクトル情報をその対象画像の動き情報として出力する。   The motion information acquisition unit 104 outputs motion between a plurality of images stored in the frame memory 103 as motion information. That is, the motion information acquisition unit 104 uses any one of the plurality of images stored in the frame memory 103 as a reference image when performing image composition processing, and compares the image with the reference image. The target image is defined as a target image to be subjected to image synthesis processing. Then, the motion of the target image with respect to the reference image is represented by one vector information composed of the horizontal direction moving amount and the vertical direction moving amount, and this vector information is output as the motion information of the target image.

なお、動き情報は、1枚の画像につき1つのベクトル情報とするだけでなく、例えば、画像を複数の領域に分割し、分割された夫々の領域におけるベクトル情報を計算することも、画素毎にベクトル情報を計算することもできる。また、回転による移動量や拡大縮小による変化量を動き情報としてもよい。さらに、動き情報は計算によって算出するだけでなく、画像処理装置内にジャイロ等のセンサを設け、このセンサにより動き情報を取得してもよい。   Note that the motion information is not only one vector information per image, but for example, an image can be divided into a plurality of areas, and vector information in each divided area can be calculated for each pixel. Vector information can also be calculated. Further, the movement amount by rotation and the change amount by enlargement / reduction may be used as the motion information. Furthermore, the motion information is not only calculated by calculation, but a sensor such as a gyro may be provided in the image processing apparatus, and the motion information may be acquired by this sensor.

画像補正部105は、動き情報取得部104で取得された動き情報に基づいて、フレームメモリ103に格納された対象画像を補正する。本実施形態においては、動き情報取得部104から出力されたベクトル情報に基づいて、対象画像の位置をシフトすることにより、基準画像との位置を合わせる。なお、動き情報に例えば回転や拡大縮小に関する情報が含まれる構成例においては、画像補正部105にて回転や拡大縮小に相当する補正処理を行い、基準画像と対象画像の位置合わせを行う。   The image correction unit 105 corrects the target image stored in the frame memory 103 based on the motion information acquired by the motion information acquisition unit 104. In the present embodiment, the position of the target image is adjusted by shifting the position of the target image based on the vector information output from the motion information acquisition unit 104. In the configuration example in which the motion information includes, for example, information about rotation and enlargement / reduction, the image correction unit 105 performs correction processing corresponding to rotation and enlargement / reduction, and aligns the reference image and the target image.

合成処理部106は、画像補正部105で位置合わせ処理がなされた対象画像と基準画像とを合成して合成画像を生成し、生成した合成画像を出力するものであり、図3に示すように、周波数分解部200,201、高周波帯域画像合成部202、中周波帯域画像合成部203、低周波帯域画像合成部204、及び周波数合成部205を備えている。   The synthesis processing unit 106 generates a synthesized image by synthesizing the target image that has been subjected to the alignment processing by the image correcting unit 105 and the reference image, and outputs the generated synthesized image. As illustrated in FIG. , Frequency resolving units 200 and 201, a high frequency band image synthesizing unit 202, a medium frequency band image synthesizing unit 203, a low frequency band image synthesizing unit 204, and a frequency synthesizing unit 205.

周波数分解部200,201は、基準画像及び対象画像をそれぞれ所定の帯域の画像に分割するものであり(周波数分解ステップ)、本実施形態では、高周波帯域画像、中周波帯域画像、低周波帯域画像の3つの帯域の画像に分割するものとする。周波数分解部200,201における分解は、公知の方式を用いればよく、フィルタバンク、ウェーブレット変換、ラプラシアンピラミッドなどを用いることができる。本実施形態においては、ラプラシアンピラミッドにより、周波数分解を行うものとする。   The frequency resolving units 200 and 201 divide the reference image and the target image into images of predetermined bands (frequency decomposition step). In this embodiment, the high-frequency band image, the medium-frequency band image, and the low-frequency band image It is assumed that the image is divided into three band images. For the decomposition in the frequency decomposition units 200 and 201, a known method may be used, and a filter bank, a wavelet transform, a Laplacian pyramid, or the like can be used. In the present embodiment, frequency decomposition is performed using a Laplacian pyramid.

図4は、ラプラシアンピラミッドを用いた周波数分解部200,201の構成を示すブロック図であり、図4に示すように、周波数分解部200,201は、フィルタ処理・縮小処理部301,304、拡大処理部302,305及び減算器303,306を備えている。以下、説明の便宜上、周波数分解部200,201に入力される基準画像又は対象画像を入力画像300として説明する。入力画像300は、フィルタ処理・縮小処理部301にてローパスフィルタ処理後に縮小される。この処理により、入力画像300の画像サイズは水平方向、垂直方向共に半分となる。縮小された画像は、拡大処理部302にて元の画像サイズに拡大された後、減算器303にて高周波帯域画像307が作成される。高周波帯域画像307の帯域画像信号は、フィルタ処理・縮小処理部301で用いられたローパスフィルタ特性により遮断された高周波成分に相当する。   FIG. 4 is a block diagram showing the configuration of the frequency resolving units 200 and 201 using the Laplacian pyramid. As shown in FIG. 4, the frequency resolving units 200 and 201 include filter processing / reduction processing units 301 and 304, and an enlargement. Processing units 302 and 305 and subtracters 303 and 306 are provided. Hereinafter, for convenience of description, the reference image or target image input to the frequency resolution units 200 and 201 will be described as the input image 300. The input image 300 is reduced by the filter processing / reduction processing unit 301 after the low-pass filter processing. By this processing, the image size of the input image 300 is halved in both the horizontal direction and the vertical direction. The reduced image is enlarged to the original image size by the enlargement processing unit 302, and then a high frequency band image 307 is created by the subtractor 303. The band image signal of the high-frequency band image 307 corresponds to a high-frequency component blocked by the low-pass filter characteristic used in the filter processing / reduction processing unit 301.

フィルタ処理・縮小処理部301の出力は、次段のフィルタ処理・縮小処理部304に供給されさらに縮小される。縮小された画像は拡大処理部305で拡大され、減算器306により、中周波帯域画像308が生成される。また、フィルタ処理・縮小処理部304の出力は、低周波帯域画像309として出力される。以上の処理により、入力画像300は、高周波帯域画像307、中周波帯域画像308、低周波帯域画像309に分解されることとなる。各帯域に分解された高周波帯域画像307、中周波帯域画像308及び低周波帯域画像309は、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204にそれぞれ送信される。   The output of the filter processing / reduction processing unit 301 is supplied to the next-stage filter processing / reduction processing unit 304 and further reduced. The reduced image is enlarged by the enlargement processing unit 305, and the intermediate frequency band image 308 is generated by the subtractor 306. The output of the filter processing / reduction processing unit 304 is output as a low frequency band image 309. Through the above processing, the input image 300 is decomposed into a high frequency band image 307, a medium frequency band image 308, and a low frequency band image 309. The high frequency band image 307, the medium frequency band image 308, and the low frequency band image 309 that have been decomposed into the respective bands are transmitted to the high frequency band image composition unit 202, the medium frequency band image composition unit 203, and the low frequency band image composition unit 204, respectively. The

高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204は、周波数分解部200,201で各周波帯域に分解された基準画像と対象画像を、それぞれの帯域において合成する。すなわち、高周波帯域画像合成部202は、基準画像の高周波帯域画像と対象画像の高周波帯域画像とを合成し、同様に、中周波帯域画像合成部203では、基準画像の中周波帯域画像と対象画像の中周波帯域画像とを、低周波帯域画像合成部204では、基準画像の低周波帯域画像と対象画像の低周波帯域画像とを合成し、それぞれ合成高周波帯域画像310、合成中周波帯域画像311及び合成低周波帯域画像312を生成する。   The high frequency band image synthesizing unit 202, the medium frequency band image synthesizing unit 203, and the low frequency band image synthesizing unit 204 synthesize the reference image and the target image decomposed into the frequency bands by the frequency decomposing units 200 and 201 in the respective bands. To do. That is, the high frequency band image synthesis unit 202 synthesizes the high frequency band image of the reference image and the high frequency band image of the target image, and similarly, the medium frequency band image synthesis unit 203 performs the synthesis of the medium frequency band image of the reference image and the target image. The low frequency band image composition unit 204 synthesizes the low frequency band image of the reference image and the low frequency band image of the target image, and the combined high frequency band image 310 and the combined medium frequency band image 311. And a synthetic low frequency band image 312 is generated.

以下、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204について説明する。高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204の構成は共通するので、説明の便宜上、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204を代表して、高周波帯域画像合成部についてのみ説明する。図5に示すように、高周波帯域画像合成部202は加重平均化処理部404及び合成比率決定部410を備えている。   Hereinafter, the high frequency band image composition unit 202, the medium frequency band image composition unit 203, and the low frequency band image composition unit 204 will be described. Since the configurations of the high-frequency band image composition unit 202, the medium-frequency band image composition unit 203, and the low-frequency band image composition unit 204 are the same, for convenience of explanation, the high-frequency band image composition unit 202, the medium-frequency band image composition unit 203, and the low-frequency band image composition unit 203 As a representative of the band image synthesis unit 204, only the high frequency band image synthesis unit will be described. As shown in FIG. 5, the high-frequency band image composition unit 202 includes a weighted averaging processing unit 404 and a composition ratio determination unit 410.

高周波帯域画像合成部202には、周波数分解部200,201によって帯域分割された基準画像の高周波帯域画像400と、帯域分割された対象画像の高周波帯域画像401が入力される。合成比率決定部410は、基準画像の高周波帯域画像400と対象画像の高周波帯域画像401対象画像の合成比率を決定する(合成比率決定ステップ)。合成比率は、基準画像の高周波帯域画像400を1.0とした際の対象画像の高周波帯域画像401の合成割合を0.0から1.0で表すものとする。   The high-frequency band image synthesis unit 202 receives the high-frequency band image 400 of the reference image band-divided by the frequency decomposition units 200 and 201 and the high-frequency band image 401 of the target image that has been band-divided. The composition ratio determination unit 410 determines a composition ratio between the high frequency band image 400 of the reference image and the high frequency band image 401 of the target image (composition ratio determination step). The composition ratio represents the composition ratio of the high frequency band image 401 of the target image from 0.0 to 1.0 when the high frequency band image 400 of the reference image is 1.0.

合成比率決定部410が決定する合成比率は、事前に各帯域において固定値として決定しておいてもよいし、動き情報取得部104の結果に応じて動的に変更してもよい。例えば、撮影した画像のISO感度が高く多くのノイズが含まれる場合には、位置合わせの精度が低いことが予想されるため、高周波帯域において正確な位置合わせがなされていない可能性が高い。このような場合には、高周波帯域においては合成比率を小さくすることで、位置合わせの誤差によるアーティファクトを抑え、低周波帯域においては合成比率を大きくすることで、ノイズ低減の効果を維持するといった構成とすることが可能である。   The combination ratio determined by the combination ratio determination unit 410 may be determined in advance as a fixed value in each band, or may be dynamically changed according to the result of the motion information acquisition unit 104. For example, if the captured image has a high ISO sensitivity and includes a lot of noise, the accuracy of alignment is expected to be low, so there is a high possibility that accurate alignment is not performed in the high frequency band. In such a case, the composition ratio is reduced in the high frequency band to suppress artifacts due to alignment errors, and the noise reduction effect is maintained by increasing the synthesis ratio in the low frequency band. Is possible.

あるいは、動き情報取得部104で得られた動きベクトルが大きい場合には、位置合わせ誤差が大きい可能性が高いため高周波帯域において合成比率を小さくし、動きベクトルが小さい場合には、位置合わせ誤差が小さいことが期待できるので、高周波帯域においても合成比率を大きくするといった構成も可能である。更に、基準画像と対象画像間の相関を画素ごと、あるいは、所定の領域ごとに計算し、相関が小さい画素や領域については位置合わせの精度が低いと判断して、高周波帯域における合成比率を小さくすることも可能である。   Alternatively, when the motion vector obtained by the motion information acquisition unit 104 is large, the alignment error is likely to be large, so the synthesis ratio is reduced in the high frequency band, and when the motion vector is small, the alignment error is Since it can be expected to be small, it is possible to increase the synthesis ratio even in the high frequency band. Furthermore, the correlation between the reference image and the target image is calculated for each pixel or for each predetermined area, and it is determined that the alignment accuracy is low for pixels or areas having a small correlation, and the composition ratio in the high frequency band is reduced. It is also possible to do.

加重平均化処理部404は、合成比率決定部410が出力する合成比率に応じて、基準画像の高周波帯域画像400の画素と対象画像の高周波帯域画像401の画素の加重平均処理を行い、合成高周波帯域画像310を生成する。中周波帯域画像合成部203及び低周波帯域画像合成部204においても、上記の手順により、合成中周波帯域画像311及び合成低周波帯域画像312を生成する(帯域画像合成ステップ)。高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204は、それぞれ生成した合成高周波帯域画像310、合成中周波帯域画像311及び合成低周波帯域画像312を周波数合成部205に送信する。   The weighted average processing unit 404 performs weighted average processing of the pixels of the high-frequency band image 400 of the reference image and the pixels of the high-frequency band image 401 of the target image according to the combination ratio output from the combination ratio determination unit 410, and performs the combined high-frequency processing. A band image 310 is generated. Also in the medium frequency band image composition unit 203 and the low frequency band image composition unit 204, a composite medium frequency band image 311 and a composite low frequency band image 312 are generated by the above procedure (band image composition step). The high frequency band image synthesizing unit 202, the medium frequency band image synthesizing unit 203, and the low frequency band image synthesizing unit 204 respectively generate the synthesized high frequency band image 310, the synthesized middle frequency band image 311 and the synthesized low frequency band image 312. To 205.

周波数合成部205は、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204から送信された各帯域の合成画像をさらに合成するものである(画像合成ステップ)。周波数合成部205における周波数合成は、周波数分解部200、201と同様に公知の方式を用いればよく、フィルタバンク、ウェーブレット変換、ラプラシアンピラミッドなどを用いることができる。本実施形態においては、ラプラシアンピラミッドにより、周波数合成を行うものとする。図6は、ラプラシアンピラミッドを用いた周波数合成部205の概略構成を示すブロック図であり、周波数合成部205は、拡大処理部314,315及び加算器313,315を備えている。   The frequency synthesizing unit 205 further synthesizes the synthesized images of the respective bands transmitted from the high frequency band image synthesizing unit 202, the medium frequency band image synthesizing unit 203, and the low frequency band image synthesizing unit 204 (image synthesizing step). For the frequency synthesis in the frequency synthesis unit 205, a known method may be used similarly to the frequency resolution units 200 and 201, and a filter bank, a wavelet transform, a Laplacian pyramid, or the like can be used. In the present embodiment, frequency synthesis is performed using a Laplacian pyramid. FIG. 6 is a block diagram showing a schematic configuration of the frequency synthesis unit 205 using the Laplacian pyramid, and the frequency synthesis unit 205 includes enlargement processing units 314 and 315 and adders 313 and 315.

周波数合成部205には、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204から高周波帯域画像310、中周波帯域画像311及び低周波帯域画像312が入力される。低周波帯域画像312は拡大処理部316で中周波帯域画像311と同じサイズに拡大された後、加算器315で加算される。次いで、拡大処理部314にて高周波帯域画像310と同じサイズに拡大された後、加算器313で加算されて出力画像317となる。これにより出力画像317は、高周波帯域画像310、中周波帯域画像311、低周波帯域画像312が有する周波数成分を全て含む画像として合成されることとなる。   The high frequency band image 310, the medium frequency band image 311, and the low frequency band image 312 are input to the frequency synthesis unit 205 from the high frequency band image synthesis unit 202, the middle frequency band image synthesis unit 203, and the low frequency band image synthesis unit 204. . The low frequency band image 312 is enlarged to the same size as the middle frequency band image 311 by the enlargement processing unit 316 and then added by the adder 315. Next, the image is enlarged to the same size as the high frequency band image 310 by the enlargement processing unit 314 and then added by the adder 313 to become an output image 317. As a result, the output image 317 is synthesized as an image including all the frequency components of the high-frequency band image 310, the medium-frequency band image 311 and the low-frequency band image 312.

このように、画像を周波数分解し、各帯域において合成処理を制御することによって、各帯域において適した合成をすることが可能となり、合成失敗によるアーティファクトの発生を抑えつつ、合成によるノイズ低減の効果を得ることが可能となる。   In this way, by frequency-decomposing the image and controlling the synthesis process in each band, it is possible to perform a suitable synthesis in each band, reducing the occurrence of artifacts due to synthesis failure, and the effect of noise reduction by synthesis Can be obtained.

〔第2の実施形態〕
次に、本発明の第2の実施形態について、図7、8を用いて説明する。本実施形態の画像処理装置が第1の実施形態と異なる点は、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204が、相関計算部402をさらに備えた点である。以下、本実施形態の画像処理装置について、第1の実施形態と共通する点については説明を省略し、異なる点について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS. The image processing apparatus according to this embodiment is different from the first embodiment in that the high frequency band image composition unit 202, the medium frequency band image composition unit 203, and the low frequency band image composition unit 204 further include a correlation calculation unit 402. Is a point. Hereinafter, regarding the image processing apparatus according to the present embodiment, description of points that are the same as those of the first embodiment will be omitted, and different points will be described.

高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204は、周波数分解部200、201で各周波帯域に分解された基準画像と対象画像を、それぞれの帯域において合成するものであり、その構成は共通するので説明の便宜上、高周波帯域画像合成部202について説明する。図7は、高周波帯域画像合成部202の概略構成を示すブロック図である。図7に示すように、高周波帯域画像合成部202は、相関計算部402、合成比率決定部403及び加重平均化処理部404を備えている。   The high frequency band image synthesizing unit 202, the medium frequency band image synthesizing unit 203, and the low frequency band image synthesizing unit 204 synthesize the reference image and the target image decomposed into the frequency bands by the frequency decomposing units 200 and 201 in the respective bands. Since the configuration is common, the high frequency band image composition unit 202 will be described for convenience of explanation. FIG. 7 is a block diagram illustrating a schematic configuration of the high frequency band image synthesis unit 202. As shown in FIG. 7, the high frequency band image synthesis unit 202 includes a correlation calculation unit 402, a synthesis ratio determination unit 403, and a weighted averaging processing unit 404.

高周波帯域画像合成部202には、周波数分解部200,201により帯域分割された基準画像の高周波帯域画像400と、帯域分割された対象画像の高周波帯域画像401が入力される。相関計算部402は、基準画像の高周波帯域画像400と対象画像の高周波帯域画像401との間の相関値として差分絶対値を画素毎に計算する。一般に、基準画像と対象画像との位置合わせが成功している場合には差分絶対値は小さくなり、位置合わせが失敗している場合には差分絶対値は大きくなる。従って、この結果を合成比率決定部403における合成比率の制御に利用して、位置合わせ失敗に起因するぼけや2重像等のアーティファクトを抑える。   The high-frequency band image synthesis unit 202 receives the high-frequency band image 400 of the reference image that has been band-divided by the frequency decomposition units 200 and 201 and the high-frequency band image 401 of the target image that has been band-divided. The correlation calculation unit 402 calculates a difference absolute value for each pixel as a correlation value between the high-frequency band image 400 of the reference image and the high-frequency band image 401 of the target image. In general, the absolute difference value is small when the alignment between the reference image and the target image is successful, and the absolute difference value is large when the alignment is unsuccessful. Therefore, this result is used to control the composition ratio in the composition ratio determination unit 403 to suppress artifacts such as blurring and double images due to alignment failure.

なお、相関値として本実施形態では画素間の差分絶対値を用いているが、この他にもより安定した相関値を計算するために、注目画素の周辺画素からなるブロックについて、ブロック間の差分絶対値和(SAD)を相関値としても良い。また、演算量を削減するために、画素毎に相関値を計算するのではなく、複数の画素からなる領域につき1つの相関値を計算する構成にしても良い。   In this embodiment, the absolute value of the difference between pixels is used as the correlation value. In addition to this, in order to calculate a more stable correlation value, the difference between the blocks is determined for the block including the peripheral pixels of the target pixel. The absolute value sum (SAD) may be used as the correlation value. Also, in order to reduce the amount of calculation, a correlation value may not be calculated for each pixel, but one correlation value may be calculated for a region composed of a plurality of pixels.

合成比率決定部403は、相関計算部402で計算される差分絶対値に基づいて、基準画像の高周波帯域画像400と対象画像の高周波帯域画像401の合成比率を決定する。合成比率は、基準画像の高周波帯域画像400を1.0とした際の対象画像の高周波帯域画像401の合成割合を0.0から1.0で表すものとする。画素の差分絶対値の大小で合成比率を制御する。すなわち、例えば、図8に示すように、差分絶対値が小さい場合には、位置合わせが成功している可能性が高いので合成比率は大きくし、差分絶対値が大きい場合には、位置合わせが失敗している可能性が高いのでアーティファクトを抑えるため合成比率を小さくする。図8に示す例では、差分絶対値が閾値1より小さい場合には合成比率を1.0に、差分絶対値が閾値2より大きい場合には合成比率を0.0にし、閾値1から閾値2へは直線的に合成比率を遷移させている。   The composition ratio determination unit 403 determines the composition ratio of the high frequency band image 400 of the reference image and the high frequency band image 401 of the target image based on the absolute difference value calculated by the correlation calculation unit 402. The composition ratio represents the composition ratio of the high frequency band image 401 of the target image from 0.0 to 1.0 when the high frequency band image 400 of the reference image is 1.0. The composition ratio is controlled by the magnitude of the absolute difference value of the pixels. That is, for example, as shown in FIG. 8, when the difference absolute value is small, it is highly likely that the alignment has succeeded, so the composition ratio is increased, and when the difference absolute value is large, the alignment is performed. Since the possibility of failure is high, the synthesis ratio is reduced to suppress artifacts. In the example shown in FIG. 8, when the absolute difference value is smaller than the threshold value 1, the composition ratio is set to 1.0. When the absolute difference value is larger than the threshold value 2, the composition ratio is set to 0.0. The composition ratio is shifted linearly to.

加重平均化処理部404は、合成比率決定部403が出力する合成比率に応じて、高周波帯域画像400と高周波帯域画像401の加重平均処理を行い、合成高周波帯域画像310を生成する。中周波帯域画像合成部203及び低周波帯域画像合成部204においても、上記の手順により、合成中周波帯域画像311及び合成低周波帯域画像312を生成する。   The weighted averaging processing unit 404 performs weighted average processing of the high frequency band image 400 and the high frequency band image 401 in accordance with the composition ratio output from the composition ratio determination unit 403 to generate a composite high frequency band image 310. The intermediate frequency band image composition unit 203 and the low frequency band image composition unit 204 also generate the composite middle frequency band image 311 and the composite low frequency band image 312 according to the above procedure.

このように、画像を周波数分解し、各帯域において合成処理を制御することによって、微小な位置ずれにより全ての帯域において合成の効果を弱めるような処理がされてしまうことを防ぎ、アーティファクトの発生を抑える上で必要最小限な帯域でのみ合成の効果を弱めるような処理を適用することが可能となる。これによりアーティファクトの発生を抑えつつ、合成によるノイズ低減の効果を得ることが可能となる。また、各帯域における合成比率を、各帯域の画像毎にそれぞれの相関値に基づいて変化させることにより、帯域を分割せずに合成比率を変化させる場合に比較して、画像上での合成効果の変動をさらに抑制する効果を得ることができ、合成画像の画質を向上することが可能となる。   In this way, by frequency-decomposing the image and controlling the synthesis process in each band, it is possible to prevent a process that weakens the synthesis effect in all bands due to a slight misalignment, and to generate artifacts. It is possible to apply processing that weakens the effect of synthesis only in the minimum band necessary for suppression. As a result, it is possible to obtain an effect of noise reduction by synthesis while suppressing generation of artifacts. In addition, by changing the composition ratio in each band based on the correlation value for each image in each band, the composition effect on the image can be compared to changing the composition ratio without dividing the band. It is possible to obtain an effect of further suppressing the fluctuation of the image quality and improve the image quality of the composite image.

なお、本実施形態においては合成比率を0.0から1.0の間で連続的に変化させる構成としているが、これを0.0と1.0の2値とし、加重平均化処理部404を単純な平均化処理に置き換えることで、演算量を削減する構成も可能である。   In this embodiment, the composition ratio is continuously changed between 0.0 and 1.0. However, this is a binary value of 0.0 and 1.0, and the weighted averaging processing unit 404 is used. It is also possible to reduce the amount of calculation by replacing with a simple averaging process.

〔第3の実施形態〕
次に、本発明の第3の実施形態について、図9〜13を用いて説明する。本実施形態の画像処理装置が第2の実施形態と異なる点は、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204が、ノイズレベル推定部502をさらに備えた点であり、合成比率決定部503における合成比率をノイズレベル推定部502によって推定されたノイズレベルと画像間の相関により決定する。以下、本実施形態の画像処理装置について、第1の実施形態及び第2の実施形態と共通する点については説明を省略し、異なる点について説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIGS. The image processing apparatus of this embodiment is different from that of the second embodiment in that the high frequency band image composition unit 202, the medium frequency band image composition unit 203, and the low frequency band image composition unit 204 further include a noise level estimation unit 502. In other words, the synthesis ratio in the synthesis ratio determination unit 503 is determined based on the correlation between the noise level estimated by the noise level estimation unit 502 and the image. Hereinafter, with respect to the image processing apparatus of the present embodiment, description of points that are common to the first embodiment and the second embodiment will be omitted, and different points will be described.

高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204は、周波数分解部200、201で各周波帯域に分解された基準画像と対象画像を、それぞれの帯域において合成するものであり、その構成は共通するので説明の便宜上、高周波帯域画像合成部202について説明する。図9は、高周波帯域画像合成部202の概略構成を示すブロック図である。図9に示すように、高周波帯域画像合成部202は、相関計算部402、ノイズレベル推定部502、合成比率決定部503及び加重平均化処理部404を備えている。   The high frequency band image synthesizing unit 202, the medium frequency band image synthesizing unit 203, and the low frequency band image synthesizing unit 204 synthesize the reference image and the target image decomposed into the frequency bands by the frequency decomposing units 200 and 201 in the respective bands. Since the configuration is common, the high frequency band image composition unit 202 will be described for convenience of explanation. FIG. 9 is a block diagram illustrating a schematic configuration of the high frequency band image synthesis unit 202. As shown in FIG. 9, the high frequency band image synthesis unit 202 includes a correlation calculation unit 402, a noise level estimation unit 502, a synthesis ratio determination unit 503, and a weighted averaging processing unit 404.

高周波帯域画像合成部202には、周波数分解部200,201により帯域分割された基準画像の高周波帯域画像400と帯域分割された対象画像の高周波帯域画像401のほかに、基準画像及び対象画像からそれぞれ作成されるノイズレベル推定用画像500,501が入力される。そして、相関計算部402において、基準画像の高周波帯域画像400及び対象画像の高周波帯域画像401の相関値が計算される。ここで、相関値としては、上述した第2の実施形態と同様に差分絶対値や、注目画素の周辺画素からなるブロックにかかるブロック間の差分絶対値和(SAD)を用いることができる。また、ノイズレベル推定部502において、ノイズレベル推定用画像500,501に基づいて処理対象画素に含まれるノイズ量の推定値を算出する。   In addition to the high-frequency band image 400 of the reference image and the high-frequency band image 401 of the target image subjected to the band division, the high-frequency band image synthesis unit 202 includes the reference image and the target image, respectively. The noise level estimation images 500 and 501 to be created are input. Then, the correlation calculation unit 402 calculates a correlation value between the high-frequency band image 400 of the reference image and the high-frequency band image 401 of the target image. Here, as the correlation value, as in the second embodiment described above, a difference absolute value or a sum of absolute differences (SAD) between blocks related to a block composed of peripheral pixels of the target pixel can be used. Further, the noise level estimation unit 502 calculates an estimated value of the amount of noise included in the processing target pixel based on the noise level estimation images 500 and 501.

一般に、撮像素子が出力する画素に含まれるノイズ量と画素値との間には一定の関係があり、画素値からノイズ量が推定できることが知られている。図10に撮像素子が出力する画素値とノイズ量の典型的関係を示す。図10における横軸は撮像素子が出力する画素の画素値、縦軸はその画素に含まれるノイズ量(ノイズの標準偏差等)である。典型的には、撮像素子が出力する画素値が大きくなるにつれて、含まれるノイズ量は増える傾向にある。撮像素子から出力された画素は、画像処理部102により階調変換等の画像処理がなされた後にフレームメモリ103に格納される。階調変換処理においては、典型的には暗部を持ち上げ明部をつぶすようなガンマ特性の階調変換処理がなされる。図11に階調変換処理がなされた後の画素値とノイズ量の典型的関係を示す。画素値が小さい領域においては、階調変換処理によりノイズが増幅され、画素値が大きい領域においてはノイズがつぶされる結果、典型的には図11に示すような関係になる。本発明のように画像を周波数分割する場合には、画像に含まれるノイズは各帯域に分割され、画素値と各帯域におけるノイズ量の関係も図11に示すような関係になる。   In general, it is known that there is a certain relationship between the amount of noise contained in a pixel output from an image sensor and the pixel value, and the amount of noise can be estimated from the pixel value. FIG. 10 shows a typical relationship between the pixel value output from the image sensor and the amount of noise. In FIG. 10, the horizontal axis represents the pixel value of the pixel output from the image sensor, and the vertical axis represents the amount of noise (such as the standard deviation of noise) contained in the pixel. Typically, the amount of noise included tends to increase as the pixel value output from the image sensor increases. Pixels output from the image sensor are stored in the frame memory 103 after image processing such as gradation conversion is performed by the image processing unit 102. In the gradation conversion process, a gradation conversion process with a gamma characteristic is typically performed such that the dark part is lifted and the bright part is crushed. FIG. 11 shows a typical relationship between the pixel value after the gradation conversion processing and the noise amount. In the region where the pixel value is small, the noise is amplified by the gradation conversion process, and in the region where the pixel value is large, the noise is crushed. As a result, the relationship shown in FIG. When the image is frequency-divided as in the present invention, the noise included in the image is divided into each band, and the relationship between the pixel value and the amount of noise in each band is also as shown in FIG.

上記したようにノイズ量は画素値と関連があり、各帯域におけるノイズ量を推定するには、処理対象画素の直流成分を含んだ画素値が必要となる。基準画像又は対象画像から周波数分解された各周波数帯域の画像(すなわち、図4における高周波帯域画像307、中周波帯域画像308、低周波帯域画像309)は、必ずしも直流成分を含まないため、ノイズ量の推定に使用するには適さない。したがって、ノイズレベル推定用画像500、501は、基準画像および対象画像から作成される画像の内、直流成分を含む画像を使用する。   As described above, the noise amount is related to the pixel value, and in order to estimate the noise amount in each band, a pixel value including the DC component of the processing target pixel is required. The image of each frequency band (ie, the high-frequency band image 307, the middle-frequency band image 308, and the low-frequency band image 309 in FIG. 4) that is frequency-resolved from the reference image or the target image does not necessarily include a direct current component, and thus the amount of noise. Not suitable for use in estimating Therefore, the noise level estimation images 500 and 501 use an image including a direct current component among images generated from the reference image and the target image.

本実施形態においては、高周波帯域におけるノイズレベル推定用画像500、501は、図4に示したラプラシアンピラミッドによる周波数分解部における拡大処理部302の出力画像を使用するものとする。入力画像300も直流成分を含んでいるため使用可能ではあるが、ローパスフィルタ処理がなされた後の画像の方が安定したノイズレベル推定を期待できるという利点がある。同様に、中周波帯域におけるノイズレベル推定用画像500、501は、拡大処理部305の出力画像を使用する。低周波帯域においては、帯域画像そのものが直流成分を含んでいるため、ノイズレベル推定用画像500、501としては低周波帯域画像309を使用すればよい。   In the present embodiment, it is assumed that the noise level estimation images 500 and 501 in the high frequency band use output images of the enlargement processing unit 302 in the frequency decomposition unit using the Laplacian pyramid shown in FIG. Although the input image 300 can be used because it includes a direct current component, the image after the low-pass filter processing has an advantage that stable noise level estimation can be expected. Similarly, the output images of the enlargement processing unit 305 are used as the noise level estimation images 500 and 501 in the medium frequency band. In the low frequency band, since the band image itself includes a direct current component, the low frequency band image 309 may be used as the noise level estimation images 500 and 501.

次にノイズレベル推定部502の構成について説明する。図12は、ノイズレベル推定部502の概略構成を示すブロック図である。ノイズレベル推定部502は、処理対象画素に含まれるノイズの強度(ノイズレベル)を推定するものであり、図12に示すように、ノイズレベル計算部600,601及び最大値計算部602を備えている。ノイズレベル計算部600、601は、図11に示すような画素値とノイズ量の関係を事前に折れ線近似、あるいは、テーブル化等の手法により用意しておき、高周波帯域画像400の画素(基準画像)、あるいは、高周波帯域画像401(対象画像)の画素のノイズレベルをそれぞれ計算する。   Next, the configuration of the noise level estimation unit 502 will be described. FIG. 12 is a block diagram illustrating a schematic configuration of the noise level estimation unit 502. The noise level estimation unit 502 estimates noise intensity (noise level) included in the processing target pixel, and includes noise level calculation units 600 and 601 and a maximum value calculation unit 602 as shown in FIG. Yes. The noise level calculation units 600 and 601 prepare the relationship between the pixel value and the noise amount as shown in FIG. 11 in advance by a method such as polygonal line approximation or tabulation, and the pixels (reference image) of the high frequency band image 400 are prepared. Or the noise level of each pixel of the high frequency band image 401 (target image) is calculated.

基準画像と対象画像の位置合わせが成功している画素においては、基準画像の画素値と対象画像の画素値に大きな差はなく、計算されるノイズレベルにも大きな違いは生じない。しかし、位置合わせが失敗している画素においてはこれらに違いが生ずる可能性が高く、当該画素のノイズレベルとしては最大値計算部602にて最大値を選択することで、これをノイズレベルとする。本実施形態においては、最大値計算部602にて最大値を計算しこれをノイズレベルとしたが、この他にも、基準画像のノイズレベルと対象画像のノイズレベルの加重平均値とし、例えば基準画像の画素に重みをつけてノイズレベルを推定することも可能である。またノイズレベル計算部600、601を複数動作させるのが演算量の観点から望ましくない場合には、ノイズレベル計算部600のみを動作させ、この出力をノイズレベルとしても良い。   For pixels in which the alignment of the reference image and the target image is successful, there is no significant difference between the pixel value of the reference image and the pixel value of the target image, and no significant difference occurs in the calculated noise level. However, there is a high possibility that a difference will occur in a pixel for which alignment has failed, and this is set as the noise level by selecting the maximum value in the maximum value calculation unit 602 as the noise level of the pixel. . In the present embodiment, the maximum value is calculated by the maximum value calculation unit 602 and set as the noise level. In addition to this, a weighted average value of the noise level of the reference image and the noise level of the target image is used. It is also possible to estimate the noise level by weighting the pixels of the image. If it is not desirable to operate a plurality of noise level calculation units 600 and 601 from the viewpoint of the amount of computation, only the noise level calculation unit 600 may be operated and this output may be used as the noise level.

合成比率決定部503は、ノイズレベル推定部502で計算されるノイズレベルと、相関計算部402で計算される差分絶対値に基づいて、基準画像の高周波帯域画像400と対象画像の高周波帯域画像401の合成比率を決定する。図13に合成比率決定部503での合成比率の決定方法を説明する図を示す。合成比率は、基準画像を1.0とした際の対象画像の合成割合を0.0から1.0で表すものとする。まず、画素の差分絶対値の大小で合成比率を制御する。差分絶対値が小さい場合には、位置合わせが成功している可能性が高いので合成比率は大きくする。差分絶対値が大きい場合には、位置合わせが失敗している可能性が高いのでアーティファクトを抑えるため合成比率を小さくする。図13の例では、差分絶対値が閾値1より小さい場合には合成比率を1.0に、差分絶対値が閾値2より大きい場合には合成比率を0.0にし、閾値1から閾値2へは直線的に合成比率を遷移させている。   Based on the noise level calculated by the noise level estimation unit 502 and the absolute difference value calculated by the correlation calculation unit 402, the synthesis ratio determination unit 503 performs the high-frequency band image 400 of the reference image and the high-frequency band image 401 of the target image. Determine the composition ratio. FIG. 13 is a diagram for explaining a method for determining the composition ratio in the composition ratio determination unit 503. As for the composition ratio, the composition ratio of the target image when the reference image is 1.0 is represented by 0.0 to 1.0. First, the composition ratio is controlled by the magnitude of the absolute difference value of the pixels. When the difference absolute value is small, it is highly likely that the alignment has succeeded, so the composition ratio is increased. When the difference absolute value is large, there is a high possibility that the alignment has failed, so the synthesis ratio is reduced to suppress artifacts. In the example of FIG. 13, when the difference absolute value is smaller than the threshold value 1, the composition ratio is set to 1.0, and when the difference absolute value is larger than the threshold value 2, the composition ratio is set to 0.0. Is a linear transition of the composition ratio.

これに加えてノイズレベルに応じて閾値1と閾値2を制御することにより、ノイズレベルに応じた合成比率の制御を行う。ノイズレベルが大きい画素においては、合成によるノイズ低減の必要性が高いことから、合成比率を大きくするために、閾値1と閾値2を大きくする。具体的には、ノイズレベルに所定の定数を乗算した値を、閾値1と閾値2にそれぞれ加算する等とすればよい。ノイズレベルが小さい画素においては、合成によるノイズ低減の必要性が低いので、合成比率を低くするために、閾値1と閾値2を小さくする。具体的には、ノイズレベルに所定の定数を乗算した値を、閾値1と閾値2からそれぞれ減算する等とすればよい。合成比率決定部503は、このような関係をテーブル化等の手法で用意しておいてもよいし、数式計算で計算するようにしてもよい。   In addition, by controlling the threshold value 1 and the threshold value 2 according to the noise level, the synthesis ratio is controlled according to the noise level. In a pixel with a high noise level, the necessity for noise reduction by synthesis is high, so that threshold 1 and threshold 2 are increased in order to increase the synthesis ratio. Specifically, a value obtained by multiplying the noise level by a predetermined constant may be added to threshold 1 and threshold 2, respectively. In a pixel with a low noise level, since the necessity for noise reduction by synthesis is low, the threshold value 1 and the threshold value 2 are reduced in order to reduce the synthesis ratio. Specifically, a value obtained by multiplying the noise level by a predetermined constant may be subtracted from the threshold value 1 and the threshold value 2, respectively. The composition ratio determination unit 503 may prepare such a relationship by a method such as tabulation, or may calculate by a mathematical formula calculation.

加重平均化処理部404は、第2の実施形態と同様に、合成比率決定部503が出力する合成比率に応じて、基準画像の高周波帯域画像400と対象画像の高周波帯域画像401の画素の加重平均処理を行い、合成高周波帯域画像310を生成する。中周波帯域画像合成部203及び低周波帯域画像合成部204においても、上記の手順により、合成中周波帯域画像311及び合成低周波帯域画像312を生成する。   Similar to the second embodiment, the weighted averaging processing unit 404 weights the pixels of the high-frequency band image 400 of the reference image and the high-frequency band image 401 of the target image according to the combination ratio output by the combination ratio determination unit 503. An average process is performed to generate a composite high frequency band image 310. The intermediate frequency band image composition unit 203 and the low frequency band image composition unit 204 also generate the composite middle frequency band image 311 and the composite low frequency band image 312 according to the above procedure.

以上、本実施形態のように、画像を周波数分解し、各帯域において合成処理を制御することによって、微小な位置ずれにより全ての帯域において合成の効果を弱めるような処理がされてしまうことを防ぎ、アーティファクトの発生を抑える上で必要最小限な帯域でのみ合成の効果を弱めるような処理を適用することが可能となる。これによりアーティファクトの発生を抑えつつ、合成によるノイズ低減の効果を得ることが可能となる。また、各帯域で合成比率を変化させることにより、帯域を分割せずに合成比率を変化させる場合に比較して、画像上での合成効果の変動を抑制する効果を得ることができ、合成画像の画質を向上することが可能となる。さらに、ノイズレベル推定部にて処理対象画素のノイズレベルを推定し、画像間の相関と併せて合成比率の制御に用いることで、位置合わせ処理の失敗に起因するアーティファクトを抑えつつ、ノイズの少ない画素、あるいは、領域に対して過度の合成処理を行うことによるぼけや2重像の発生等のアーティファクトを精度良く確実に抑えることが可能となり、良好な合成結果をえることができる。   As described above, by frequency-decomposing the image and controlling the synthesis process in each band as in this embodiment, it is possible to prevent a process that weakens the synthesis effect in all bands due to a slight positional deviation. Thus, it is possible to apply processing that weakens the effect of synthesis only in the minimum band necessary for suppressing the occurrence of artifacts. As a result, it is possible to obtain an effect of noise reduction by synthesis while suppressing generation of artifacts. Also, by changing the composition ratio in each band, compared to changing the composition ratio without dividing the band, it is possible to obtain an effect of suppressing fluctuations in the composition effect on the image. It is possible to improve the image quality. Furthermore, the noise level estimation unit estimates the noise level of the pixel to be processed, and is used to control the composition ratio in conjunction with the correlation between images, thereby reducing artifacts while suppressing artifacts due to alignment processing failure. Artifacts such as blurring and generation of double images due to excessive synthesis processing on pixels or regions can be accurately and reliably suppressed, and a satisfactory synthesis result can be obtained.

〔第4の実施形態〕
次に、本発明の第4の実施形態について、図14を用いて説明する。本実施形態の画像処理装置が第2の実施形態と異なる点は、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204が、帯域画像動き情報取得部700及び帯域画像補正部702をさらに備えた点であり、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204において、各帯域画像間の位置合わせ処理を行う。以下、本実施形態の画像処理装置について、第1〜第3の実施形態と共通する点については説明を省略し、異なる点について説明する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIG. The difference between the image processing apparatus of the present embodiment and the second embodiment is that the high-frequency band image synthesis unit 202, the medium-frequency band image synthesis unit 203, and the low-frequency band image synthesis unit 204 are the band image motion information acquisition unit 700 and A band image correction unit 702 is further provided, and the high frequency band image synthesis unit 202, the medium frequency band image synthesis unit 203, and the low frequency band image synthesis unit 204 perform alignment processing between the band images. Hereinafter, regarding the image processing apparatus according to the present embodiment, description of points that are common to the first to third embodiments will be omitted, and different points will be described.

高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204は、周波数分解部200、201で各周波帯域に分解された基準画像と対象画像を、それぞれの帯域において合成するものであり、その構成は共通するので説明の便宜上、高周波帯域画像合成部202について説明する。図14は、高周波帯域画像合成部202の概略構成を示すブロック図である。図14に示すように、高周波帯域画像合成部202は、相関計算部402、合成比率決定部403、加重平均化処理部404、帯域画像動き情報取得部700及び帯域画像補正部702を備えている。   The high frequency band image synthesizing unit 202, the medium frequency band image synthesizing unit 203, and the low frequency band image synthesizing unit 204 synthesize the reference image and the target image decomposed into the frequency bands by the frequency decomposing units 200 and 201 in the respective bands. Since the configuration is common, the high frequency band image composition unit 202 will be described for convenience of explanation. FIG. 14 is a block diagram illustrating a schematic configuration of the high-frequency band image synthesis unit 202. As shown in FIG. 14, the high-frequency band image synthesis unit 202 includes a correlation calculation unit 402, a synthesis ratio determination unit 403, a weighted average processing unit 404, a band image motion information acquisition unit 700, and a band image correction unit 702. .

高周波帯域画像合成部202には、周波数分解部200,201により帯域分割された基準画像の高周波帯域画像400と帯域分割された対象画像の高周波帯域画像401が入力される。帯域画像動き情報取得部700では、基準画像の高周波帯域画像400と帯域分割された対象画像の高周波帯域画像401との間のずれ量を計算し、帯域画像動き情報701として帯域画像補正部702に出力する。帯域画像補正部702は、この動き情報701に応じて対象画像の高周波帯域画像401を補正する。相関計算部402、合成比率決定部403、加重平均化処理部404については、上記した第2の実施形態と共通するのでその説明を省略する。   The high-frequency band image synthesis unit 202 receives the high-frequency band image 400 of the reference image that has been band-divided by the frequency decomposition units 200 and 201 and the high-frequency band image 401 of the target image that has been band-divided. The band image motion information acquisition unit 700 calculates a shift amount between the high-frequency band image 400 of the reference image and the high-frequency band image 401 of the target image subjected to the band division, and the band image motion information 701 is input to the band image correction unit 702. Output. The band image correction unit 702 corrects the high frequency band image 401 of the target image according to the motion information 701. Since the correlation calculation unit 402, the composition ratio determination unit 403, and the weighted averaging processing unit 404 are the same as those in the second embodiment described above, description thereof is omitted.

通常は、動き情報取得部104と画像補正部105により基準画像に対する対象画像の位置合わせ処理がなされていれば、基準画像の高周波帯域画像400と対象画像の高周波帯域画像401の間のずれ量も小さいため、新たに帯域画像動き情報701を取得する必要はない。しかし、動き情報取得部104と画像補正部105による位置合わせ処理の性能が低い場合や、これら位置合わせ処理自体が行われない場合には、画像の全ての場所においてずれ量を小さくすることはできない。特に、被写体が動いた場所等で大きい位置ずれが発生する。このような局所的な位置ずれに対処するためには、画像全体の位置合わせ処理に加えて、画素単位あるいは領域単位での局所的位置合わせ処理を行うことが望ましい。   Normally, if the target image is aligned with the reference image by the motion information acquisition unit 104 and the image correction unit 105, the amount of deviation between the high-frequency band image 400 of the reference image and the high-frequency band image 401 of the target image is also determined. Since it is small, it is not necessary to newly acquire the band image motion information 701. However, when the performance of the alignment processing by the motion information acquisition unit 104 and the image correction unit 105 is low, or when the alignment processing itself is not performed, the amount of deviation cannot be reduced in all locations of the image. . In particular, a large misalignment occurs in places where the subject has moved. In order to deal with such a local positional shift, it is desirable to perform a local alignment process in units of pixels or regions in addition to the alignment process of the entire image.

しかしながら、通常、位置合わせ処理には大きな演算量が必要とされるという問題がある。本実施形態によれば、各帯域において局所的位置合わせ処理を行うことで、比較的小さい演算量でも効果を得ることが可能となる。つまり、帯域画像動き情報取得部700で計算する動き情報を1個の動きベクトル(水平方向移動量と垂直方向移動量)とし、その動きベクトルの最大値(演算量を決定する探索範囲)を小さい値とする。動きベクトルの最大値が小さい場合には、位置合わせが不可能な場合も発生するが、本実施形態においては、各帯域において位置合わせを行うので、例えば、高周波帯域で位置合わせが不可能だとしても、画像が縮小された低周波帯域では実質的に探索範囲が大きくなるため、位置合わせが可能となる場合があり、このような場合には低周波帯域における合成精度が高くなるため、全体の精度を向上させる効果を得ることができる。   However, there is usually a problem that a large amount of calculation is required for the alignment processing. According to the present embodiment, it is possible to obtain an effect even with a relatively small amount of computation by performing local alignment processing in each band. That is, the motion information calculated by the band image motion information acquisition unit 700 is one motion vector (horizontal movement amount and vertical movement amount), and the maximum value of the motion vector (search range for determining the calculation amount) is small. Value. If the maximum value of the motion vector is small, there may be a case where alignment is impossible. However, in this embodiment, since alignment is performed in each band, for example, it is impossible to perform alignment in a high frequency band. However, since the search range is substantially increased in the low frequency band where the image is reduced, positioning may be possible. In such a case, the synthesis accuracy in the low frequency band is increased, so The effect of improving accuracy can be obtained.

なお、上述の精度向上の効果は、画像を帯域分割して各帯域において位置合わせ処理を行うことにより得ることができるが、本実施形態のように合成処理部において帯域分割し各帯域において合成する場合に、各帯域において同時に位置合わせを行うことで、周波数分解処理および周波数合成処理を合成処理と位置合わせ処理で共通化することが可能となり、演算量削減の効果を得ることが可能となる。   The effect of improving the accuracy described above can be obtained by dividing the image into bands and performing alignment processing in each band. However, as in the present embodiment, the composition processing unit divides the band and synthesizes in each band. In this case, by performing alignment in each band at the same time, it is possible to share the frequency decomposition process and the frequency synthesis process in the synthesis process and the alignment process, and to obtain the effect of reducing the amount of calculation.

以上、本実施形態のように、画像を周波数分解し、各帯域において合成処理を制御することによって、微小な位置ずれにより全ての帯域において合成の効果を弱めるような処理がされてしまうことを防ぎ、アーティファクトの発生を抑える上で必要最小限な帯域でのみ合成の効果を弱めるような処理を適用することが可能となる。これによりアーティファクトの発生を抑えつつ、合成によるノイズ低減の効果を得ることが可能となる。また、各帯域で合成比率を変化させることにより、帯域を分割せずに合成比率を変化させる場合に比較して、画像上での合成効果の変動を抑制する効果を得ることができ、合成画像の画質を向上することが可能となる。さらに、分解された各帯域において位置合わせ処理を行うことで、新たに周波数分解処理、周波数合成処理をすることなく、各帯域における位置合わせ処理を行うことが可能となり、低演算量で精度の高い位置合わせ処理が可能となる。   As described above, by frequency-decomposing the image and controlling the synthesis process in each band as in this embodiment, it is possible to prevent a process that weakens the synthesis effect in all bands due to a slight positional deviation. Thus, it is possible to apply processing that weakens the effect of synthesis only in the minimum band necessary for suppressing the occurrence of artifacts. As a result, it is possible to obtain an effect of noise reduction by synthesis while suppressing generation of artifacts. Also, by changing the composition ratio in each band, compared to changing the composition ratio without dividing the band, it is possible to obtain an effect of suppressing fluctuations in the composition effect on the image. It is possible to improve the image quality. Furthermore, by performing alignment processing in each decomposed band, it is possible to perform alignment processing in each band without newly performing frequency decomposition processing and frequency synthesis processing. Registration processing is possible.

〔第5の実施形態〕
次に、本発明の第5の実施形態について、図15を用いて説明する。本実施形態の画像処理装置が第4の実施形態と異なる点は、高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204が、帯域画像間の位置合わせ処理を行う際に、低周波帯域における位置合わせ結果を高周波帯域側での位置合わせ処理における探索初期位置として使用する点である。即ち、本実施形態では、上述した第4の実施形態における帯域画像合成部において、帯域画像間の位置合わせ処理を行う際に、低周波帯域における位置合わせ結果を高周波帯域側での位置合わせ処理における探索初期位置として使用する。この探索初期位置の周辺に比較的狭い動き情報探索範囲を設定して位置合わせ処理を行うことにより、高周波帯域においても低演算量で実質的な探索範囲の広い位置合わせ処理を行う。以下、本実施形態の画像処理装置について、第1〜第4の実施形態と共通する点については説明を省略し、異なる点について説明する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described with reference to FIG. The difference between the image processing apparatus of this embodiment and the fourth embodiment is that the high-frequency band image composition unit 202, the medium-frequency band image composition unit 203, and the low-frequency band image composition unit 204 perform alignment processing between band images. When performing, the alignment result in the low frequency band is used as the initial search position in the alignment process on the high frequency band side. That is, in the present embodiment, when the band image synthesizing unit in the above-described fourth embodiment performs the alignment process between the band images, the alignment result in the low frequency band is used in the alignment process on the high frequency band side. Used as the initial search position. By performing a registration process by setting a relatively narrow motion information search range around the initial search position, a registration process having a wide substantial search range is performed with a low amount of computation even in a high frequency band. Hereinafter, regarding the image processing apparatus according to the present embodiment, description of points that are common to the first to fourth embodiments will be omitted, and different points will be described.

高周波帯域画像合成部202、中周波帯域画像合成部203及び低周波帯域画像合成部204は、周波数分解部200、201で各周波帯域に分解された基準画像と対象画像を、それぞれの帯域において合成するものであり、その構成は共通するので説明の便宜上、高周波帯域画像合成部202について説明する。図15は、高周波帯域画像合成部202の概略構成を示すブロック図である。図15に示すように、高周波帯域画像合成部202は、相関計算部402、合成比率決定部403、加重平均化処理部404、帯域画像動き情報取得部700及び帯域画像補正部702を備えている。   The high frequency band image synthesizing unit 202, the medium frequency band image synthesizing unit 203, and the low frequency band image synthesizing unit 204 synthesize the reference image and the target image decomposed into the frequency bands by the frequency decomposing units 200 and 201 in the respective bands. Since the configuration is common, the high frequency band image composition unit 202 will be described for convenience of explanation. FIG. 15 is a block diagram illustrating a schematic configuration of the high frequency band image synthesis unit 202. As shown in FIG. 15, the high-frequency band image synthesis unit 202 includes a correlation calculation unit 402, a synthesis ratio determination unit 403, a weighted averaging processing unit 404, a band image motion information acquisition unit 700, and a band image correction unit 702. .

高周波帯域画像合成部202には、周波数分解部200,201により帯域分割された基準画像の高周波帯域画像400と帯域分割された対象画像の高周波帯域画像401が入力される。帯域画像動き情報取得部700では、基準画像の高周波帯域画像400と帯域分割された対象画像の高周波帯域画像401との間のずれ量を計算するが、このとき、帯域画像動き情報取得部700は、帯域画像動き情報初期値703を低周波帯域から入力して、該初期値周辺のずれ量を候補ベクトルとして位置探索を行う。ただし、一番低い帯域における帯域画像動き情報初期値703は0ベクトルとする。帯域画像動き情報取得部700は、探索結果である帯域画像動き情報701を帯域画像補正部702に出力する。   The high-frequency band image synthesis unit 202 receives the high-frequency band image 400 of the reference image that has been band-divided by the frequency decomposition units 200 and 201 and the high-frequency band image 401 of the target image that has been band-divided. The band image motion information acquisition unit 700 calculates the amount of deviation between the high-frequency band image 400 of the reference image and the high-frequency band image 401 of the target image subjected to band division. At this time, the band image motion information acquisition unit 700 The band image motion information initial value 703 is input from the low frequency band, and the position search is performed using the deviation amount around the initial value as a candidate vector. However, the band image motion information initial value 703 in the lowest band is a zero vector. The band image motion information acquisition unit 700 outputs band image motion information 701 as a search result to the band image correction unit 702.

帯域画像補正部702は、この動き情報701に応じて対象画像の高周波帯域画像401を補正する。相関計算部402、合成比率決定部403、加重平均化処理部404については、上記した第2及び第3の実施形態と共通するのでその説明を省略する。   The band image correction unit 702 corrects the high frequency band image 401 of the target image according to the motion information 701. Since the correlation calculation unit 402, the combination ratio determination unit 403, and the weighted averaging processing unit 404 are the same as those in the second and third embodiments described above, description thereof is omitted.

本実施形態のように、分割した各帯域において位置合わせ処理をし、かつ、高周波帯域での位置合わせ処理を低周波帯域での位置合わせ処理の結果を利用して行うことにより、すなわち、探索初期位置の周辺に比較的狭い動き情報探索範囲を設定して位置合わせ処理を行うことにより、高周波帯域においても低演算量で実質的な探索範囲の広い位置合わせ処理が可能となる。   As in this embodiment, alignment processing is performed in each divided band, and alignment processing in the high frequency band is performed using the result of the alignment processing in the low frequency band, that is, the initial search By performing the alignment process by setting a relatively narrow motion information search range around the position, it is possible to perform an alignment process with a large search range with a low amount of computation even in a high frequency band.

なお、上述の効果は、画像を帯域分割して各帯域において位置合わせ処理を行うことにより得ることができるが、本実施形態のように合成処理部において帯域分割し各帯域において合成する場合に、各帯域において同時に位置合わせを行うことで、周波数分解処理および周波数合成処理を合成処理と位置合わせ処理で共通化することが可能となり、演算量削減の効果を得ることが可能となる。   The above-described effect can be obtained by dividing the image into bands and performing alignment processing in each band. However, when the band is divided in the combination processing unit and combined in each band as in the present embodiment, By performing alignment in each band at the same time, it is possible to share frequency resolution processing and frequency synthesis processing between synthesis processing and alignment processing, and to obtain an effect of reducing the amount of calculation.

以上、本実施形態のように、画像を周波数分解し、各帯域において合成処理を制御することによって、微小な位置ずれにより全ての帯域において合成の効果を弱めるような処理がされてしまうことを防ぎ、アーティファクトの発生を抑える上で必要最小限な帯域でのみ合成の効果を弱めるような処理を適用することが可能となる。これによりアーティファクトの発生を抑えつつ、合成によるノイズ低減の効果を得ることが可能となる。また、各帯域で合成比率を変化させることにより、帯域を分割せずに合成比率を変化させる場合に比較して、画像上での合成効果の変動を抑制する効果を得ることができ、合成画像の画質を向上することが可能となる。さらに、分解された各帯域において位置合わせ処理を行い、低周波帯域での位置合わせ結果を高周波帯域での位置合わせに使用することによって、新たに周波数分解処理、周波数合成処理をすることなく、各帯域における位置合わせ処理を行うことが可能となり、低演算量で探索範囲の広く精度の高い位置合わせ処理が可能となる。   As described above, by frequency-decomposing the image and controlling the synthesis process in each band as in this embodiment, it is possible to prevent a process that weakens the synthesis effect in all bands due to a slight positional deviation. Thus, it is possible to apply processing that weakens the effect of synthesis only in the minimum band necessary for suppressing the occurrence of artifacts. As a result, it is possible to obtain an effect of noise reduction by synthesis while suppressing generation of artifacts. Also, by changing the composition ratio in each band, compared to changing the composition ratio without dividing the band, it is possible to obtain an effect of suppressing fluctuations in the composition effect on the image. It is possible to improve the image quality. Furthermore, by performing alignment processing in each decomposed band, and using the alignment result in the low frequency band for alignment in the high frequency band, each without performing new frequency decomposition processing and frequency synthesis processing, It is possible to perform alignment processing in the band, and it is possible to perform alignment processing with a low calculation amount and a wide search range and high accuracy.

なお、上述した実施形態では、ハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。この場合、画像処理装置は、汎用又は専用のコンピュータを用いて実現することができる。このようなコンピュータは、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を備えている。そして、CPUが上記記憶媒体に記録されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の故障診断装置と同様の処理を実現させる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
In the above-described embodiment, processing based on hardware is assumed, but it is not necessary to be limited to such a configuration. For example, a configuration in which processing is performed separately by software is also possible. In this case, the image processing apparatus can be realized using a general purpose or dedicated computer. Such a computer includes a main storage device such as a CPU and a RAM, and a computer-readable recording medium on which a program for realizing all or part of the above processing is recorded. Then, the CPU reads out the program recorded in the storage medium and executes information processing / calculation processing, thereby realizing the same processing as the above-described failure diagnosis apparatus.
Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

なお、上述した実施形態は、画像処理装置が光学系及び撮像素子を備える構成としたが、必ずしもこれらを備える必要はない。この場合、画像処理装置による画像の取得は、画像処理装置への画像の入力を意味する。   In the above-described embodiment, the image processing apparatus includes the optical system and the image sensor, but it is not always necessary to include these. In this case, acquisition of an image by the image processing device means input of the image to the image processing device.

100 光学系
101 撮像素子
102 画像処理部
103 フレームメモリ
104 動き情報取得部
105 画像補正部
106 合成処理部
200,201 周波数分解部(周波数分解手段)
202 高周波帯域画像合成部(帯域画像合成手段)
203 中周波帯域画像合成部(帯域画像合成手段)
204 低周波帯域画像合成部(帯域画像合成手段)
205 周波数合成部(画像合成手段)
300 入力画像
301,304 フィルタ処理・縮小処理部
302,305,314,316 拡大処理部
303,306 減算器
307 高周波帯域画像
308 中周波帯域画像
309 低周波帯域画像
310 合成高周波帯域画像
311 合成中周波帯域画像
312 合成低周波帯域画像
313,315 加算器
317 出力画像
400 基準画像の高周波帯域画像
401 対象画像の高周波帯域画像
402 相関計算部
403,410,503 合成比率決定部
404 加重平均化処理部
500 基準画像のノイズレベル推定用画像
501 対象画像のノイズレベル推定用画像
502 ノイズレベル推定部
600,601 ノイズレベル計算部
602 最大値計算部
700 帯域画像動き情報取得部
701 帯域画像動き情報
702 帯域画像補正部
703 帯域画像動き情報初期値
DESCRIPTION OF SYMBOLS 100 Optical system 101 Image pick-up element 102 Image processing part 103 Frame memory 104 Motion information acquisition part 105 Image correction part 106 Compositing process part 200,201 Frequency decomposition part (frequency decomposition means)
202 High-frequency band image composition unit (band image composition means)
203 Medium frequency band image synthesizing unit (band image synthesizing means)
204 Low-frequency band image composition unit (band image composition means)
205 Frequency synthesis unit (image synthesis means)
300 Input Image 301, 304 Filter Processing / Reduction Processing Unit 302, 305, 314, 316 Enlargement Processing Unit 303, 306 Subtractor 307 High Frequency Band Image 308 Medium Frequency Band Image 309 Low Frequency Band Image 310 Composite High Frequency Band Image 311 Composite Medium Frequency Band image 312 Composite low-frequency band image 313, 315 Adder 317 Output image 400 High-frequency band image 401 of reference image High-frequency band image 402 of target image Correlation calculation units 403, 410, 503 Composite ratio determination unit 404 Weighted averaging processing unit 500 Noise level estimation image 501 of reference image Noise level estimation image 502 of target image Noise level estimation unit 600, 601 Noise level calculation unit 602 Maximum value calculation unit 700 Band image motion information acquisition unit 701 Band image motion information 702 Band image correction 703 Band image motion Information initial value

Claims (10)

複数の画像を取得し、該複数の画像を合成して合成画像を生成する画像処理装置であって、
各前記画像を、それぞれ複数の周波数帯域に分解し、該周波数帯域毎の帯域画像を生成する周波数分解手段と、
前記複数の画像のうち何れか1つを基準画像とし、他の画像を対象画像とした場合に、前記基準画像の帯域画像に対する前記対象画像の帯域画像の合成比率を周波数帯域毎に決定する合成比率決定手段と、
前記対象画像の帯域画像を前記基準画像の帯域画像に対して、前記合成比率に基づいて周波数帯域毎に合成し、該周波数帯域毎にそれぞれ合成帯域画像を生成する帯域画像合成手段と、
前記複数の合成帯域画像を合成して合成画像を生成する画像合成手段と、
を備えたことを特徴とする画像処理装置。
An image processing apparatus that acquires a plurality of images and generates a composite image by combining the plurality of images,
Frequency resolving means for decomposing each image into a plurality of frequency bands and generating a band image for each frequency band;
A composition for determining, for each frequency band, a composition ratio of a band image of the target image to a band image of the reference image when any one of the plurality of images is a reference image and another image is a target image. A ratio determining means;
A band image synthesizing unit that synthesizes the band image of the target image with respect to the band image of the reference image for each frequency band based on the synthesis ratio, and generates a synthesized band image for each frequency band;
Image combining means for combining the plurality of combined band images to generate a combined image;
An image processing apparatus comprising:
前記複数の画像間の動き量を検出する動き検出手段を備え、
前記画像合成手段による合成画像の生成に先立って、前記動き量に基づいて、前記複数の画像に対して補正処理を行うことを特徴とする請求項1に記載の画像処理装置。
A motion detecting means for detecting a motion amount between the plurality of images;
The image processing apparatus according to claim 1, wherein correction processing is performed on the plurality of images based on the amount of motion prior to generation of a composite image by the image composition unit.
前記基準画像の帯域画像に対する前記対象画像の帯域画像の相関性を示す相関値を、周波数帯域毎に画素単位又は複数画素からなる所定の領域単位で計算する相関計算手段を備え、
前記合成比率決定手段は、予め定めた閾値と前記相関値とを比較し、前記相関値が前記該閾値よりも小さくなるにつれて、前記合成比率を小さく設定することを特徴とする請求項1又は請求項2に記載の画像処理装置。
A correlation calculating means for calculating a correlation value indicating a correlation of the band image of the target image with respect to the band image of the reference image in units of a predetermined region composed of a pixel unit or a plurality of pixels for each frequency band;
The composition ratio determining means compares a predetermined threshold value with the correlation value, and sets the composition ratio to be smaller as the correlation value becomes smaller than the threshold value. Item 3. The image processing apparatus according to Item 2.
前記複数枚の画像のうち少なくとも1枚の画像の帯域画像について、周波数帯域毎に画素単位又は複数画素からなる所定の領域単位でノイズレベルを推定するノイズレベル推定手段を備え、
前記ノイズレベルに基づいて前記閾値を定めることを特徴とする請求項3に記載の画像処理装置。
Noise level estimation means for estimating a noise level in a predetermined region unit consisting of a pixel unit or a plurality of pixels for each frequency band for a band image of at least one image among the plurality of images,
The image processing apparatus according to claim 3, wherein the threshold is determined based on the noise level.
前記帯域画像間の動き量を、周波数帯域毎に検出する帯域画像動き検出手段を備え、
前記画像合成手段による合成画像の生成に先立って、前記帯域画像の動き量に基づいて、前記帯域画像に対して補正処理を行うことを特徴とする請求項1に記載の画像処理装置。
Band image motion detection means for detecting the amount of motion between the band images for each frequency band,
The image processing apparatus according to claim 1, wherein correction processing is performed on the band image based on a motion amount of the band image prior to generation of a composite image by the image composition unit.
前記複数の画像間の動き量を検出する動き検出手段と、前記帯域画像間の動き量を、周波数帯域毎に検出する帯域画像動き検出手段と、を備え、
前記周波数分解手段による帯域画像の生成に先立って、前記動き量に基づいて前記複数の画像に対して補正処理を行い、前記画像合成手段による合成画像の生成に先立って、前記帯域画像の動き量に基づいて、前記帯域画像に対して補正処理を行うことを特徴とする請求項1に記載の画像処理装置。
A motion detection means for detecting a motion amount between the plurality of images, and a band image motion detection means for detecting a motion amount between the band images for each frequency band,
Prior to the generation of the band image by the frequency resolving means, the plurality of images are corrected based on the amount of motion, and the amount of motion of the band image prior to the generation of the composite image by the image combining means The image processing apparatus according to claim 1, wherein a correction process is performed on the band image based on the image.
前記帯域画像動き検出手段は、前記帯域画像における動き情報検索範囲を、低周波数帯域の動き情報を用いて決定することを特徴とする請求項5又は請求項6に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the band image motion detection unit determines a motion information search range in the band image using motion information in a low frequency band. 複数の画像を取得し、該複数の画像を合成して合成画像を生成する画像処理方法であって、
各前記画像を、それぞれ複数の周波数帯域に分解し、該周波数帯域毎の帯域画像を生成する周波数分解ステップと、
前記複数の画像のうち何れか1つを基準画像とし、他の画像を対象画像とした場合に、前記基準画像の帯域画像に対する前記対象画像の帯域画像の合成比率を周波数帯域毎に決定する合成比率決定ステップと、
前記対象画像の帯域画像を前記基準画像の帯域画像に対して、前記合成比率に基づいて周波数帯域毎に合成し、該周波数帯域毎にそれぞれ合成帯域画像を生成する帯域画像合成ステップと、
前記複数の合成帯域画像を合成して合成画像を生成する画像合成ステップと、
を備えたことを特徴とする画像処理方法。
An image processing method for acquiring a plurality of images and combining the plurality of images to generate a combined image,
A frequency decomposition step of decomposing each of the images into a plurality of frequency bands, and generating a band image for each frequency band;
A composition for determining, for each frequency band, a composition ratio of a band image of the target image to a band image of the reference image when any one of the plurality of images is a reference image and another image is a target image. A ratio determination step;
A band image synthesis step of synthesizing the band image of the target image with respect to the band image of the reference image for each frequency band based on the synthesis ratio, and generating a synthesized band image for each frequency band;
An image synthesis step of generating a composite image by combining the plurality of composite band images;
An image processing method comprising:
複数の画像を取得し、該複数の画像を合成して合成画像を生成する画像処理プログラムであって、
各前記画像を、それぞれ複数の周波数帯域に分解し、該周波数帯域毎の帯域画像を生成する周波数分解ステップと、
前記複数の画像のうち何れか1つを基準画像とし、他の画像を対象画像とした場合に、前記基準画像の帯域画像に対する前記対象画像の帯域画像の合成比率を周波数帯域毎に決定する合成比率決定ステップと、
前記対象画像の帯域画像を前記基準画像の帯域画像に対して、前記合成比率に基づいて周波数帯域毎に合成し、該周波数帯域毎にそれぞれ合成帯域画像を生成する帯域画像合成ステップと、
前記複数の合成帯域画像を合成して合成画像を生成する画像合成ステップと、
を備える画像処理をコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program for acquiring a plurality of images and generating a composite image by combining the plurality of images,
A frequency decomposition step of decomposing each of the images into a plurality of frequency bands, and generating a band image for each frequency band;
A composition for determining, for each frequency band, a composition ratio of a band image of the target image to a band image of the reference image when any one of the plurality of images is a reference image and another image is a target image. A ratio determination step;
A band image synthesis step of synthesizing the band image of the target image with respect to the band image of the reference image for each frequency band based on the synthesis ratio, and generating a synthesized band image for each frequency band;
An image synthesis step of generating a composite image by combining the plurality of composite band images;
An image processing program for causing a computer to execute image processing comprising:
請求項9に記載のプログラムが格納されたプログラム記憶媒体。   A program storage medium in which the program according to claim 9 is stored.
JP2009202438A 2009-09-02 2009-09-02 Image processing apparatus, image processing method, image processing program and program storage medium stored with image processing program Withdrawn JP2011055259A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009202438A JP2011055259A (en) 2009-09-02 2009-09-02 Image processing apparatus, image processing method, image processing program and program storage medium stored with image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009202438A JP2011055259A (en) 2009-09-02 2009-09-02 Image processing apparatus, image processing method, image processing program and program storage medium stored with image processing program

Publications (1)

Publication Number Publication Date
JP2011055259A true JP2011055259A (en) 2011-03-17

Family

ID=43943811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009202438A Withdrawn JP2011055259A (en) 2009-09-02 2009-09-02 Image processing apparatus, image processing method, image processing program and program storage medium stored with image processing program

Country Status (1)

Country Link
JP (1) JP2011055259A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203873A (en) * 2011-03-28 2012-10-22 Jvc Kenwood Corp Signal processor, signal processing method and signal processing program
JP2012203872A (en) * 2011-03-28 2012-10-22 Jvc Kenwood Corp Signal processor, signal processing method and signal processing program
JP2012226489A (en) * 2011-04-18 2012-11-15 Nikon Corp Image processing program, image processing method, image processor, and image pickup device
JP2012244252A (en) * 2011-05-16 2012-12-10 Fujitsu Ltd Image processing apparatus, image processing method, and image processing program
JP2013201724A (en) * 2012-03-26 2013-10-03 Toshiba Digital Media Engineering Corp Image processing device and image processing method
CN110750757A (en) * 2019-10-29 2020-02-04 哈尔滨工业大学 Image jitter amount calculation method based on gray scale linear modeling and pyramid decomposition
JP2020201694A (en) * 2019-06-10 2020-12-17 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203873A (en) * 2011-03-28 2012-10-22 Jvc Kenwood Corp Signal processor, signal processing method and signal processing program
JP2012203872A (en) * 2011-03-28 2012-10-22 Jvc Kenwood Corp Signal processor, signal processing method and signal processing program
JP2012226489A (en) * 2011-04-18 2012-11-15 Nikon Corp Image processing program, image processing method, image processor, and image pickup device
JP2012244252A (en) * 2011-05-16 2012-12-10 Fujitsu Ltd Image processing apparatus, image processing method, and image processing program
JP2013201724A (en) * 2012-03-26 2013-10-03 Toshiba Digital Media Engineering Corp Image processing device and image processing method
JP2020201694A (en) * 2019-06-10 2020-12-17 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and storage medium
JP7337555B2 (en) 2019-06-10 2023-09-04 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and storage medium
CN110750757A (en) * 2019-10-29 2020-02-04 哈尔滨工业大学 Image jitter amount calculation method based on gray scale linear modeling and pyramid decomposition
CN110750757B (en) * 2019-10-29 2023-04-07 哈尔滨工业大学 Image jitter amount calculation method based on gray scale linear modeling and pyramid decomposition

Similar Documents

Publication Publication Date Title
US10636126B2 (en) Image processing device, imaging apparatus, image processing method, image processing program, and recording medium
US9898803B2 (en) Image processing apparatus, image processing method, and recording medium storing image processing program
US8243150B2 (en) Noise reduction in an image processing method and image processing apparatus
US20120008005A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium having image processing program recorded thereon
US8233062B2 (en) Image processing apparatus, image processing method, and imaging apparatus
US9055217B2 (en) Image compositing apparatus, image compositing method and program recording device
US8311282B2 (en) Image processing apparatus, image processing method, and program
JP2010200179A (en) Image processor, image processing method, image processing program and program storing medium in which image processing program is stored
JP5576812B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
KR101652658B1 (en) Image processing device, image processing method, image processing program, and recording medium
JP5744614B2 (en) Image processing apparatus, image processing method, and image processing program
JP2011055259A (en) Image processing apparatus, image processing method, image processing program and program storage medium stored with image processing program
US10491815B2 (en) Image-processing apparatus, image-processing method, and non-transitory computer readable medium storing image-processing program
US20090207271A1 (en) Image Processor Correcting Color Misregistration, Image Processing Program, Image Processing Method, and Electronic Camera
CN109328454B (en) Image processing apparatus
JP2007072573A (en) Image processor and image processing method
JP2009219082A (en) Image processing apparatus and image processing method
JP2009130537A (en) Image processing device and image processing method
JP2011199786A (en) Apparatus, method and program for processing image
JP2012208553A (en) Image processing device, image processing method, and program
KR20120027099A (en) Image processing device, image processing method, program, recording medium, and integrated circuit
US20120133786A1 (en) Image processing method and image processing device
JPWO2016207990A1 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
WO2006025396A1 (en) Image processing device, and image processing program
KR20150118004A (en) Movement detecting apparatus and movement detecting method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106