JP6245847B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6245847B2
JP6245847B2 JP2013114410A JP2013114410A JP6245847B2 JP 6245847 B2 JP6245847 B2 JP 6245847B2 JP 2013114410 A JP2013114410 A JP 2013114410A JP 2013114410 A JP2013114410 A JP 2013114410A JP 6245847 B2 JP6245847 B2 JP 6245847B2
Authority
JP
Japan
Prior art keywords
image data
noise reduction
pixel
image
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013114410A
Other languages
Japanese (ja)
Other versions
JP2014236226A (en
Inventor
寿人 関根
寿人 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013114410A priority Critical patent/JP6245847B2/en
Publication of JP2014236226A publication Critical patent/JP2014236226A/en
Application granted granted Critical
Publication of JP6245847B2 publication Critical patent/JP6245847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明はノイズ低減処理を行う画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for performing noise reduction processing.

デジタルスチルカメラやデジタルビデオカメラなどのデジタル撮像装置は広く普及して一般に利用されている。これらのデジタル撮像装置は、CCDやCMOSセンサなどの光電荷変換素子(撮像素子)で受光した光をデジタル信号に変換することでデジタル画像データを生成する。デジタル画像データを生成する過程では、撮像素子や回路の特性により暗電流ノイズ、熱雑音、及びショットノイズなどが発生し、デジタル画像データにランダムなノイズ(ランダムノイズ)が混入する。近年の撮像素子の小型化、高画素化に伴い画素ピッチが極小化しているため、ランダムノイズが目立ちやすくなっており、特に撮像感度を高くした場合などはランダムノイズが顕著に発生し、画質劣化の大きな要因になっている。そこで、ランダムノイズを除去することで高画質化を実現するため様々な方法が提案されている。   Digital imaging devices such as digital still cameras and digital video cameras are widely used and are generally used. These digital imaging devices generate digital image data by converting light received by a photoelectric charge conversion device (imaging device) such as a CCD or CMOS sensor into a digital signal. In the process of generating digital image data, dark current noise, thermal noise, shot noise, and the like are generated due to the characteristics of the image sensor and circuit, and random noise (random noise) is mixed into the digital image data. Random noise is more conspicuous because the pixel pitch has been minimized with the recent downsizing and higher pixel size of the image sensor. Especially when the imaging sensitivity is increased, the random noise is noticeable and the image quality deteriorates. It has become a big factor. Therefore, various methods have been proposed to realize high image quality by removing random noise.

例えば、1枚の撮像画像内の着目画素を含む領域(着目領域)を定め、その領域単位で着目画素と参照画素との類似度を求め、この類似度に応じた加重平均を用いてノイズ低減を実現する方法が提案されている(特許文献1)。しかしながら、特許文献1の方法では、建物などのエッジを多く含む領域と、空などの平坦な領域とが混在する画像の場合、領域によってノイズ低減効果が異なるという問題がある。これはエッジ部に比べ、平坦部の方が着目画素に類似した参照画素が多く分布するためノイズ低減しやすいためである。すなわち、ノイズ低減効果はエッジ部に比べて平坦部の方が高くなってしまう。一方、同一撮像シーンを複数枚撮像し、上記のような1枚の撮像画像内でのノイズ低減後にそれぞれの手ブレや動被写体などによる位置ズレを補正し、合成する方法が提案されている(特許文献2)。特許文献2の方法では、一定のノイズ量になるようにまず1枚の撮像画像に対してノイズ低減を行い、その後、1枚のノイズ低減を行った複数枚の画像を合成することで、画像内のノイズ低減効果を一定にする。   For example, an area including a target pixel in one captured image (target area) is determined, the similarity between the target pixel and the reference pixel is obtained for each area, and noise reduction is performed using a weighted average corresponding to the similarity. Has been proposed (Patent Document 1). However, the method of Patent Document 1 has a problem that the noise reduction effect differs depending on the region in the case of an image in which a region including many edges such as a building and a flat region such as the sky are mixed. This is because, compared with the edge portion, the flat portion has more reference pixels similar to the pixel of interest and is more likely to reduce noise. That is, the noise reduction effect is higher in the flat portion than in the edge portion. On the other hand, a method has been proposed in which a plurality of images of the same imaging scene are captured, and the positional deviation due to each camera shake or moving subject is corrected after noise reduction in one captured image as described above and combined ( Patent Document 2). In the method of Patent Literature 2, first, noise reduction is performed on one captured image so that a certain amount of noise is obtained, and then a plurality of images on which one noise reduction has been performed are combined to generate an image. The noise reduction effect is made constant.

特表2007−536662号公報Special table 2007-536662 gazette 特開2010−171753号公報JP 2010-171753 A

特許文献2の方法によれば、領域によって画像内のノイズ低減効果が異なることを避けることができる。しかしながら、特許文献2の方法は、1枚の画像内でのノイズ低減処理を行い、その後、ノイズ低減処理を行った複数枚の画像データを合成する技術である。特許文献1や特許文献2のような1枚の画像内でのノイズ低減処理においては、着目画素と周囲の画素との関係から着目画素の本来の画素値を推定する。そのため、ノイズ量が非常に多い場合には、着目画素の本来の画素を推定が困難となる。従って、S/N比が非常に悪い場合には、ボケやアーティファクトといった画質障害を引き起こしてしまう。特許文献2のように、このような1枚の画像内のノイズ低減処理後の画像データを合成することでノイズ低減を行う場合には、1枚の画像内のノイズ低減処理において生じた画質障害の影響を残したままノイズ低減処理を行うことになる。このため、さらに画像障害を引き起こす可能性がある。   According to the method of Patent Document 2, it is possible to avoid that the noise reduction effect in the image differs depending on the region. However, the method of Patent Document 2 is a technique for performing noise reduction processing in one image and then combining a plurality of pieces of image data subjected to noise reduction processing. In noise reduction processing in one image as in Patent Document 1 and Patent Document 2, the original pixel value of the target pixel is estimated from the relationship between the target pixel and surrounding pixels. Therefore, when the amount of noise is very large, it is difficult to estimate the original pixel of the pixel of interest. Therefore, when the S / N ratio is very bad, image quality problems such as blurring and artifacts are caused. When noise reduction is performed by synthesizing image data after noise reduction processing in such a single image as in Patent Document 2, an image quality failure that occurs in the noise reduction processing in one image. Noise reduction processing is performed while leaving the influence of the above. This may further cause image failure.

本発明に係る画像処理装置は、連続して撮像された複数の画像データを取得する取得手段と、前記取得手段で取得した複数の画像データを合成して合成画像データを生成することによってノイズを低減する第1のノイズ低減手段と、前記第1のノイズ低減手段において前記合成画像データを生成する際に用いた画素ごとの補正量を用いて前記合成画像データに対するノイズ低減を行う第2のノイズ低減手段とを有し、前記第1のノイズ低減手段は、複数の画像データのうちいずれか一つを着目画像データ、それ以外を参照画像データとし、前記着目画像データの処理画素に対応するブロック領域と、前記参照画像データの探索領域に含まれる探索位置に対応するブロック領域との差に応じて、各画素についての補正量を決定することを特徴とする。

An image processing apparatus according to the present invention generates noise by combining a plurality of image data acquired by the acquisition unit with an acquisition unit that acquires a plurality of image data continuously captured, and generating composite image data. First noise reduction means for reducing, and second noise for performing noise reduction on the composite image data using a correction amount for each pixel used when the composite image data is generated in the first noise reduction means. possess a reduction means, said first noise reduction means, blocks interest any one of a plurality of image data image data, the reference image data to otherwise corresponds to the processed pixel of the focused image data and characterized by determining the area, according to the difference between the corresponding block area in the search position included in the search area of the reference image data, a correction amount for each pixel That.

本発明によれば、領域によって画像内のノイズ低減効果が異なることを避けつつ、ノイズ低減効果の低下やアーティファクト発生などの画質障害を軽減することが可能となる。   According to the present invention, it is possible to reduce image quality disturbances such as a reduction in noise reduction effect and occurrence of artifacts, while avoiding a difference in noise reduction effect in an image depending on a region.

実施例1における撮像装置の構成を示す外観図である。1 is an external view illustrating a configuration of an image pickup apparatus in Embodiment 1. FIG. 実施例1における撮像装置の内部構成を示すブロック図である。1 is a block diagram illustrating an internal configuration of an imaging apparatus according to Embodiment 1. FIG. 実施例1における画像処理部の内部構成を示すブロック図である。FIG. 3 is a block diagram illustrating an internal configuration of an image processing unit according to the first embodiment. 実施例1における全体処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of overall processing in the first embodiment. 実施例1における複数枚合成処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of a multiple sheet combining process according to the first exemplary embodiment. 実施例1における類似度出処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of similarity output processing in the first embodiment. 実施例1における複数枚合成処理を説明するための図である。FIG. 6 is a diagram for explaining a multiple-sheet composition process in the first embodiment. 実施例1における類似度算出を説明するための図である。It is a figure for demonstrating the similarity calculation in Example 1. FIG. 実施例1におけるノイズ低減処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of noise reduction processing in the first embodiment. 実施例1におけるノイズ低減処理を説明するための図である。It is a figure for demonstrating the noise reduction process in Example 1. FIG. 実施例1における重み決定を説明するための図である。It is a figure for demonstrating the weight determination in Example 1. FIG.

以下、図面を参照に本発明を実施するための形態について説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

実施例1の概要について説明する。本実施例1では連続して撮像した複数のRAW画像データに対して合成処理を行うことでノイズ低減を行い1枚のRAW画像に対応する画像データを生成する。以下、この1枚のRAW画像に対応する画像データのことを1枚のRAW画像データと称する。その後、生成した1枚のRAW画像データに対して、1画像内でのRAWノイズ低減処理を行うことでよりノイズ低減した画像データを生成する。なお、RAW画像データとは、後述するカラー撮像素子部201とA/D変換部208とを介して得られるデジタル信号のことである。   An outline of the first embodiment will be described. In the first embodiment, noise reduction is performed by performing synthesis processing on a plurality of RAW image data captured continuously, and image data corresponding to one RAW image is generated. Hereinafter, the image data corresponding to one RAW image is referred to as one RAW image data. Thereafter, RAW noise reduction processing within one image is performed on the generated RAW image data, thereby generating image data with further noise reduction. Note that the RAW image data is a digital signal obtained via a color imaging element unit 201 and an A / D conversion unit 208 described later.

尚、本実施例では連続して撮像した画像データが示す画像のうち、いずれか一つを着目画像と呼び、それ以外を参照画像と呼ぶことにする。   In the present embodiment, any one of the images indicated by continuously captured image data is referred to as a focused image, and the other images are referred to as reference images.

図1は本実施例における撮像装置の構成を示す外観図である。図1(a)は撮像装置の前面を、図1(b)は撮像装置の背面を示す。撮像装置101は、光学部102、撮像ボタン103、表示部104、操作ボタン105からなる。光学部102はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、シャッターから構成され被写体の光情報を集光する。撮像ボタン103は、ユーザが撮像の開始を撮像装置101に指示するためのボタンである。表示部104は、液晶ディスプレイなどが用いられており、撮像装置101にて処理された画像データの表示や各種データなどを表示する。操作ボタン105は、ユーザが撮像条件のパラメータなどを撮像装置101に指示するためのボタンである。   FIG. 1 is an external view showing a configuration of an image pickup apparatus in the present embodiment. FIG. 1A illustrates the front surface of the imaging apparatus, and FIG. 1B illustrates the rear surface of the imaging apparatus. The imaging device 101 includes an optical unit 102, an imaging button 103, a display unit 104, and operation buttons 105. The optical unit 102 includes a zoom lens, a focus lens, a shake correction lens, an aperture, and a shutter, and collects light information of the subject. The imaging button 103 is a button for the user to instruct the imaging apparatus 101 to start imaging. The display unit 104 uses a liquid crystal display or the like, and displays image data processed by the imaging apparatus 101 and various data. The operation button 105 is a button for the user to instruct the imaging apparatus 101 of imaging condition parameters and the like.

図2は本実施例における撮像装置101の内部構成を示すブロック図である。カラー撮像素子部201は、光学部102にて集光された光情報を電流値へと変換する素子で、カラーフィルタなどと組み合わせることで色情報を取得する。CPU202は、各構成の処理すべてに関わり、ROM(Read Only Memory)203や、RAM(Rondom Access Memory)204に格納された命令を順次に読み込み、解釈し、その結果に従って処理を実行する。また、撮像系制御部205は光学部102に対して、フォーカスを合わせる、シャッターを開く、絞りを調整するなどのCPU202から指示された制御を行う。制御部206は、撮像ボタン103や操作ボタン105からのユーザ指示によって、撮像動作の開始及び終了の制御を行う。キャラクタージェネレーション部207は文字やグラフィックなどを生成する。A/D変換部208は、カラー撮像素子部201にて検知した被写体の光量をデジタル信号値に変換する。画像処理部209は上記のデジタル信号の画像データ(すなわち、RAW画像データ)に対して、画像処理を行う。エンコーダ部210は、画像処理部209にて処理した画像データをJpegなどのファイルフォーマットに変換処理を行う。メディアI/F211は、PC/メディア213(例えば、ハードディスク、メモリカード、CFカード、SDカードなど)に画像データを送受信するためのインタフェースである。システムバス212はデータを送受信するためのバスである。   FIG. 2 is a block diagram illustrating an internal configuration of the imaging apparatus 101 in the present embodiment. The color imaging element unit 201 is an element that converts light information collected by the optical unit 102 into a current value, and acquires color information by combining with a color filter or the like. The CPU 202 is involved in all the processes of each component, and sequentially reads and interprets instructions stored in a ROM (Read Only Memory) 203 and a RAM (Rondom Access Memory) 204, and executes processes according to the results. In addition, the imaging system control unit 205 performs control instructed by the CPU 202 such as adjusting the focus, opening the shutter, and adjusting the aperture of the optical unit 102. The control unit 206 controls the start and end of the imaging operation according to a user instruction from the imaging button 103 and the operation button 105. The character generation unit 207 generates characters and graphics. The A / D conversion unit 208 converts the amount of light of the subject detected by the color image sensor unit 201 into a digital signal value. The image processing unit 209 performs image processing on the image data (that is, RAW image data) of the digital signal. The encoder unit 210 converts the image data processed by the image processing unit 209 into a file format such as Jpeg. The media I / F 211 is an interface for transmitting / receiving image data to / from a PC / media 213 (for example, a hard disk, a memory card, a CF card, an SD card, etc.). The system bus 212 is a bus for transmitting and receiving data.

図3は本実施例1における画像処理部209の内部構成ブロック図である。着目RAW画像データ記憶部301は複数のRAW画像データのうち着目画像のRAW画像データ(以下、着目RAW画像データという)を記憶する。参照RAW画像データ記憶部302は、参照画像のRAW画像データ(以下、参照RAW画像データという)を記憶する。   FIG. 3 is an internal configuration block diagram of the image processing unit 209 according to the first embodiment. A focused RAW image data storage unit 301 stores RAW image data of a focused image (hereinafter referred to as focused RAW image data) among a plurality of RAW image data. The reference RAW image data storage unit 302 stores RAW image data of a reference image (hereinafter referred to as reference RAW image data).

出力RAW画像データ記憶部303は後述する合成処理を行った結果得られるRAW画像データを記憶する。パラメータ記憶部304は合成処理や1枚の画像内でのノイズ低減処理に必要なパラメータを記憶する。合成重みデータ記憶部305は合成時の合成重みデータを記憶する。合成重みデータとは、合成処理によるノイズ低減効果の度合い(補正量)を示す指標となるデータである。詳細は後述する。出力画像データ記憶部306は各処理部が出力した画像データを記憶する。複数RAW画像合成処理部307は着目RAW画像データ記憶部301に記憶している着目RAW画像データと参照RAW画像データ記憶部302に記憶している参照RAW画像データとを合成する。そして、合成処理によって得られる合成画像データ(RAW画像データ)を出力RAW画像データ記憶部303に記憶する。また、複数RAW画像合成処理部307は、合成重みデータを合成重みデータ記憶部305に記憶する。RAWノイズ低減処理部308は合成重みデータ記憶部305に記憶している合成重みデータを用いて、出力RAW画像データ記憶部303に記憶している合成後のRAW画像データに対して1枚の画像内のRAWノイズ低減処理を行う。RAWノイズ低減処理部308は、出力のRAW画像データを出力RAW画像データ記憶部303に記憶する。現像処理部309は出力RAW画像データ記憶部303に記憶しているRAWノイズ低減処理後のRAW画像データに対して各種の現像処理をする。例えば、ホワイトバランス、デモザイキング、色変換、ガンマ、シャープネス、Jpeg変換などの処理を行い、現像処理後の画像データを出力画像データ記憶部306に記憶する。   The output RAW image data storage unit 303 stores RAW image data obtained as a result of performing a combining process described later. The parameter storage unit 304 stores parameters necessary for the synthesis process and the noise reduction process in one image. The composite weight data storage unit 305 stores composite weight data at the time of synthesis. The synthesis weight data is data serving as an index indicating the degree (correction amount) of the noise reduction effect by the synthesis process. Details will be described later. The output image data storage unit 306 stores the image data output by each processing unit. The multiple RAW image composition processing unit 307 synthesizes the target RAW image data stored in the target RAW image data storage unit 301 and the reference RAW image data stored in the reference RAW image data storage unit 302. Then, the synthesized image data (RAW image data) obtained by the synthesis process is stored in the output RAW image data storage unit 303. The multiple RAW image composition processing unit 307 stores the composite weight data in the composite weight data storage unit 305. The RAW noise reduction processing unit 308 uses the combined weight data stored in the combined weight data storage unit 305 to generate one image for the combined RAW image data stored in the output RAW image data storage unit 303. RAW noise reduction processing is performed. The RAW noise reduction processing unit 308 stores the output RAW image data in the output RAW image data storage unit 303. The development processing unit 309 performs various development processes on the RAW image data after the RAW noise reduction processing stored in the output RAW image data storage unit 303. For example, processing such as white balance, demosaicing, color conversion, gamma, sharpness, and Jpeg conversion is performed, and the developed image data is stored in the output image data storage unit 306.

図4は本実施例1における全体処理フローを示した図である。まずステップS401において、制御部206は、ユーザが操作ボタン105を介して指示した絞り値、焦点距離などの撮像条件を設定する。ステップS402において、制御部206は、撮像ボタン103がユーザに押されたかどうかを判定する。押された場合にはステップS403に進み、押されていない場合にはステップS401に戻る。   FIG. 4 is a diagram showing an overall processing flow in the first embodiment. First, in step S <b> 401, the control unit 206 sets imaging conditions such as an aperture value and a focal length designated by the user via the operation button 105. In step S402, the control unit 206 determines whether or not the imaging button 103 has been pressed by the user. If it has been pressed, the process proceeds to step S403, and if it has not been pressed, the process returns to step S401.

ステップS403で撮像系制御部205は、同一被写体に対して連続での撮像を実行する。画像処理部209は、撮像したRAW画像データのうち着目画像のRAW画像データを着目RAW画像データ記憶部301に記憶し、さらに、参照画像のRAW画像データを参照RAW画像データ記憶部302に記憶する。   In step S403, the imaging system control unit 205 performs continuous imaging on the same subject. The image processing unit 209 stores the RAW image data of the target image in the captured RAW image data in the target RAW image data storage unit 301, and further stores the RAW image data of the reference image in the reference RAW image data storage unit 302. .

ステップS404で、複数RAW画像合成処理部307は、着目画像のRAW画像データと、参照画像のRAW画像データと、パラメータ記憶部304に記憶している撮像センサのノイズ特性データとを用いて複数枚合成処理を行う。複数枚合成処理の詳細は後述する。複数RAW画像合成処理部307は、複数枚合成処理の結果得られるRAW画像データを出力RAW画像データ記憶部303に記憶する。さらに、複数RAW画像合成処理部307は合成時の合成重みデータを合成重みデータ記憶部305に記憶する。   In step S <b> 404, the multiple RAW image composition processing unit 307 uses the RAW image data of the image of interest, the RAW image data of the reference image, and the noise characteristic data of the imaging sensor stored in the parameter storage unit 304. Perform synthesis processing. Details of the multi-sheet composition process will be described later. The multiple RAW image composition processing unit 307 stores the RAW image data obtained as a result of the multiple image composition processing in the output RAW image data storage unit 303. Further, the multiple RAW image synthesis processing unit 307 stores the synthesis weight data at the time of synthesis in the synthesis weight data storage unit 305.

ステップS405で、RAWノイズ低減処理部308は、出力RAW画像データ記憶部303に記憶しているRAW画像データと合成重みデータ記憶部305に記憶している合成重みデータとを用いて、RAWノイズ低減処理を行う。RAWノイズ低減処理の詳細については後述する。RAWノイズ低減処理部308は、RAWノイズ低減処理の結果得られるRAW画像データを出力RAW画像データ記憶部303に記憶する。   In step S405, the RAW noise reduction processing unit 308 uses the RAW image data stored in the output RAW image data storage unit 303 and the composite weight data stored in the composite weight data storage unit 305 to reduce the RAW noise. Process. Details of the RAW noise reduction processing will be described later. The RAW noise reduction processing unit 308 stores the RAW image data obtained as a result of the RAW noise reduction processing in the output RAW image data storage unit 303.

ステップS406で、現像処理部309は、出力RAW画像データ記憶部303に記憶しているRAW画像データに対して現像処理を行う。現像処理部309は、現像処理の結果得られる画像データを出力画像データ記憶部306に記憶する。ステップS407で、制御部206は、出力画像データ記憶部306に記憶している出力画像データを表示部104に表示する。最後に、ステップS408で、制御部206は、出力画像データ記憶部306に記憶している画像データをメディアI/F211を介して、PC/メディア213に出力する。   In step S <b> 406, the development processing unit 309 performs development processing on the RAW image data stored in the output RAW image data storage unit 303. The development processing unit 309 stores image data obtained as a result of the development processing in the output image data storage unit 306. In step S <b> 407, the control unit 206 displays the output image data stored in the output image data storage unit 306 on the display unit 104. Finally, in step S408, the control unit 206 outputs the image data stored in the output image data storage unit 306 to the PC / media 213 via the media I / F 211.

<複数枚合成処理>
図4におけるS404の複数枚合成処理について説明する。複数枚合成処理は着目画像データと1つ以上の参照画像データとを用いて画像データを合成することによってノイズ低減させる処理である。すなわち、複数枚合成処理は、第1のノイズ低減処理ということもできる。以下では、説明の簡素化のため、合成対象のデータを単に着目画像と参照画像と称する。一般的に、着目画像と参照画像とを単純に平均化すればノイズを低減させることができる。しかしながら、連続撮像した場合、撮像装置の位置ずれや動被写体の移動などによって各画像の絵柄が一致しない場合、単純な平均化を行うと多重像や暈けといった画質劣化が生じてしまう。そこで、着目画像の注目画素を含む画像領域(以下、ブロック領域)と参照画像のブロック領域ごとの比較(以下、ブロックマッチング)を行うことで合成を行う。
<Multi-sheet composition processing>
The multi-sheet combining process in S404 in FIG. 4 will be described. The multiple image combining process is a process for reducing noise by combining image data using the target image data and one or more reference image data. That is, the multiple sheet combining process can also be referred to as a first noise reduction process. In the following, for simplification of description, the data to be synthesized is simply referred to as a focused image and a reference image. In general, noise can be reduced by simply averaging the target image and the reference image. However, in the case of continuous imaging, when the images of the images do not match due to the positional deviation of the imaging device or the movement of the moving subject, image quality deterioration such as multiple images and blurring occurs if simple averaging is performed. Therefore, the composition is performed by comparing the image region including the target pixel of the target image (hereinafter referred to as a block region) and the block region of the reference image (hereinafter referred to as block matching).

図5は複数枚合成処理S404の処理フローである。図7は複数枚合成処理を説明するための図である。図7(a)は、着目画像701を示し、図7(b)は参照画像702を示す。また、着目画像701のうち、処理対象となる画素の位置を703で示す。また、この着目画像701の処理画素位置703に対応する、参照画像702の探索領域を704で示す。また、着目画像701の処理画素位置703に対応するブロック領域を705で示す。また、参照画像702の探索位置707に対応するブロック領域を706で示す。   FIG. 5 is a processing flow of the multi-sheet composition processing S404. FIG. 7 is a diagram for explaining the multi-sheet composition process. FIG. 7A shows a target image 701, and FIG. 7B shows a reference image 702. In addition, the position of the pixel to be processed in the target image 701 is indicated by 703. A search area of the reference image 702 corresponding to the processing pixel position 703 of the target image 701 is indicated by 704. A block area corresponding to the processing pixel position 703 of the target image 701 is indicated by 705. A block area corresponding to the search position 707 of the reference image 702 is indicated by 706.

次に、ブロックマッチングの概要について説明する。ブロックマッチングは、着目画像の各画素を処理画素として順次処理を行う。図7の例では、着目画像701の処理画素位置703に対応する探索範囲が決定される。図7の例では、探索範囲は着目画像データの処理画素位置に対応する位置にある参照画像の画素を中心に5×5の画素と決定されているものとする。そして、処理画素位置703に対応するブロック領域705と、探索位置707に対応するブロック領域706とのブロックマッチングを行う。ブロックマッチングは、探索範囲内における各探索位置に対して行われることになる。   Next, an outline of block matching will be described. In block matching, each pixel of the image of interest is sequentially processed as a processing pixel. In the example of FIG. 7, the search range corresponding to the processing pixel position 703 of the image of interest 701 is determined. In the example of FIG. 7, it is assumed that the search range is determined to be 5 × 5 pixels centering on the pixel of the reference image at the position corresponding to the processing pixel position of the target image data. Then, block matching is performed between the block area 705 corresponding to the processing pixel position 703 and the block area 706 corresponding to the search position 707. Block matching is performed for each search position within the search range.

次に、複数枚合成処理の流れを図5を参照して説明する。   Next, the flow of the multi-sheet composition process will be described with reference to FIG.

ステップS501で複数RAW画像合成処理部307は、パラメータ記憶部304に記憶している探索範囲を設定する。図7の例では、探索範囲は着目画像の処理対象位置に対応する位置にある参照画像の画素を中心に5×5の画素と設定される。尚、一般的なRAW画像データは、1画素につきR,G,Bのうち1色しかないBayer配置である。そのため、探索位置707は、処理画素位置703と同じ色の必要がある。すなわち、図7の例では、探索範囲704に含まれるRの画素を示す9画素分の探索位置に対してブロックマッチングが行われる。   In step S <b> 501, the multiple RAW image composition processing unit 307 sets a search range stored in the parameter storage unit 304. In the example of FIG. 7, the search range is set to 5 × 5 pixels centering on the pixels of the reference image at the position corresponding to the processing target position of the image of interest. Note that general RAW image data has a Bayer arrangement with only one color of R, G, and B per pixel. Therefore, the search position 707 needs to have the same color as the processing pixel position 703. That is, in the example of FIG. 7, block matching is performed on the search positions for nine pixels indicating the R pixels included in the search range 704.

ステップS502で複数RAW画像合成処理部307は出力画素値と合成重みデータとを1に初期化する。   In step S502, the multiple RAW image composition processing unit 307 initializes the output pixel value and the composition weight data to 1.

ステップS503で複数RAW画像合成処理部307は参照画像データ記憶部302に記憶している参照RAW画像データのうち1つの画像データを読み込む。   In step S <b> 503, the multiple RAW image composition processing unit 307 reads one image data among the reference RAW image data stored in the reference image data storage unit 302.

ステップS504で複数RAW画像合成処理部307は処理画素位置の初期化を行う。   In step S504, the multiple RAW image composition processing unit 307 initializes the processing pixel position.

ステップS505で複数RAW画像合成処理部307は探索範囲内で最大類似度となる出力画素値及び類似度を決定する。詳細は後述する。   In step S505, the multiple RAW image composition processing unit 307 determines an output pixel value and similarity that are the maximum similarity within the search range. Details will be described later.

ステップS506で複数RAW画像合成処理部307はステップS505にて決定した出力画素値と類似度とを用いて、出力画素値及び合成重みデータの更新を行う。詳細は後述する。   In step S506, the multiple RAW image composition processing unit 307 updates the output pixel value and composition weight data using the output pixel value and the similarity determined in step S505. Details will be described later.

ステップS507で複数RAW画像合成処理部307は着目画像データのすべての処理画素位置に対して、ステップS505〜S506の処理が行われたかどうかを判定する。すべての処理画素位置に対して処理が行われた場合には、ステップS509に進み、そうでない場合にはステップS508に進む。   In step S507, the multiple RAW image composition processing unit 307 determines whether or not the processing in steps S505 to S506 has been performed on all the processing pixel positions of the target image data. If processing has been performed for all processing pixel positions, the process proceeds to step S509, and if not, the process proceeds to step S508.

ステップS508で複数RAW画像合成処理部307は処理画素位置の更新を行い、ステップS505に処理を進める。   In step S508, the multiple RAW image composition processing unit 307 updates the processing pixel position, and proceeds to step S505.

ステップS509で複数RAW画像合成処理部307は、参照RAW画像データ記憶部302に記憶しているすべての参照RAW画像データに対して、ステップS504〜S508の処理が行われたかどうかを判定する。処理が行われた場合にはステップS511に進み、そうでない場合にはステップS510に進む。   In step S509, the multiple RAW image composition processing unit 307 determines whether or not the processing in steps S504 to S508 has been performed on all the reference RAW image data stored in the reference RAW image data storage unit 302. If the process has been performed, the process proceeds to step S511; otherwise, the process proceeds to step S510.

ステップS510で複数RAW画像合成処理部307は参照RAW画像データ記憶部302に記憶している参照RAW画像データのうち未処理のRAW画像データを読み込み、ステップS504に処理を進める。   In step S510, the multiple RAW image composition processing unit 307 reads unprocessed RAW image data from the reference RAW image data stored in the reference RAW image data storage unit 302, and the process proceeds to step S504.

ステップS511で複数RAW画像合成処理部307は、出力RAW画像データを出力RAW画像データ記憶部303に出力する。出力RAW画像データは、ステップS506で出力画素値の更新が行われた(すなわち、合成が行われた結果得られた)RAW画像データのことである。   In step S511, the multiple RAW image composition processing unit 307 outputs the output RAW image data to the output RAW image data storage unit 303. The output RAW image data is the RAW image data for which the output pixel value has been updated in step S506 (that is, obtained as a result of combining).

<探索範囲内で最大類似度となる画素値及び類似度を算出>
図5のステップS505の探索範囲内で最大類似度となる出力画素値及び類似度を決定する処理について説明する。図6は、ステップS505の内部処理フローを示している。図6の処理は、1つの処理対象の画素に対して行われる。
<Calculation of pixel value and similarity that have maximum similarity within the search range>
The process of determining the output pixel value and the similarity that are the maximum similarity within the search range in step S505 in FIG. 5 will be described. FIG. 6 shows an internal processing flow of step S505. The process of FIG. 6 is performed on one processing target pixel.

本実施例では、着目画像と参照画像について、探索領域内においてブロック同士の最小の誤差を決定し、その結果に基づいて最大類似度を決定する。   In this embodiment, the minimum error between blocks in the search area is determined for the target image and the reference image, and the maximum similarity is determined based on the result.

ステップS601で複数RAW画像合成処理部307はパラメータ記憶部304に記憶しているブロックサイズNb及び重み制御パラメータh(詳細は後述する)を設定する。   In step S601, the multiple RAW image composition processing unit 307 sets a block size Nb and a weight control parameter h (details will be described later) stored in the parameter storage unit 304.

ステップS602で複数RAW画像合成処理部307は最小誤差値Cminを、取りうる値の範囲の最大値に初期化する。ステップS603で複数RAW画像合成処理部307は出力画素値oをゼロに初期化する。ステップS604で複数RAW画像合成処理部307は、現在着目している処理画素に対応する探索範囲の中の探索位置iを初期化する。ステップS605で複数RAW画像合成処理部307は式1に基づいて誤差Ciを決定する。   In step S602, the multiple RAW image composition processing unit 307 initializes the minimum error value Cmin to the maximum value in the range of possible values. In step S603, the multiple RAW image composition processing unit 307 initializes the output pixel value o to zero. In step S604, the multiple RAW image composition processing unit 307 initializes the search position i in the search range corresponding to the currently focused processing pixel. In step S605, the multiple RAW image composition processing unit 307 determines the error Ci based on Equation 1.

Figure 0006245847
Figure 0006245847

ここで、bは着目画像のブロック領域であり、br,iは参照画像の探索位置iにおけるブロック領域である。 Here, b t is a block area of the image of interest, and b r, i is a block area at the search position i of the reference image.

ステップS606で複数RAW画像合成処理部307はステップS605にて決定したCiと最小誤差値Cminとを比較する。CiがCminよりも小さい場合にはステップS607に進み、そうでない場合にはステップS609に進む。   In step S606, the multiple RAW image composition processing unit 307 compares Ci determined in step S605 with the minimum error value Cmin. If Ci is smaller than Cmin, the process proceeds to step S607; otherwise, the process proceeds to step S609.

ステップS607で複数RAW画像合成処理部307は最小誤差値CminをCiに更新する。   In step S607, the multiple RAW image composition processing unit 307 updates the minimum error value Cmin to Ci.

ステップS608で複数RAW画像合成処理部307は出力画素値を探索位置iにおける画素値に更新する。   In step S608, the multiple RAW image composition processing unit 307 updates the output pixel value to the pixel value at the search position i.

ステップS609で複数RAW画像合成処理部307はすべての探索位置で処理をしたかどうかを判定する。すべての探索位置で処理を行った場合にはステップS611に進む。そうでない場合にはステップS610に進む。   In step S609, the multiple RAW image composition processing unit 307 determines whether or not processing has been performed at all search positions. If processing has been performed at all search positions, the process proceeds to step S611. Otherwise, the process proceeds to step S610.

ステップS610で複数RAW画像合成処理部307は探索位置の更新を行う。   In step S610, the multiple RAW image composition processing unit 307 updates the search position.

ステップS611で複数RAW画像合成処理部307は、式2に基づいて最大類似度となる類似度sを算出する。   In step S611, the multiple RAW image composition processing unit 307 calculates the similarity s that is the maximum similarity based on Expression 2.

Figure 0006245847
Figure 0006245847

<重み制御パラメータh>
図6のステップS601にて設定する重み制御パラメータhについて説明する。図8は、式2で重み制御パラメータhを変化させて、最小誤差値Cminとしての誤差Cと、類似度sとをプロットした例を示すものである。図8に示すように、hの値が大きくなるほど誤差に対して類似度sが大きくなる。一方、一般的にまったく同じ被写体を撮像したとしてもISO感度が大きくなれば、ノイズ量が増加する。その結果、式1によって決定される誤差は、ノイズ量が増加するに従って大きくなる。そのため、本実施例では、同一被写体に対してノイズ量に寄らず同様の類似度を決定するために撮像時のノイズ量すなわちISO感度に応じてhの値を変化させる。
<Weight control parameter h>
The weight control parameter h set in step S601 in FIG. 6 will be described. FIG. 8 shows an example in which the error C as the minimum error value Cmin and the similarity s are plotted by changing the weight control parameter h in Expression 2. As shown in FIG. 8, the similarity s increases with respect to the error as the value of h increases. On the other hand, in general, even if the same subject is imaged, the amount of noise increases as the ISO sensitivity increases. As a result, the error determined by Equation 1 increases as the amount of noise increases. Therefore, in this embodiment, the value of h is changed according to the amount of noise at the time of imaging, that is, the ISO sensitivity, in order to determine the similar degree of similarity for the same subject regardless of the amount of noise.

<出力画素値及び合成重みデータの更新>
ステップS506の出力画素値及び合成重みデータの更新について説明する。ステップS505にて決定した出力画素値をv、類似度をsとすると、更新後の出力画素値O(x,y)は式3に示すように出力画素値と類似度との加重加算で得られる。また、更新後の合成重みデータα(x,y)は、式4で求められる。ステップS506の更新は参照画像データ毎にそれぞれ行われる。
O(x,y)+=v・s (式3)
α(x,y)+=s (式4)
<Update of output pixel value and composite weight data>
The update of the output pixel value and composite weight data in step S506 will be described. If the output pixel value determined in step S505 is v and the similarity is s, the updated output pixel value O (x, y) is obtained by weighted addition of the output pixel value and the similarity as shown in Equation 3. It is done. Also, the updated composite weight data α (x, y) is obtained by Equation 4. The update in step S506 is performed for each reference image data.
O (x, y) + = v · s (Formula 3)
α (x, y) + = s (Formula 4)

<RAWノイズ低減処理>
図4のステップS405のRAWノイズ低減処理について説明する。RAWノイズ低減処理は、従来の1枚の画像内でのノイズ低減処理方法に加え、ステップS404において決定した合成重みデータαを用いることで、より効果的なノイズ低減処理を行う。具体的には、ステップS404において決定した合成重みデータαは出力RAW画像データの各画素におけるノイズの低減効果になる。そこで、複数枚合成処理によってノイズ低減効果が小さかった画素については、1枚の画像内でのノイズ低減処理の効果を大きく設定し、大きかった画素については、1枚の画像内でのノイズ低減処理の効果を小さく設定する。このように処理することによって、領域によってノイズ低減効果が異なることを避けることができる。本実施例では、連続して撮像した複数のRAW画像データを用いて合成処理を行っている。この複数のRAW画像データは互いに類似しているので、複数のRAW画像データ同士を合成することによってノイズ低減できた画素については、そのノイズ低減された画素を使用する。一方、複数のRAW画像データ同士を合成することによってノイズ低減できなかった画素については、1枚の画像データ内でのノイズ低減処理を行う。このように、本実施例によれば各画素について同等のノイズ低減効果を得ることが可能となる。なお、ステップS405の1枚の画像データ内のノイズ低減処理を第2のノイズ低減処理という。
<RAW noise reduction processing>
The RAW noise reduction process in step S405 in FIG. 4 will be described. In the RAW noise reduction processing, in addition to the conventional noise reduction processing method in one image, more effective noise reduction processing is performed by using the synthesis weight data α determined in step S404. Specifically, the composite weight data α determined in step S404 has an effect of reducing noise in each pixel of the output RAW image data. Therefore, the effect of the noise reduction process in one image is set to a large value for a pixel whose noise reduction effect is small by the multi-sheet composition process, and the noise reduction process in one image is set for a large pixel. Set the effect of. By processing in this way, it can be avoided that the noise reduction effect varies depending on the region. In the present embodiment, the composition processing is performed using a plurality of RAW image data captured continuously. Since the plurality of RAW image data are similar to each other, the pixels whose noise has been reduced by combining the plurality of RAW image data are used. On the other hand, noise reduction processing within one piece of image data is performed for pixels that have not been able to reduce noise by combining a plurality of RAW image data. Thus, according to the present embodiment, it is possible to obtain an equivalent noise reduction effect for each pixel. Note that the noise reduction processing in one piece of image data in step S405 is referred to as second noise reduction processing.

図9は図4のステップS405のRAWノイズ低減処理の内部処理のフローを示した図である。   FIG. 9 is a diagram showing a flow of internal processing of the RAW noise reduction processing in step S405 of FIG.

ステップS901でRAWノイズ低減処理部308は処理に必要となるパラメータをパラメータ記憶部304から取得して設定する。   In step S <b> 901, the RAW noise reduction processing unit 308 acquires and sets parameters necessary for processing from the parameter storage unit 304.

ステップS902でRAWノイズ低減処理部308は出力RAW画像データ記憶部303に記憶している、ステップS404において複数枚合成して得られたRAW画像データを読み込む。   In step S902, the RAW noise reduction processing unit 308 reads the RAW image data obtained by combining a plurality of sheets in step S404, which is stored in the output RAW image data storage unit 303.

ステップS903でRAWノイズ低減処理部308は処理画素位置の初期化を行う。   In step S903, the RAW noise reduction processing unit 308 initializes a processing pixel position.

ステップS904でRAWノイズ低減処理部308は処理画素位置に対してノイズ低減処理を行う。詳細は後述する。   In step S904, the RAW noise reduction processing unit 308 performs noise reduction processing on the processing pixel position. Details will be described later.

ステップS906でRAWノイズ低減処理部308はすべての処理画素位置に対して、ステップS904のノイズ低減処理が行われたかどうかを判定する。すべての処理画素位置に対してノイズ低減処理が行われた場合にはステップS908に進み、そうでない場合にはステップS907に進む。   In step S906, the RAW noise reduction processing unit 308 determines whether or not the noise reduction processing in step S904 has been performed on all processing pixel positions. If noise reduction processing has been performed for all processing pixel positions, the process proceeds to step S908, and if not, the process proceeds to step S907.

ステップS907でRAWノイズ低減処理部308は処理画素位置の更新を行い、ステップS904に戻る。   In step S907, the RAW noise reduction processing unit 308 updates the processing pixel position, and the process returns to step S904.

ステップS908でRAWノイズ低減処理部308は処理結果のRAW画像データを出力RAW画像データ記憶部303に出力する。   In step S <b> 908, the RAW noise reduction processing unit 308 outputs the RAW image data as a processing result to the output RAW image data storage unit 303.

<ノイズ低減処理>
本処理では、ステップS904のノイズ低減処理として、Non−Local−Means(以下、NLM)法と呼ばれる手法を用いる。この手法は、ノイズ低減対象となる着目画素を含む、着目画素の周辺に存在する複数の参照画素の画素値に適応的な重みを掛け、その結果を全て加算した結果で着目画素の画素値を置き換える事でノイズを低減する。参照画素の画素数をN、参照画素の画素値をI(j=1〜N)、参照画素の重みをw(j=1〜N)とすると、ノイズ低減処理後の着目画素の画素値Inewは式5になる。
<Noise reduction processing>
In this process, a technique called a non-local-means (hereinafter, NLM) method is used as the noise reduction process in step S904. This method multiplies the pixel values of a plurality of reference pixels that exist around the pixel of interest, including the pixel of interest that is subject to noise reduction, adaptively weights the pixel values of the pixel of interest by adding all the results. Noise is reduced by replacement. When the number of reference pixels is N S , the pixel value of the reference pixel is I j (j = 1 to N S ), and the weight of the reference pixel is w j (j = 1 to N S ), attention after noise reduction processing The pixel value I new of the pixel is given by Equation 5.

Figure 0006245847
Figure 0006245847

次に、参照画素の重みの決定方法について、図10および図11を参照して説明する。   Next, a method for determining the weight of the reference pixel will be described with reference to FIGS.

図10(a)は、1枚の画像データ1001を示す。画像データ1001の左上の画素を原点として各画素の画素値をI(x、y)と表すものとする。ここで、1002は着目画素であり、その画素値はI(4、4)である。1003は着目領域であり、ノイズ低減対象となる着目画素1002を中心とした5×5画素の矩形領域である。1004は参照画素であり、着目画素1002を含む5×5画素(N=25)の矩形領域内の画素である。1005は、参照画素I(2,2)の参照領域であり、参照画素I(2,2)を中心とし、着目領域と同サイズの5×5画素の矩形領域である。尚、参照領域は参照画素毎に存在するが、ここでは参照画素I(2,2)の参照領域だけ示している。 FIG. 10A shows one piece of image data 1001. The pixel value of each pixel is represented as I (x, y) with the upper left pixel of the image data 1001 as the origin. Here, reference numeral 1002 denotes a target pixel, and its pixel value is I (4, 4). Reference numeral 1003 denotes a region of interest, which is a rectangular region of 5 × 5 pixels centered on the pixel of interest 1002 that is a noise reduction target. Reference numeral 1004 denotes a reference pixel, which is a pixel in a 5 × 5 pixel (N S = 25) rectangular area including the target pixel 1002. Reference numeral 1005 denotes a reference region of the reference pixel I (2, 2), which is a 5 × 5 pixel rectangular region having the same size as the region of interest centered on the reference pixel I (2, 2). A reference area exists for each reference pixel, but only the reference area of the reference pixel I (2, 2) is shown here.

参照画素I(2、2)の重みを求めるために、まず、着目領域1003と当該参照画素I(2、2)の参照領域1005とを比較して類似度を算出する。尚、類似度は所望の方法で求めてよい。例えば、図10(b)のように、着目領域1003の画素をb(p,q)、参照領域1005の画素をb(p,q)(j=1〜N)とする。そして、着目領域1003と参照領域1005との空間的に対応する画素の差を誤差とすると、誤差Cjは式6になる。 In order to obtain the weight of the reference pixel I (2, 2), first, the similarity is calculated by comparing the attention area 1003 with the reference area 1005 of the reference pixel I (2, 2). Note that the similarity may be obtained by a desired method. For example, as shown in FIG. 10B, the pixel of the attention area 1003 is b s (p, q), and the pixel of the reference area 1005 is b j (p, q) (j = 1 to N S ). If the difference between the spatially corresponding pixels between the region of interest 1003 and the reference region 1005 is taken as an error, the error C j is expressed by Equation 6.

Figure 0006245847
Figure 0006245847

誤差Cは値が小さいほど着目領域と参照領域の類似度が高くなる。そこで、誤差に応じて、重みを決定する。重みは図11に示す関数のように誤差Cが小さいほど重みが大きく、誤差Cが大きいほど重みが小さくなるように決定すればよく、例えば式7で定まる。 The smaller the value of the error C j is, the higher the similarity between the attention area and the reference area is. Therefore, the weight is determined according to the error. The weight may be determined so that the weight is larger as the error C j is smaller and the weight is smaller as the error C j is larger as in the function shown in FIG.

Figure 0006245847
Figure 0006245847

hは重みの大きさを制御する変数であり、hを大きくすると重みを大きくなりノイズ低減効果が大きくなる。一方、hを小さくすると重みが小さくなり、ノイズ低減効果が小さくなる。ここで、hは画像データ中に含まれるノイズ量に応じて変化させることで効果的にノイズ低減させることができる。そこで、本実施例では、ステップS404において複数枚合成処理において合成処理した際の合成重みデータに応じて、hの値を変化させる。ここで、ステップS404において出力する合成重みデータは、合成に使用した画像の枚数となる。この時、n枚の画像を合成した際のノイズの標準偏差σ‘は1枚のノイズの標準偏差をσとすると、式8のようになる。   h is a variable for controlling the magnitude of the weight. When h is increased, the weight is increased and the noise reduction effect is increased. On the other hand, if h is reduced, the weight is reduced and the noise reduction effect is reduced. Here, the noise can be effectively reduced by changing h in accordance with the amount of noise included in the image data. Therefore, in the present embodiment, the value of h is changed according to the combination weight data when the combination process is performed in the combination process in step S404. Here, the composition weight data output in step S404 is the number of images used for composition. At this time, the standard deviation σ ′ of noise when n images are combined is expressed by Equation 8, where the standard deviation of one noise is σ.

Figure 0006245847
Figure 0006245847

そこで、処理画素位置jにおける合成重みデータをα(j)とすると、式7を式9のように変更する。   Therefore, if the combined weight data at the processing pixel position j is α (j), Expression 7 is changed to Expression 9.

Figure 0006245847
Figure 0006245847

以下同様に、着目領域1003と各参照画素の参照領域とを順次比較していくことで、各参照画素の重みが得られる。そして、得られた重みを式5に適用してノイズ低減後の画素値を得る。   Similarly, the weight of each reference pixel can be obtained by sequentially comparing the region of interest 1003 and the reference region of each reference pixel. Then, the obtained weight is applied to Equation 5 to obtain a pixel value after noise reduction.

尚、本実施例におけるノイズ低減処理は、参照画素の重みを着目領域と参照領域の誤差及び合成重みデータに基づいて決まる処理であればよく、誤差や重みの算出方法などはここで説明した方法に限られるものではない。   Note that the noise reduction processing in this embodiment may be processing in which the weight of the reference pixel is determined based on the error between the focus area and the reference area and the combined weight data, and the calculation method of the error and weight is the method described here. It is not limited to.

以上、説明したように、本実施例ではまず複数枚の画像データの合成によりノイズ低減を行い、さらに、合成結果に基づいて1枚の画像データのノイズ低減を行う。これにより、ノイズ低減効果の低下やアーティファクト発生などの画質障害を軽減することが可能となる。さらに、1枚の画像データのノイズ低減は合成後の画像データのみに行うため処理負荷も軽減することができる。   As described above, in this embodiment, first, noise reduction is performed by combining a plurality of pieces of image data, and further, noise reduction of one piece of image data is performed based on the combination result. As a result, it is possible to reduce image quality problems such as a reduction in noise reduction effect and the occurrence of artifacts. Further, since noise reduction of one piece of image data is performed only on the combined image data, the processing load can be reduced.

<その他の実施例>
上記の実施例においては、デモザイク処理(画素補間処理)前のベイヤ画像を合成する例を説明した。デモザイク処理前のベイヤ画像を合成することによってデモザイク時に生じ得る画像劣化を防止することができる。しかしながら、本発明は、1枚の画像内でのノイズ低減処理を行う前の画像データ同士を合成し、合成して得られた画像データに対して1枚の画像内でのノイズ低減処理を行う場合に適用可能である。例えば、デモザイク処理後のRGB画像データ同士を合成する処理であってもよい。
<Other examples>
In the above embodiment, an example in which a Bayer image before demosaic processing (pixel interpolation processing) is synthesized has been described. By synthesizing the Bayer image before demosaic processing, it is possible to prevent image degradation that may occur during demosaic processing. However, the present invention combines image data before performing noise reduction processing within one image, and performs noise reduction processing within one image on the image data obtained by combining. Applicable to the case. For example, a process of combining RGB image data after demosaic processing may be performed.

また、積層型撮像センサや3CCDセンサなどのようにセンサから得られる画素がRGBプレーンを有する画像データ同士を合成し、合成して得られた画像データに対して1枚の画像内でのノイズ低減処理を行ってもよい。この場合、合成処理における探索範囲や、ノイズ低減処理における参照画素の設定を合成する画像データに応じて設定し、その他の処理は同様に行えばよい。   Further, image data obtained by combining pixels having RGB planes obtained from sensors such as a multilayer imaging sensor or a 3CCD sensor, and reducing noise in one image with respect to the obtained image data Processing may be performed. In this case, the search range in the synthesis process and the reference pixel settings in the noise reduction process are set according to the image data to be synthesized, and the other processes may be performed in the same manner.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (13)

連続して撮像された複数の画像データを取得する取得手段と、
前記取得手段で取得した複数の画像データを合成して合成画像データを生成することによってノイズを低減する第1のノイズ低減手段と、
前記第1のノイズ低減手段において前記合成画像データを生成する際に用いた画素ごとの補正量を用いて前記合成画像データに対するノイズ低減を行う第2のノイズ低減手段と
を有し、
前記第1のノイズ低減手段は、複数の画像データのうちいずれか一つを着目画像データ、それ以外を参照画像データとし、前記着目画像データの処理画素に対応するブロック領域と、前記参照画像データの探索領域に含まれる探索位置に対応するブロック領域との差に応じて、各画素についての補正量を決定することを特徴とする画像処理装置。
An acquisition means for acquiring a plurality of image data captured continuously;
First noise reduction means for reducing noise by combining a plurality of image data acquired by the acquisition means to generate composite image data;
Have a second noise reduction means for performing noise reduction for the synthetic image data by using the correction amount for each pixel used to generate the composite image data in said first noise reduction means,
The first noise reduction means uses any one of the plurality of image data as the target image data and the other as the reference image data, a block region corresponding to a processing pixel of the target image data, and the reference image data An image processing apparatus that determines a correction amount for each pixel according to a difference from a block area corresponding to a search position included in the search area .
前記第1のノイズ低減手段は、前記決定した補正量を用いて参照画像データの画素値を加重加算することで前記合成画像データを生成することを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the first noise reduction unit generates the composite image data by performing weighted addition of pixel values of reference image data using the determined correction amount. . 前記第1のノイズ低減手段は、前記探索領域に含まれる探索位置の中で誤差が最小となる画素の画素値を用いて前記加重加算することを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the first noise reduction unit performs the weighted addition using a pixel value of a pixel having a minimum error in a search position included in the search area. . 前記第1のノイズ低減手段は、合成に用いる参照画像データ毎の補正量を加算することで、前記合成画像データを生成する際に用いた画素ごとの補正量を決定することを特徴とする請求項1からのいずれか一項に記載の画像処理装置。 The first noise reduction unit determines a correction amount for each pixel used when generating the synthesized image data by adding a correction amount for each reference image data used for synthesis. Item 4. The image processing device according to any one of Items 1 to 3 . 前記第2のノイズ低減手段は、前記合成画像データの着目画素を含む着目領域と前記合成画像データの参照画素を含む参照領域との差を決定し、前記差と前記画素ごとの補正量とに応じて各参照画素の重みを決定し、前記重みに応じて加重加算を行うことで着目画素の画素値を更新することを特徴とする請求項1からのいずれか一項に記載の画像処理装置。 The second noise reduction unit determines a difference between a target area including a target pixel of the composite image data and a reference area including a reference pixel of the composite image data, and determines the difference and a correction amount for each pixel. depending determines the weights of the reference pixels, the image processing according to any one of claims 1 to 4, characterized by updating the pixel value of the target pixel by performing a weighted addition in accordance with the weight apparatus. 前記取得手段で取得される画像データは、ベイヤ画像を示す画像データであることを特徴とする請求項1からのいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5 , wherein the image data acquired by the acquisition unit is image data indicating a Bayer image. 前記取得手段で取得される画像データは、デモザイク処理前の画像データであることを特徴とする請求項1からのいずれか一項に記載の画像処理装置。 The image data acquired by the acquisition means, image processing device according to claim 1, wherein in any one of the 5 that the image data before demosaic processing. 前記取得手段で取得される画像データは、積層型撮像センサで得られた画像データであることを特徴とする請求項1からのいずれか一項に記載の画像処理装置。 The image data acquired by the acquisition means, image processing device according to claim 1, wherein in any one of the 5 that the image data obtained by the stacked image sensor. 前記取得手段で取得される画像データは、3CCDセンサで得られた画像データであることを特徴とする請求項1からのいずれか一項に記載の画像処理装置。 The image data acquired by the acquisition means, image processing device according to claim 1, wherein in any one of the 5 that the image data obtained by 3CCD sensor. 前記第2のノイズ低減手段でノイズ低減された合成画像データに対して画素補間をするデモザイク手段をさらに有することを特徴とする請求項1からのいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, further comprising a demosaic unit for pixel interpolation on the noise reduced synthesized image data by the second noise reducing means. 連続して複数の画像データを撮像する撮像手段と、
前記撮像手段で撮像した複数の画像データを合成して合成画像データを生成することによってノイズを低減する第1のノイズ低減手段と、
前記第1のノイズ低減手段において前記合成画像データを生成する際に用いた画素ごとの補正量を用いて前記合成画像データに対するノイズ低減を行う第2のノイズ低減手段と
を有し、
前記第1のノイズ低減手段は、複数の画像データのうちいずれか一つを着目画像データ、それ以外を参照画像データとし、前記着目画像データの処理画素に対応するブロック領域と、前記参照画像データの探索領域に含まれる探索位置に対応するブロック領域との差に応じて、各画素についての補正量を決定することを特徴とする撮像装置。
Imaging means for continuously imaging a plurality of image data;
First noise reduction means for reducing noise by combining a plurality of image data picked up by the image pickup means to generate composite image data;
Have a second noise reduction means for performing noise reduction for the synthetic image data by using the correction amount for each pixel used to generate the composite image data in said first noise reduction means,
The first noise reduction means uses any one of the plurality of image data as the target image data and the other as the reference image data, a block region corresponding to a processing pixel of the target image data, and the reference image data A correction amount for each pixel is determined in accordance with a difference from a block area corresponding to a search position included in the search area .
連続して撮像された複数の画像データを取得する取得工程と、
前記取得工程で取得した複数の画像データを合成して合成画像データを生成することによってノイズを低減する第1のノイズ低減工程と、
前記第1のノイズ低減工程において前記合成画像データを生成する際に用いた画素ごとの補正量を用いて前記合成画像データに対するノイズ低減を行う第2のノイズ低減工程と
を有し、
前記第1のノイズ低減工程は、複数の画像データのうちいずれか一つを着目画像データ、それ以外を参照画像データとし、前記着目画像データの処理画素に対応するブロック領域と、前記参照画像データの探索領域に含まれる探索位置に対応するブロック領域との差に応じて、各画素についての補正量を決定することを特徴とする画像処理方法。
An acquisition step of acquiring a plurality of image data continuously captured;
A first noise reduction step of reducing noise by combining a plurality of image data acquired in the acquisition step to generate composite image data;
Have a second noise reduction step for performing noise reduction for the synthetic image data by using the correction amount for each pixel used to generate the composite image data in the first noise reduction step,
The first noise reduction step uses any one of a plurality of image data as target image data and the other as reference image data, and a block region corresponding to a processing pixel of the target image data; and the reference image data A correction amount for each pixel is determined according to a difference from a block area corresponding to a search position included in the search area .
コンピュータを請求項1から10のいずれか一項に記載の画像処理装置として機能させるためのプログラム。 The program for functioning a computer as an image processing apparatus as described in any one of Claim 1 to 10 .
JP2013114410A 2013-05-30 2013-05-30 Image processing apparatus and image processing method Active JP6245847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013114410A JP6245847B2 (en) 2013-05-30 2013-05-30 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013114410A JP6245847B2 (en) 2013-05-30 2013-05-30 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2014236226A JP2014236226A (en) 2014-12-15
JP6245847B2 true JP6245847B2 (en) 2017-12-13

Family

ID=52138668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013114410A Active JP6245847B2 (en) 2013-05-30 2013-05-30 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6245847B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6614843B2 (en) * 2015-07-30 2019-12-04 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing program
JP7287692B2 (en) * 2021-03-30 2023-06-06 株式会社モルフォ Image processing device, image processing program, and image processing method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4815124B2 (en) * 2004-12-02 2011-11-16 富士フイルム株式会社 Imaging apparatus, signal processing method of solid-state imaging device, digital camera, and control method thereof
JP2009105533A (en) * 2007-10-22 2009-05-14 Sony Corp Image processing device, imaging device, image processing method, and picked-up image processing method
JP4480760B2 (en) * 2007-12-29 2010-06-16 株式会社モルフォ Image data processing method and image processing apparatus
JP2010124321A (en) * 2008-11-20 2010-06-03 Olympus Corp Moving image noise reduction processing apparatus, moving image noise reduction processing program, and moving image noise reduction processing method
JP5143038B2 (en) * 2009-02-02 2013-02-13 オリンパス株式会社 Image processing apparatus and image processing method
JP4645746B2 (en) * 2009-02-06 2011-03-09 ソニー株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP2010200179A (en) * 2009-02-26 2010-09-09 Olympus Corp Image processor, image processing method, image processing program and program storing medium in which image processing program is stored
JP5496036B2 (en) * 2010-09-21 2014-05-21 オリンパス株式会社 Image processing apparatus and image processing program
JP2013005405A (en) * 2011-06-21 2013-01-07 Sanyo Electric Co Ltd Electronic camera

Also Published As

Publication number Publication date
JP2014236226A (en) 2014-12-15

Similar Documents

Publication Publication Date Title
JP5398156B2 (en) WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP6906947B2 (en) Image processing equipment, imaging equipment, image processing methods and computer programs
JP6308748B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2009194700A (en) Image processor and image processing program
US10482580B2 (en) Image processing apparatus, image processing method, and program
JP2008077501A (en) Image processing device and image processing control program
WO2019124289A1 (en) Device, control method, and storage medium
JP5859061B2 (en) Imaging apparatus, image processing apparatus, and control method thereof
JP2018037857A (en) Image processing system, image processing method and program
JP2011171842A (en) Image processor and image processing program
WO2015186510A1 (en) Imaging device and method, and program
JP6245847B2 (en) Image processing apparatus and image processing method
US10861194B2 (en) Image processing apparatus, image processing method, and storage medium
US9710897B2 (en) Image processing apparatus, image processing method, and recording medium
EP3605450B1 (en) Image processing apparatus, image pickup apparatus, control method of image processing apparatus, and computer-program
JP6218520B2 (en) Image processing apparatus, image processing method, and program
JP2019016893A (en) Image processing apparatus, control method therefor, and program
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2017183983A (en) Imaging apparatus, control method and control program of the same
JP2017229025A (en) Image processing apparatus, image processing method, and program
JP2011082614A (en) Image processing device, and imaging device
JP2020057242A (en) Image processing system, image processing method, and program
CN113079313B (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium
JP5307572B2 (en) Imaging system, video signal processing program, and imaging method
JP2011244028A (en) Imaging apparatus, shake correcting method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R151 Written notification of patent or utility model registration

Ref document number: 6245847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151