JP2015121884A - Image processing apparatus, method of the same, and program - Google Patents

Image processing apparatus, method of the same, and program Download PDF

Info

Publication number
JP2015121884A
JP2015121884A JP2013264501A JP2013264501A JP2015121884A JP 2015121884 A JP2015121884 A JP 2015121884A JP 2013264501 A JP2013264501 A JP 2013264501A JP 2013264501 A JP2013264501 A JP 2013264501A JP 2015121884 A JP2015121884 A JP 2015121884A
Authority
JP
Japan
Prior art keywords
noise
image
band
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013264501A
Other languages
Japanese (ja)
Inventor
智志 池田
Satoshi Ikeda
智志 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013264501A priority Critical patent/JP2015121884A/en
Priority to US14/515,883 priority patent/US9531922B2/en
Publication of JP2015121884A publication Critical patent/JP2015121884A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide super-resolution processing of preventing noise deterioration from being visually perceived so as to improve sharpness over the entire image.SOLUTION: An image processing apparatus acquires noise information according to a plurality of types of resolution conversion processing, calculates, for the noise information and an input image, a noise map showing how noise is easily perceived in the input image, determines an addition ratio of a plurality of images subjected to resolution conversion processing, and composes the plurality of images subjected to the resolution conversion processing according to the addition ratio.

Description

本発明は、画像の解像度を変換する画像処理装置、その方法、及びプログラムに関する。   The present invention relates to an image processing apparatus for converting image resolution, a method thereof, and a program.

テレビやディスプレイなどの表示機器が表示する画像の高解像度に伴い、表示機器に入力される映像コンテンツが、表示される画像の解像度に満たない状況が増加している。このため、低解像度の映像から高解像度の映像を生成する超解像技術の重要性が増している。超解像技術には、大きく分けて学習型と再構成型の2つの手法がある。再構成型超解像技術は、まず初期の高解像度画像を設定し、そこからカメラモデルに基づき低解像度画像を推定し、推定した画像の画素値と実際の観測画素値の誤差を最小にするように高解像度画像を更新することで、超解像画像を取得する手法である。一方、学習型超解像は、入力画像とあらかじめ学習した高解像度画像データベースとを照らし合わせ、高解像度パターンに置き換えることで高解像度画像を得る手法である。なお、再構成型超解像技術を説明する文献として例えば特許文献1があり、学習型超解像技術を説明する文献として例えば特許文献2がある。   Along with the high resolution of images displayed on a display device such as a television or a display, the situation in which video content input to the display device is less than the resolution of the displayed image is increasing. For this reason, the importance of super-resolution technology for generating high-resolution video from low-resolution video is increasing. There are two main types of super-resolution techniques: learning and reconstruction. Reconstruction-type super-resolution technology first sets an initial high-resolution image, then estimates a low-resolution image based on the camera model, and minimizes the error between the estimated image pixel value and the actual observed pixel value. In this way, a super-resolution image is acquired by updating a high-resolution image. On the other hand, learning-type super-resolution is a method of obtaining a high-resolution image by comparing an input image with a previously learned high-resolution image database and replacing it with a high-resolution pattern. Note that, for example, Patent Document 1 is an example of a document that describes a reconstruction-type super-resolution technique, and Patent Document 2 is an example of a document that describes a learning-type super-resolution technique.

一方で、超解像技術にはノイズと鮮鋭感のトレードオフ問題が存在することが知られている。例えば、学習型超解像技術では、一般に、鮮鋭感の高い画像を生成する一方、出力画像にノイズが混合しやすく、破綻した画像が生成されることもある。一方、再構成型超解像では、は一般に、比較的鮮鋭感が低い画像しか生成できないが、出力画像にノイズは発生しない。   On the other hand, it is known that the super-resolution technique has a trade-off problem between noise and sharpness. For example, in the learning type super-resolution technique, an image with high sharpness is generally generated, while noise is easily mixed with an output image, and a broken image may be generated. On the other hand, in the reconstruction type super-resolution, generally only an image with a relatively low sharpness can be generated, but no noise is generated in the output image.

このようなトレードオフ問題を解消する技術として、画像に応じて複数の超解像手法を使い分ける方法が提案されている。例えば、特許文献3では、領域に含まれるエッジ量に応じて超解像処理を切り替えることで、ノイズと鮮鋭感の両立を図っている。   As a technique for solving such a trade-off problem, a method of properly using a plurality of super-resolution techniques according to images has been proposed. For example, Patent Document 3 attempts to achieve both noise and sharpness by switching super-resolution processing according to the amount of edges included in a region.

特開2008−140012号公報JP 2008-140012 A 特許第3321915号公報Japanese Patent No. 3321915 特開2006−221221号公報JP 2006-221221 A

S. Daly, "The Visible Differences Predictor: An algorithm for the assessment of image fidelity," in A.B. Watson, editor, Digital Image and Human Vision, pages 179-206, Cambridge, MA, MIT Press, 1993.S. Daly, "The Visible Differences Predictor: An algorithm for the assessment of image fidelity," in A.B.Watson, editor, Digital Image and Human Vision, pages 179-206, Cambridge, MA, MIT Press, 1993.

視覚によるノイズの知覚(見え方)は背景の画像によって変化することは、視覚のマスキング効果として良く知られている。したがって、画像の領域に応じて超解像処理を変更することで、上述した鮮鋭感とノイズのトレードオフの問題の解決が可能となる。しかし、公知技術では、視覚がノイズを知覚しやすい画像の一部でしか効果を得ることが出来なかった。例えば、特許文献3によれば、エッジ量に応じて超解像処理を切り替えるため、エッジ以外の領域では同一の超解像処理が施される。しかしながら、背景によるノイズのマスキング効果は、例えば遠景の森林などのテクスチャ領域など、エッジ以外の領域においても発生する。すなわち、特許文献3による手法では、鮮鋭感とノイズのトレードオフの問題が十分に解決されたとは言えないという課題があった。   It is well known as a visual masking effect that the perception (viewing) of visual noise varies depending on the background image. Therefore, by changing the super-resolution processing according to the image area, the above-described problem of sharpness and noise trade-off can be solved. However, in the known technique, an effect can be obtained only in a part of an image in which vision is easy to perceive noise. For example, according to Patent Document 3, since the super-resolution processing is switched according to the edge amount, the same super-resolution processing is performed in a region other than the edge. However, the noise masking effect due to the background also occurs in a region other than the edge, such as a texture region such as a distant forest. That is, the technique according to Patent Document 3 has a problem that it cannot be said that the sharpness and noise trade-off problem has been sufficiently solved.

本発明は、上記課題に鑑みてなされたものであり、画像全体において、ノイズ劣化が視覚によって知覚されずに鮮鋭性を向上できる超解像処理を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a super-resolution process that can improve sharpness in a whole image without noise degradation being perceived by vision.

上記目的を達成するための一手段として、本発明の画像処理装置は以下の構成を備える。すなわち、入力画像に対してそれぞれ異なる解像度変換処理を施す複数の変換手段と、前記解像度変換処理に応じたノイズ情報を取得する取得手段と、前記ノイズ情報と前記入力画像に基づいて、前記入力画像におけるノイズの知覚しやすさを表したノイズマップを算出する算出手段と、前記ノイズマップに基づいて、前記解像度変換処理が施された複数の画像の加算比率を決定する決定手段と、前記加算比率に従って前記解像度変換処理が施された複数の画像を合成する合成手段とを備える。   As a means for achieving the above object, an image processing apparatus of the present invention comprises the following arrangement. That is, a plurality of conversion units that perform different resolution conversion processes on the input image, an acquisition unit that acquires noise information according to the resolution conversion process, and the input image based on the noise information and the input image Calculating means for calculating a noise map representing the ease of perception of noise, determining means for determining an addition ratio of a plurality of images subjected to the resolution conversion processing based on the noise map, and the addition ratio And a synthesizing unit for synthesizing the plurality of images subjected to the resolution conversion processing.

画像全体において、ノイズ劣化が知覚されずに、鮮鋭性を向上させる超解像処理を実現することが出来る。   It is possible to realize super-resolution processing that improves sharpness without perceiving noise degradation in the entire image.

いくつかの実施形態による画像処理装置の構成を示すブロック図。The block diagram which shows the structure of the image processing apparatus by some embodiment. 第1実施形態による画像処理部の構成を示すブロック図。The block diagram which shows the structure of the image process part by 1st Embodiment. 第1実施形態によるノイズマップ算出部の構成を示すブロック図。The block diagram which shows the structure of the noise map calculation part by 1st Embodiment. 空間視覚特性を示す模式図。The schematic diagram which shows a spatial visual characteristic. 帯域分割フィルタの円周方向の特性を示す模式図。The schematic diagram which shows the characteristic of the circumferential direction of a band-division filter. 帯域分割フィルタの半径方向の特性を示す模式図。The schematic diagram which shows the characteristic of the radial direction of a band division filter. 帯域分割フィルタによる周波数の帯域分割を表した模式図。The schematic diagram showing the frequency band division by the band division filter. マスキング強度を示す模式図。The schematic diagram which shows masking intensity | strength. 第1実施形態による画像合成部の構成を示すブロック図。The block diagram which shows the structure of the image synthetic | combination part by 1st Embodiment. 第1実施形態による画像加算部の構成を示すブロック図。The block diagram which shows the structure of the image addition part by 1st Embodiment. 第2実施形態による画像処理部の構成を示すブロック図。The block diagram which shows the structure of the image process part by 2nd Embodiment. 第2実施形態による画像合成部の構成を示すブロック図。The block diagram which shows the structure of the image synthetic | combination part by 2nd Embodiment. 第3実施形態によるノイズマップ算出部の構成を示すブロック図。The block diagram which shows the structure of the noise map calculation part by 3rd Embodiment. 第4実施形態による画像処理部の構成を示すブロック図。The block diagram which shows the structure of the image process part by 4th Embodiment. 第4実施形態によるノイズ情報取得部の構成を示すブロック図。The block diagram which shows the structure of the noise information acquisition part by 4th Embodiment. 第4実施形態によるノイズマップ算出部の構成を示すブロック図。The block diagram which shows the structure of the noise map calculation part by 4th Embodiment. 第5実施形態によるノイズマップ算出部の構成を示すブロック図。The block diagram which shows the structure of the noise map calculation part by 5th Embodiment. 第5実施形態による帯域分割フィルタによる周波数の帯域分割を表した模式図。The schematic diagram showing the frequency band division by the band division filter by 5th Embodiment.

[第1実施形態]
本実施形態は、入力された低解像度画像に対して2つの超解像処理を行い、超解像処理後の出力画像を、ノイズを抑制しつつ解像感を増大させるように合成する。この際、入力画像の画像構造に応じたノイズの知覚しやすさをマップ化したノイズマップに基づき、2つの超解像出力画像の混合割合を決定する。これにより、ノイズの知覚されやすい領域にノイズの少ない超解像処理を、ノイズの知覚されにくい領域に解像感の高い超解像処理を割り当てることができ、ノイズ感と鮮鋭感を両立した超解像が可能となる。なお、ノイズ感度モデルに関しては、非特許文献1に詳しい記載がある。
[First Embodiment]
In this embodiment, two super-resolution processes are performed on the input low-resolution image, and the output image after the super-resolution process is synthesized so as to increase the resolution while suppressing noise. At this time, the mixing ratio of the two super-resolution output images is determined based on a noise map obtained by mapping the ease of perceiving noise according to the image structure of the input image. As a result, super-resolution processing with less noise can be assigned to areas where noise is easily perceived, and super-resolution processing with high resolution can be assigned to areas where noise is difficult to perceive. Resolution becomes possible. Note that Non-Patent Document 1 describes the noise sensitivity model in detail.

<画像処理装置の構成>
図1は、本実施形態による画像処理装置の構成を示すブロック図である。なお、図1は、画像処理装置としてデジタルカメラの構成を示している。撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどのセンサなどから構成され、被写体の光量を検知する。A/D変換部102は、被写体の光量をデジタル値に変換する。信号処理部103は、A/D変換部102で変換されたデジタル値にデモザイキング処理、ホワイトバランス処理、ガンマ処理などを行い、デジタル画像を生成する。画像処理部104は、信号処理部103で生成されたデジタル画像に対してノイズ低減処理を行う。エンコーダ部105は、ノイズ低減後のデジタル画像をJPEG等の映像圧縮フォーマットに変換する処理を行う。メディアインタフェース106は、107のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)につなぐためのインタフェースである。
<Configuration of image processing apparatus>
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the present embodiment. FIG. 1 shows a configuration of a digital camera as an image processing apparatus. The imaging unit 101 includes a zoom lens, a focus lens, a shake correction lens, an aperture, a shutter, an optical low-pass filter, an iR cut filter, a color filter, and a sensor such as a CMOS or a CCD, and detects the amount of light of the subject. The A / D conversion unit 102 converts the light amount of the subject into a digital value. The signal processing unit 103 performs demosaicing processing, white balance processing, gamma processing, and the like on the digital value converted by the A / D conversion unit 102 to generate a digital image. The image processing unit 104 performs noise reduction processing on the digital image generated by the signal processing unit 103. The encoder unit 105 performs processing for converting the digital image after noise reduction into a video compression format such as JPEG. The media interface 106 is an interface for connecting to 107 media (for example, hard disk, memory card, CF card, SD card, USB memory).

CPU108は、各構成の処理全てに関わり、ROM109やRAM110に格納された命令を順に読み込み処理を実行する。また、CPU108は、システムバス115を介して各構成を制御する。ROM109とRAM110は、処理に必要なプログラム、データ、作業領域などをCPU108に提供する。撮像制御部111は、フォーカスを合わせる、シャッターを開く、絞りを調節するなど、CPU108から指示された撮像系の制御を行う。操作部112は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザー指示を受け取る。ユーザー指示としては、ISO感度設定、シャッター速度設定、F値設定等の撮影設定がある。これらの撮影設定はCPU108で処理が行われ、デジタルカメラの撮影条件に反映されると共に、RAM110に記憶される。D/A変換部113は、画像処理部104でノイズ低減されたデジタル画像に対しアナログ変換を行う。表示部114は、一般的には液晶ディスプレイが広く用いられており、D/A変換部113から受け取った撮影画像の表示を行う。   The CPU 108 is involved in all the processes of each configuration, and sequentially reads the instructions stored in the ROM 109 and the RAM 110 and executes the processes. The CPU 108 controls each component via the system bus 115. The ROM 109 and RAM 110 provide the CPU 108 with programs, data, work areas, and the like necessary for processing. The imaging control unit 111 performs control of the imaging system instructed by the CPU 108 such as focusing, opening a shutter, and adjusting an aperture. The operation unit 112 corresponds to a button, a mode dial, and the like, and receives a user instruction input via these buttons. User instructions include shooting settings such as ISO sensitivity setting, shutter speed setting, and F value setting. These shooting settings are processed by the CPU 108, reflected in the shooting conditions of the digital camera, and stored in the RAM 110. The D / A conversion unit 113 performs analog conversion on the digital image whose noise has been reduced by the image processing unit 104. In general, a liquid crystal display is widely used as the display unit 114 and displays a captured image received from the D / A conversion unit 113.

<画像処理部104の構成>
図2は、本実施形態による画像処理部104の構成を示す図である。端子201には、信号処理部103で生成されたデジタル画像信号が入力される。パラメータ取得部202Aと202Bは、それぞれ第一の超解像処理部206と第二の超解像処理部207から指定された、それぞれの処理の設定パラメータを、システムバス115を介してRAM110から取得する。ノイズ特性記憶部203Aと203Bは、それぞれ第一の超解像処理部206と第二の超解像処理部207の処理の設定パラメータに応じたノイズ特性を、テーブルもしくは関係式を用いて関連付けて記憶する。なお、本実施形態でのノイズ特性とは、ノイズ量と自己相関関数からなる。ノイズ情報取得部204Aと204Bは、それぞれパラメータ取得部202Aと202Bより取得した設定パラメータに基づき、それぞれノイズ特性記憶部203Aと203Bからノイズ特性を取得する。
<Configuration of Image Processing Unit 104>
FIG. 2 is a diagram illustrating a configuration of the image processing unit 104 according to the present embodiment. A digital image signal generated by the signal processing unit 103 is input to the terminal 201. The parameter acquisition units 202A and 202B acquire the setting parameters of the respective processes specified from the first super-resolution processing unit 206 and the second super-resolution processing unit 207 from the RAM 110 via the system bus 115, respectively. To do. The noise characteristic storage units 203A and 203B associate the noise characteristics corresponding to the process setting parameters of the first super-resolution processing unit 206 and the second super-resolution processing unit 207 using a table or a relational expression, respectively. Remember. In addition, the noise characteristic in this embodiment consists of a noise amount and an autocorrelation function. The noise information acquisition units 204A and 204B acquire noise characteristics from the noise characteristic storage units 203A and 203B, respectively, based on the setting parameters acquired from the parameter acquisition units 202A and 202B, respectively.

そして、ノイズ情報取得部204Aと204Bは、取得したノイズ特性を画像に含まれるノイズ情報として、それぞれノイズマップ算出部205Aと205Bに送信する。ノイズマップ算出部205Aと205Bは、それぞれノイズ情報取得部204Aと204Bでノイズ情報として取得したノイズ特性と、信号処理部103から入力されたデジタル画像に基づき、画像におけるノイズの知覚されやすさを表現する、ノイズマップを生成する。第一の超解像処理部206及び第二の超解像処理部207は、システムバス115を介して信号処理部103から得られるデジタル画像に対してそれぞれ解像度変換処理を施す。画像合成部208は、第一の超解像処理部206及び第二の超解像処理部207により得られた画像に基づいて加算比率を算出し、算出した加算比率により画像を合成し、一枚の高解像度画像を出力する。端子209からは、超解像処理を施したデジタル画像が出力される。なお、図2における202A〜205Aは、それぞれ202B〜205Bと同じブロックとして構成されてもよい。この場合、第一の超解像処理部206及び第二の超解像処理部207に対応した処理が、並行に、もしくは切り換えられて行われる。   Then, the noise information acquisition units 204A and 204B transmit the acquired noise characteristics as noise information included in the image to the noise map calculation units 205A and 205B, respectively. The noise map calculation units 205A and 205B express the ease of perception of noise in the image based on the noise characteristics acquired as noise information by the noise information acquisition units 204A and 204B and the digital image input from the signal processing unit 103, respectively. A noise map is generated. The first super-resolution processing unit 206 and the second super-resolution processing unit 207 perform resolution conversion processing on the digital images obtained from the signal processing unit 103 via the system bus 115, respectively. The image composition unit 208 calculates an addition ratio based on the images obtained by the first super-resolution processing unit 206 and the second super-resolution processing unit 207, combines the images with the calculated addition ratio, A single high-resolution image is output. From the terminal 209, a digital image subjected to super-resolution processing is output. Note that 202A to 205A in FIG. 2 may be configured as the same blocks as 202B to 205B, respectively. In this case, processing corresponding to the first super-resolution processing unit 206 and the second super-resolution processing unit 207 is performed in parallel or switched.

<ノイズマップ算出部205Aと205Bの構成>
図3は、本実施形態によるノイズマップ算出部205Aの構成を示す図である。なお、ノイズマップ算出部205Bはノイズマップ算出部205Aと同様の構成を有する。端子301には、信号処理部103で生成されたデジタル画像が入力される。このデジタル画像をiin(x,y)とする。端子302には、ノイズ情報取得部204Aからノイズ情報が入力される。ノイズ画像生成部303は、デジタル画像と同じ位置のホワイトノイズ画像nw(x,y)を、所定のパワーとなる様に生成する。フィルタ部304は、生成されたホワイトノイズ画像nw(x,y)に対して下記の演算を施して、カメラのノイズ画像n(x,y)を推定する。

Figure 2015121884
ここでαは、ノイズ情報取得部204Aで取得されたノイズ量に関する補正項である。また、ノイズ情報取得部204Aで取得されたノイズの自己相関関数のフーリエ変換結果と、c(x,y)のパワースペクトラムが一致するように、c(x,y)は求められる。 <Configuration of Noise Map Calculation Units 205A and 205B>
FIG. 3 is a diagram illustrating a configuration of the noise map calculation unit 205A according to the present embodiment. The noise map calculation unit 205B has the same configuration as the noise map calculation unit 205A. A digital image generated by the signal processing unit 103 is input to the terminal 301. Let this digital image be i in (x, y). Noise information is input to the terminal 302 from the noise information acquisition unit 204A. The noise image generation unit 303 generates a white noise image n w (x, y) at the same position as the digital image so as to have a predetermined power. The filter unit 304 performs the following calculation on the generated white noise image n w (x, y) to estimate the camera noise image n (x, y).
Figure 2015121884
Here, α is a correction term related to the amount of noise acquired by the noise information acquisition unit 204A. Also, c (x, y) is obtained so that the Fourier transform result of the autocorrelation function of noise acquired by the noise information acquisition unit 204A matches the power spectrum of c (x, y).

フーリエ変換部305Aと305Bは、デジタル画像とノイズ画像に対してフーリエ変換を施し、空間周波数情報を生成する。以下、デジタル画像iin(x,y)のフーリエ変換結果をIin(u,v)、ノイズ画像n(x,y)のフーリエ変換結果をN(u,v)とする。空間視覚特性乗算部306Aと306Bは、デジタル画像のフ―リ変換結果Iin(u,v)とノイズ画像のフーリエ変換結果N(u,v)に対し、空間視覚特性であるVTF(u,v)を乗算し、それぞれの乗算結果としてIV(u,v)とNV(u,v)を得る。なお、VTF(u,v)は、VTF(u,v)=VTFsx(u)×VTFsy(v)で定義され、VTFsx(u)は横方向の空間視覚特性、VTFsy(v)は縦方向の空間視覚特性である。これらは、それぞれ下式で定義される。

Figure 2015121884
Figure 2015121884
ここで、p(mm)は画素ピッチ、R(mm)は視距離、Nxは入力画像の横画素数、Nyは入力画像の縦画素数である。これらの値は、一般的なユーザー観察環境に基づいて定められる。なお、VTFsx(u)並びにVTFsy(v)は、空間視覚特性
Figure 2015121884
を視距離と画面ピッチと画素数に応じて周波数空間でサンプリングしたものであり、基本形は同じである。 The Fourier transform units 305A and 305B perform Fourier transform on the digital image and the noise image to generate spatial frequency information. Hereinafter, the Fourier transform result of the digital image i in (x, y) is I in (u, v), and the Fourier transform result of the noise image n (x, y) is N (u, v). Spatial visual characteristic multiplication units 306A and 306B, for the free transformation result I in (u, v) of the digital image and the Fourier transformation result N (u, v) of the noise image, VTF (u, Multiply v) and obtain IV (u, v) and NV (u, v) as the multiplication results. VTF (u, v) is defined as VTF (u, v) = VTFsx (u) × VTFsy (v), where VTFsx (u) is the spatial visual characteristic in the horizontal direction and VTFsy (v) is in the vertical direction. Spatial visual characteristics. These are respectively defined by the following equations.
Figure 2015121884
Figure 2015121884
Here, p (mm) is the pixel pitch, R (mm) is the viewing distance, Nx is the number of horizontal pixels of the input image, and Ny is the number of vertical pixels of the input image. These values are determined based on a general user observation environment. VTFsx (u) and VTFsy (v) are spatial visual characteristics.
Figure 2015121884
Is sampled in the frequency space according to the viewing distance, the screen pitch, and the number of pixels, and the basic shape is the same.

図4は、空間視覚特性VTF(u,v)の模式図である。図4では、空間視覚特性として、空間周波数に対する視覚による感度が示されている。図4によれば、画像の空間周波数が高くなるにつれて視覚による感度が高くなり、すなわち、画像が見えやすくなりことがわかる。また、画像の空間周波数がより高くなると再び、視覚による感度が低くなり、すなわち、画像が見えにくくなることがわかる。   FIG. 4 is a schematic diagram of the spatial visual characteristic VTF (u, v). In FIG. 4, the visual sensitivity to the spatial frequency is shown as the spatial visual characteristic. According to FIG. 4, it can be seen that the visual sensitivity increases as the spatial frequency of the image increases, that is, the image becomes easier to see. It can also be seen that the higher the spatial frequency of the image, the lower the visual sensitivity, that is, the image becomes difficult to see.

帯域分割部307Aと307Bはそれぞれ、空間視覚特性乗算部306による乗算結果である空間周波数情報IV(u,v)とNV(u,v)に対し、帯域分割フィルタcortexk,l(u,v)を用いて帯域分割を施す。kは半径方向、lは円周方向の帯域のインデックスである。帯域分割後の空間周波数情報は、それぞれ下式で表現される。Isk,l(u,v)はデジタル画像に対する帯域分割情報、Nsk,l(u,v)はホワイトノイズ画像に対する帯域分割情報である。

Figure 2015121884
The band division units 307A and 307B respectively apply the band division filter cortex k, l (u, v) to the spatial frequency information IV (u, v) and NV (u, v) which are multiplication results by the spatial visual characteristic multiplication unit 306. ) To divide the bandwidth. k is an index of the band in the radial direction, and l is an index of the band in the circumferential direction. The spatial frequency information after the band division is expressed by the following equations, respectively. Is k, l (u, v) is band division information for a digital image, and Ns k, l (u, v) is band division information for a white noise image.
Figure 2015121884

帯域分割フィルタcortexk,l(u,v)は、半径方向と円周方向を結合し、次のように定義される。

Figure 2015121884
Figure 2015121884
ここで、cortex_polk,l(ρ,θ) はcortexk,l(u,v)を極座標で表現したものである。Kは半径方向、Lは円周方向の帯域分割数であり、一般にはK=6,L=6を用いる。 The band division filter cortex k, l (u, v) combines the radial direction and the circumferential direction and is defined as follows.
Figure 2015121884
Figure 2015121884
Here, cortex_pol k, l (ρ, θ) represents cortex k, l (u, v) in polar coordinates. K is the radial direction, L is the number of band divisions in the circumferential direction, and generally K = 6 and L = 6 are used.

上記の式において、fanl(θ)の定義は次の通りである。

Figure 2015121884
ここで
Figure 2015121884
である。図5は、L=6の場合のfanl(θ)の模式図である。図5において、横軸は正規化周波数、縦軸は応答である。 In the above equation, fanl (θ) is defined as follows.
Figure 2015121884
here
Figure 2015121884
It is. FIG. 5 is a schematic diagram of fanl (θ) when L = 6. In FIG. 5, the horizontal axis represents the normalized frequency, and the vertical axis represents the response.

また、domk(ρ)の定義は次の通りである。

Figure 2015121884
ここで
Figure 2015121884
である。図6は、K=6の場合のdomk(ρ)の模式図である。図6において、横軸は正規化周波数、縦軸は応答である。 The definition of domk (ρ) is as follows.
Figure 2015121884
here
Figure 2015121884
It is. FIG. 6 is a schematic diagram of dom k (ρ) when K = 6. In FIG. 6, the horizontal axis represents the normalized frequency, and the vertical axis represents the response.

また、base(ρ)の定義は次の通りである。

Figure 2015121884
ここで、
Figure 2015121884
である。図7は、帯域分割フィルタcortexk,l(u,v)による帯域分割を、横軸、縦軸とも正規化周波数空間で示した模式図である。図7において、各フィルタの半値周波数が太い実線で示されている。 The definition of base (ρ) is as follows.
Figure 2015121884
here,
Figure 2015121884
It is. FIG. 7 is a schematic diagram showing band division by the band division filter cortex k, l (u, v) in the normalized frequency space on both the horizontal axis and the vertical axis. In FIG. 7, the half-value frequency of each filter is indicated by a thick solid line.

逆フーリエ変換部308Aと308Bは、帯域分割部307による帯域分割フィルタ後の空間周波数情報に対して、逆フーリエ変換を施し、帯域分割画像を生成する。以下では、デジタル画像に対する帯域分割周波数情報Isk,l(u,v)の逆フーリエ変換結果をisk,l(x,y)、ホワイトノイズ画像に対する帯域分割周波数情報Nsk,l(u,v)の逆フーリエ変換結果をnsk,l(x,y)とする。 Inverse Fourier transform units 308A and 308B perform inverse Fourier transform on the spatial frequency information after the band division filter by the band division unit 307 to generate a band division image. In the following, the inverse Fourier transform result of the band division frequency information Is k, l (u, v) for the digital image is is k, l (x, y), and the band division frequency information Ns k, l (u, v) for the white noise image Let n k, l (x, y) be the inverse Fourier transform result of v).

ノイズマスク部309は、逆フーリエ変換部308Aからの出力である帯域分割画像isk,l(x,y)に基づいて、逆フーリエ変換部308Bからの出力である帯域分割ノイズ画像nsk,l(x,y)に対するマスキングを施す。そして、ノイズマスク部309は、マスク化後のノイズ画像である、知覚されるノイズ画像Pk,l(x,y)を帯域毎に算出する。まず、マスキング強度Tek,l(x,y)を下式により算出する。

Figure 2015121884
ここで、
Figure 2015121884
であり、本実施形態ではW=6,Q=0.7,b=4,s=0.8とする。 The noise mask unit 309 is based on the band-divided image is k, l (x, y) that is output from the inverse Fourier transform unit 308A, and the band-divided noise image ns k, l that is output from the inverse Fourier transform unit 308B. Mask (x, y). Then, the noise mask unit 309 calculates a perceived noise image P k, l (x, y), which is a noise image after masking, for each band. First, the masking strength Te k, l (x, y) is calculated by the following equation.
Figure 2015121884
here,
Figure 2015121884
In this embodiment, W = 6, Q = 0.7, b = 4, and s = 0.8.

図8は、本実施形態におけるisk,l(x,y)のマスキング強度Tek,l(x,y)の関係を示すグラフである。図8において、横軸はisk,l(x,y)の強度を対数スケールで、縦軸はTek,l(x,y)の強度を対数スケールで表している。このTek,l(x,y)を用いて、ノイズ画像Pk,l(x,y)は、

Figure 2015121884
と算出される。ここで、mはiin(x,y)の平均値である。 FIG. 8 is a graph showing the relationship between the masking strengths Te k, l (x, y) of is k, l (x, y) in the present embodiment. In FIG. 8, the horizontal axis represents the intensity of is k, l (x, y) on a logarithmic scale, and the vertical axis represents the intensity of Te k, l (x, y) on a logarithmic scale. Using this Te k, l (x, y), the noise image P k, l (x, y)
Figure 2015121884
Is calculated. Here, m is an average value of i in (x, y).

ノイズマップ合成部310は、下式に基づいて帯域毎の知覚ノイズ画像Pk,l(x,y)を全帯域で合成し、ノイズマップNM1(x,y)を算出する。

Figure 2015121884
なお、上記処理と同様にして、ノイズマップ算出部205BはノイズマップNM2(x,y)を算出する。 The noise map synthesis unit 310 synthesizes the perceptual noise image P k, l (x, y) for each band based on the following equation for all bands, and calculates the noise map NM1 (x, y).
Figure 2015121884
Note that the noise map calculation unit 205B calculates the noise map NM2 (x, y) in the same manner as the above processing.

<画像合成部208の構成>
図9は、本実施形態による画像合成部208の構成を表す図である。端子901には、第一の超解像処理部206から第一の超解像処理後のデジタル画像iin1(x,y)が入力される。端子902には、第二の超解像処理部207から第二の超解像処理後のデジタル画像iin2(x,y)が入力される。端子903には、ノイズマップ算出部205Aで算出された第一の超解像処理に対するノイズマップNM1(x,y)が入力される。端子904には、ノイズマップ算出部205Bで算出された第二の超解像処理に対するノイズマップNM2(x,y)が入力される。
<Configuration of Image Composition Unit 208>
FIG. 9 is a diagram illustrating the configuration of the image composition unit 208 according to the present embodiment. The terminal 901 receives a digital image i in1 (x, y) after the first super-resolution processing from the first super-resolution processing unit 206. A digital image i in2 (x, y) after the second super-resolution processing is input from the second super-resolution processing unit 207 to the terminal 902. The terminal 903 receives the noise map NM1 (x, y) for the first super-resolution processing calculated by the noise map calculation unit 205A. A noise map NM2 (x, y) for the second super-resolution processing calculated by the noise map calculation unit 205B is input to the terminal 904.

重み決定部905は、画像位置(x,y)に応じたiin1(x,y)とiin2(x,y)の二つの画素値の混合重みを示す重みマップW1(x,y)及びW2(x,y) を、ノイズマップ情報NM1(x,y)及びNM2(x,y)に基づいて生成する。ここで、重みマップW1(x,y)及びW2(x,y)は、例えば以下の式により算出され得る。ただし、本実施形態では以下の算出方法に限定されない。

Figure 2015121884
Figure 2015121884
画像加算部906は、重みマップW1(x,y)及びW2(x,y)に従って、後述のようにデジタル画像iin1(x,y)とデジタル画像iin2(x,y)の合成処理を施す。 The weight determination unit 905 includes a weight map W1 (x, y) indicating a mixture weight of two pixel values i in1 (x, y) and i in2 (x, y) according to the image position (x, y) and W2 (x, y) is generated based on the noise map information NM1 (x, y) and NM2 (x, y). Here, the weight maps W1 (x, y) and W2 (x, y) can be calculated by the following equations, for example. However, the present embodiment is not limited to the following calculation method.
Figure 2015121884
Figure 2015121884
The image adding unit 906 performs a synthesis process of the digital image i in1 (x, y) and the digital image i in2 (x, y) as described later according to the weight maps W1 (x, y) and W2 (x, y). Apply.

<画像加算部906の構成>
図10は、本実施形態による画像加算部906の構成を表す図である。画像加算部906では、重み算出部905で算出された重みマップW1(x,y)及びW2(x,y)を用いて、デジタル画像iin1(x,y)とデジタル画像iin2(x,y)の重み付き加算処理を施す。端子1001には、デジタル画像iin1(x,y)が、端子1002にはデジタル画像iin2(x,y)が入力される。また、端子1006にはデジタル画像iin1(x,y)に対する重みマップW1(x,y)が、端子1007にはデジタル画像iin2(x,y)に対する重みマップW2(x,y)が入力される。係数設定部1008Aと1008Bは、座標に応じた係数をそれぞれ重みマップW1(x,y)とW2(x,y)を参照して乗算部1003Aと1003Bに対して設定する。乗算部1003Aと1003Bは、入力デジタル画像から画素値を読み出し、あらかじめ設定された係数を乗算する。加算器1104は、重みが乗算された各画素値を加算する。
<Configuration of Image Adder 906>
FIG. 10 is a diagram illustrating the configuration of the image adding unit 906 according to the present embodiment. The image addition unit 906 uses the weight maps W1 (x, y) and W2 (x, y) calculated by the weight calculation unit 905 to use the digital image i in1 (x, y) and the digital image i in2 (x, Perform the weighted addition process of y). A digital image i in1 (x, y) is input to the terminal 1001, and a digital image i in2 (x, y) is input to the terminal 1002. Also, a weight map W1 (x, y) for the digital image i in1 (x, y) is input to the terminal 1006, and a weight map W2 (x, y) for the digital image i in2 (x, y) is input to the terminal 1007. Is done. Coefficient setting units 1008A and 1008B set coefficients corresponding to the coordinates to multiplication units 1003A and 1003B with reference to weight maps W1 (x, y) and W2 (x, y), respectively. Multipliers 1003A and 1003B read pixel values from the input digital image and multiply by preset coefficients. The adder 1104 adds each pixel value multiplied by the weight.

以上、本実施形態によれば、ノイズの知覚されやすさを表現する2つのノイズマップを算出し、これらのマップに基づいて2つの超解像結果を重み付け加算する。これにより、ノイズ劣化の弊害を抑えつつ、鮮鋭性の改善効果が得られる超解像処理を実現することが出来る。なお、本実施形態は2つの超解像処理を合成する場合に関して述べたが、れに限定されない。超解像処理が3つ以上の場合でも、各々の処理に対して重みマップを計算し合成することで、ノイズ劣化の弊害を抑えつつ鮮鋭性の改善効果が得られる超解像処理を実現することが出来る。   As described above, according to the present embodiment, two noise maps expressing the ease of perception of noise are calculated, and two super-resolution results are weighted and added based on these maps. As a result, it is possible to realize super-resolution processing that can improve the sharpness while suppressing the adverse effects of noise degradation. In addition, although this embodiment described regarding the case where two super-resolution processes are synthesize | combined, it is not limited to this. Even when there are three or more super-resolution processes, a weight map is calculated and combined for each process, thereby realizing a super-resolution process that can improve the sharpness while suppressing the effects of noise degradation. I can do it.

[第2実施形態]
第1実施形態では、2つの超解像処理に対してそれぞれノイズマップを算出し、2つのノイズマップから重みを決定していた。この手法では、ノイズの知覚される領域を高精度に判断できる反面、演算量や回路規模が大きくなるという課題があった。そこで本実施形態では、1つのノイズマップから重みを決定するように処理を簡易化する。以下では、第一実施形態からの差分について述べる。
[Second Embodiment]
In the first embodiment, a noise map is calculated for each of the two super-resolution processes, and a weight is determined from the two noise maps. This method has a problem that the amount of calculation and the circuit scale are increased while the area where noise is perceived can be determined with high accuracy. Therefore, in the present embodiment, the processing is simplified so as to determine the weight from one noise map. Below, the difference from 1st embodiment is described.

<画像処理部の構成>
図11は、本実施形態による画像処理部104の構成を示す図である。パラメータ取得部202、ノイズ特性記憶部203、ノイズ情報取得部204、ノイズマップ算出部205の構成は図2の202B〜205Bとそれぞれ同様である。すなわち、ノイズマップ算出部205は、第二の超解像処理の設定パラメータに基づいてノイズマップNM2(x,y)を算出する一方、第一の超解像処理の設定パラメータに基づくノイズマップNM1(x,y)は算出されない。画像合成部210は、第二の超解像処理部207により得られた画像に基づいて加算比率を算出し、算出した加算比率により画像を合成し、一枚の高解像度画像を出力する。
<Configuration of image processing unit>
FIG. 11 is a diagram illustrating a configuration of the image processing unit 104 according to the present embodiment. The configuration of the parameter acquisition unit 202, noise characteristic storage unit 203, noise information acquisition unit 204, and noise map calculation unit 205 is the same as that of 202B to 205B in FIG. That is, the noise map calculation unit 205 calculates the noise map NM2 (x, y) based on the setting parameter for the second super-resolution processing, while the noise map NM1 based on the setting parameter for the first super-resolution processing. (x, y) is not calculated. The image composition unit 210 calculates an addition ratio based on the image obtained by the second super-resolution processing unit 207, combines the images based on the calculated addition ratio, and outputs a single high-resolution image.

<画像合成部の210構成>
図12は、本実施形態による画像合成部210の構成を表す図である。端子1201には、第一の超解像処理部206から第一の超解像処理後のデジタル画像iin1(x,y)が入力される。端子1202には、第二の超解像処理部207から第二の超解像処理後のデジタル画像iin2(x,y)が入力される。端子1203には、ノイズマップ算出部205で算出された、第二の超解像処理に対するノイズマップNM2(x,y)が入力される。重み決定部1205は、画像位置(x,y)に応じたiin1(x,y)とiin2(x,y)の二つの画素値の混合重みを示す重みマップW1(x,y)及びW2(x,y)を、ノイズマップNM2(x,y)と所定の閾値thに基づいて生成する。ここで、重みマップW1(x,y)及びW2(x,y)は、例えば以下の式により算出され得る。ただし、本発明は以下の算出方法に限定されない。

Figure 2015121884
Figure 2015121884
画像加算部1206は、重みマップに従って、デジタル画像iin1(x,y)とデジタル画像iin2(x,y)の合成処理を施す。 <210 composition of image composition part>
FIG. 12 is a diagram illustrating the configuration of the image composition unit 210 according to the present embodiment. A digital image i in1 (x, y) after the first super-resolution processing is input from the first super-resolution processing unit 206 to the terminal 1201. The terminal 1202 receives the digital image i in2 (x, y) after the second super-resolution processing from the second super-resolution processing unit 207. A noise map NM2 (x, y) for the second super-resolution processing calculated by the noise map calculation unit 205 is input to the terminal 1203. The weight determination unit 1205 is a weight map W1 (x, y) indicating a mixture weight of two pixel values i in1 (x, y) and i in2 (x, y) according to the image position (x, y). W2 (x, y) is generated based on the noise map NM2 (x, y) and a predetermined threshold value th. Here, the weight maps W1 (x, y) and W2 (x, y) can be calculated by the following equations, for example. However, the present invention is not limited to the following calculation method.
Figure 2015121884
Figure 2015121884
The image adding unit 1206 performs a synthesis process of the digital image i in1 (x, y) and the digital image i in2 (x, y) according to the weight map.

以上、本実施形態によれば、2つの超解像処理に対して1つのノイズマップを算出し、このマップに基づいて2つの超解像結果を重み付け加算する。これにより、第1実施形態より演算量や回路規模を縮小しながらも、第1実施形態と同様の効果を得ることが出来る。なお、本実施形態では、ノイズマップNM2(x,y)に基づいて重みマップが算出される例を説明したが、第一の超解像処理の設定パラメータに基づくノイズマップNM1(x,y)に基づいて重みマップが算出されるようにしても良い。   As described above, according to the present embodiment, one noise map is calculated for two super-resolution processes, and two super-resolution results are weighted and added based on this map. As a result, the same effects as those of the first embodiment can be obtained while reducing the calculation amount and the circuit scale as compared with the first embodiment. In the present embodiment, an example in which the weight map is calculated based on the noise map NM2 (x, y) has been described, but the noise map NM1 (x, y) based on the setting parameter of the first super-resolution processing is described. The weight map may be calculated based on the above.

[第3実施形態]
第1実施形態では、ノイズマップ算出部205Aと205Bに於いて、ノイズの帯域分割画像nsk,l(x,y)を、実際に生成したノイズ画像n(x,y)から生成していた。しかしながら、この方法では、ノイズ画像n(x,y)を計算する必要があり、計算量が大きいという課題があった。そこで本実施形態は、ノイズ特性に関する情報に基づき、ノイズの帯域分割画像nsk,l(x,y)を直接生成することで、処理を簡易化したものである。以下、第1実施形態におけるノイズマップ算出部205Aから変更するノイズマップ算出部211Aについて説明する。なお、ノイズマップ算出部205Bから変更するノイズマップ算出部211Bは、ノイズマップ算出部211Aと同様の構成を有する。
[Third Embodiment]
In the first embodiment, the noise map calculation units 205A and 205B generate noise band-divided images nsk , l (x, y) from the actually generated noise images n (x, y). . However, in this method, it is necessary to calculate the noise image n (x, y), and there is a problem that the calculation amount is large. Therefore, the present embodiment simplifies the process by directly generating the noise band-divided image nsk , l (x, y) based on the information on the noise characteristics. Hereinafter, the noise map calculation unit 211A changed from the noise map calculation unit 205A in the first embodiment will be described. Note that the noise map calculation unit 211B changed from the noise map calculation unit 205B has the same configuration as the noise map calculation unit 211A.

<ノイズマップ算出部211Aの構成>
図13は、本実施形態によるノイズマップ算出部211Aの構成を示す図である。端子1301には、信号処理部103からデジタル画像iin(x,y)が入力される。端子1302には、ノイズ情報取得部204からノイズ情報が入力される。フーリエ変換部305A〜逆フーリエ変換部308Aの処理は、図3と同様であり、説明を省略する。
<Configuration of Noise Map Calculation Unit 211A>
FIG. 13 is a diagram illustrating a configuration of the noise map calculation unit 211A according to the present embodiment. A digital image i in (x, y) is input from the signal processing unit 103 to the terminal 1301. Noise information is input to the terminal 1302 from the noise information acquisition unit 204. The processes of the Fourier transform unit 305A to the inverse Fourier transform unit 308A are the same as those in FIG.

帯域分割部1303は、ノイズ情報取得部204Aで取得したノイズ特性に関する情報に基づき、帯域分割画像nsk,l(x,y)を生成する。まず、ノイズ情報取得部204Aで取得したノイズの自己相関関数をフーリエ変換し、ノイズのパワースペクトラムC(u,v)を算出する。C(u,v)に基づき、帯域毎のノイズのパワースペクトラムNPSk,l(u,v)を次の様に算出する。ここでkは半径方向のインデックス、lは円周方向のインデックスである。

Figure 2015121884
ここで、αはノイズ情報取得部204Aで取得したノイズ量に関する補正項であり、cortexk,l(u,v)は第1実施形態において述べた帯域分割フィルタである。さらにNPSk,l(u,v)の総和をとって、帯域毎のパワーNPk,lを算出する。ここでUは横方向の周波数分割数、Vは縦方向の周波数分割数である。
Figure 2015121884
帯域毎のパワーから、帯域分割画像nsk,l(x,y)を一様なベタ画像として次の様に生成する。
Figure 2015121884
The band dividing unit 1303 generates a band divided image ns k, l (x, y) based on the information regarding the noise characteristics acquired by the noise information acquiring unit 204A. First, the noise auto-correlation function acquired by the noise information acquisition unit 204A is Fourier-transformed to calculate the noise power spectrum C (u, v). Based on C (u, v), the noise power spectrum NPS k, l (u, v) for each band is calculated as follows. Here, k is a radial index, and l is a circumferential index.
Figure 2015121884
Here, α is a correction term related to the amount of noise acquired by the noise information acquisition unit 204A, and cortex k, l (u, v) is the band division filter described in the first embodiment. Further , the power NP k, l for each band is calculated by taking the sum of NPS k, l (u, v). Here, U is the frequency division number in the horizontal direction, and V is the frequency division number in the vertical direction.
Figure 2015121884
From the power for each band, the band-divided image ns k, l (x, y) is generated as a uniform solid image as follows.
Figure 2015121884

ノイズマスク部309は、逆フーリエ変換部308Aからの出力である帯域分割画像isk,l(x,y)に基づいて、帯域分割されたノイズ画像nsk,l(x,y)に対するマスキングを施し、知覚されるノイズ画像Pk,l(x,y)を帯域毎に算出する。ノイズマップ合成部310は、帯域毎の知覚ノイズ画像Pk,l(x,y)を合成し、ノイズマップNM1(x,y)を算出する。ノイズマップ合成部310以降の処理は、第1実施形態において述べた処理と同様であり、説明を省略する。 The noise mask unit 309 performs masking on the band-divided noise image ns k, l (x, y) based on the band-divided image is k, l (x, y) output from the inverse Fourier transform unit 308A. The perceived noise image P k, l (x, y) is calculated for each band. The noise map synthesis unit 310 synthesizes perceptual noise images P k, l (x, y) for each band and calculates a noise map NM1 (x, y). The processing after the noise map synthesis unit 310 is the same as the processing described in the first embodiment, and a description thereof will be omitted.

以上、本実施形態によれば、ノイズ画像n(x,y)を計算せず、ノイズの帯域分割画像nsk,l(x,y)を直接生成する。これにより、第1実施形態より演算量や回路規模を縮小しながらも、第1実施形態と同様の効果を得ることが出来る。 As described above, according to the present embodiment, the noise image n (x, y) is not calculated, and the noise band-divided image ns k, l (x, y) is directly generated. As a result, the same effects as those of the first embodiment can be obtained while reducing the calculation amount and the circuit scale as compared with the first embodiment.

[第4実施形態]
第1実施形態では、ノイズ情報取得部204Aと204Bで取得するノイズ情報として、ノイズ量と自己相関関数を利用していた。しかしこの情報は統計的情報に過ぎず、実際に混入しているノイズとは異なる。そこで本実施形態では、実際のデジタル画像から算出したノイズ画像を、ノイズ情報として用いる。以下、第1実施形態からの変更箇所を説明する。
[Fourth Embodiment]
In the first embodiment, the noise amount and the autocorrelation function are used as the noise information acquired by the noise information acquisition units 204A and 204B. However, this information is only statistical information and is different from the noise that is actually mixed. Therefore, in this embodiment, a noise image calculated from an actual digital image is used as noise information. Hereinafter, the changed part from 1st Embodiment is demonstrated.

<画像処理部104の構成>
図14は、本実施形態による画像処理部104の構成を示す図である。端子1401には、信号処理部103で処理されたデジタル画像が入力される。ノイズ情報取得部1402Aと1402Bは、信号処理部103から出力されるデジタル画像とそれぞれ第一の超解像処理部206と第二の超解像処理部207から出力されるデジタル画像とを比較し、ノイズ画像を算出する。ノイズマップ算出部1403Aと1403Bは、ノイズ情報取得部1402Aと1402Bでノイズ情報として取得されたノイズ画像と、信号処理部103からのデジタル画像に基づき、画像でのノイズの知覚されやすさを表現する、ノイズマップを生成する。画像合成部208は、第一の超解像処理部206及び第二の超解像処理部207により得られた画像を合成し、一枚の高解像度画像を出力する。端子1404は、超解像処理を施したデジタル画像を出力する。
<Configuration of Image Processing Unit 104>
FIG. 14 is a diagram illustrating a configuration of the image processing unit 104 according to the present embodiment. A digital image processed by the signal processing unit 103 is input to the terminal 1401. The noise information acquisition units 1402A and 1402B compare the digital image output from the signal processing unit 103 with the digital images output from the first super-resolution processing unit 206 and the second super-resolution processing unit 207, respectively. Calculate a noise image. The noise map calculation units 1403A and 1403B express the ease of perception of noise in the image based on the noise image acquired as noise information by the noise information acquisition units 1402A and 1402B and the digital image from the signal processing unit 103. Generate a noise map. The image synthesis unit 208 synthesizes the images obtained by the first super-resolution processing unit 206 and the second super-resolution processing unit 207, and outputs a single high-resolution image. A terminal 1404 outputs a digital image subjected to super-resolution processing.

<ノイズ情報取得部1402Aの構成>
図15は、本実施形態によるノイズ情報取得部1402Aの構成を示す図である。なお、ノイズ情報取得部1402Bはノイズ情報取得部1402Aと同様の構成を有する。端子1501には、信号処理部103からのデジタル画像が入力される。ノイズ低減部1502は、デジタル画像に高域除去処理を施し、ノイズが除去されたノイズ除去画像を生成する。画像減算部1503は、信号処理部103からのデジタル画像から、ノイズ低減部1502からのノイズ除去画像を減ずることで、ノイズ画像を算出する。端子1504は、ノイズ画像を出力する。
<Configuration of noise information acquisition unit 1402A>
FIG. 15 is a diagram illustrating a configuration of the noise information acquisition unit 1402A according to the present embodiment. Note that the noise information acquisition unit 1402B has the same configuration as the noise information acquisition unit 1402A. A digital image from the signal processing unit 103 is input to the terminal 1501. The noise reduction unit 1502 performs high-frequency removal processing on the digital image, and generates a noise-removed image from which noise has been removed. The image subtracting unit 1503 calculates a noise image by subtracting the noise-removed image from the noise reducing unit 1502 from the digital image from the signal processing unit 103. A terminal 1504 outputs a noise image.

<ノイズマップ算出部1403Aの構成>
図16は、本実施形態によるノイズマップ算出部1403Aの構成を示す図である。なお、ノイズマップ算出部1403Bが、ノイズマップ算出部1403Aと同様の構成を有する。端子1601には、信号処理部103からデジタル画像iin(x,y)が入力される。端子1602には、ノイズ情報取得部1402からノイズ情報としてノイズ画像n(x,y)が入力される。フーリエ変換部305Bには、端子1602から直接ノイズ画像n(x,y)が入力される点が第1実施形態と異なる。フーリエ変換部305Aと305B以降の処理は、第1実施形態において述べた処理と同様であり、説明を省略する。
<Configuration of noise map calculation unit 1403A>
FIG. 16 is a diagram illustrating a configuration of the noise map calculation unit 1403A according to the present embodiment. Note that the noise map calculation unit 1403B has the same configuration as the noise map calculation unit 1403A. A digital image i in (x, y) is input from the signal processing unit 103 to the terminal 1601. The noise image n (x, y) is input as noise information from the noise information acquisition unit 1402 to the terminal 1602. The difference from the first embodiment is that the noise image n (x, y) is directly input from the terminal 1602 to the Fourier transform unit 305B. The processing after Fourier transform units 305A and 305B is the same as the processing described in the first embodiment, and a description thereof will be omitted.

以上、本実施形態によれば、実際のデジタル画像から算出したノイズ画像をノイズ情報として用いる。これにより、ノイズ情報を計算していた第1実施形態よりも演算量や回路規模を縮小しながらも、第1実施形態と同様の効果を得ることが出来る。   As described above, according to the present embodiment, a noise image calculated from an actual digital image is used as noise information. As a result, the same effects as those of the first embodiment can be obtained while reducing the calculation amount and the circuit scale as compared with the first embodiment in which noise information is calculated.

[第5実施形態]
第1実施形態では、ノイズマップ算出部205Aと205Bにおける帯域分割部307Aと307Bの処理に、cortexフィルタとして知られるフィルタを用いていた。しかしこの手法によれば、周波数特性が非常に特殊な形のフィルタとなる為、演算処理が重くなる。そこで本実施形態では、第1実施形態におけるcortexフィルタを、通常の縦方向と横方向のフィルタを結合した簡易な帯域分割フィルタに置き換えることで、演算処理を軽くしたものである。以下、第1実施形態におけるノイズマップ算出部205Aから変更するノイズマップ算出部212Aについて説明する。なお、ノイズマップ算出部205Bから変更するノイズマップ算出部212Bは、ノイズマップ算出部212Aと同様の構成を有する。
[Fifth Embodiment]
In the first embodiment, a filter known as a cortex filter is used for the processing of the band dividing units 307A and 307B in the noise map calculation units 205A and 205B. However, according to this method, since the frequency characteristic is a very special filter, the calculation processing becomes heavy. Therefore, in this embodiment, the arithmetic processing is lightened by replacing the cortex filter in the first embodiment with a simple band-splitting filter in which normal vertical and horizontal filters are combined. Hereinafter, the noise map calculation unit 212A changed from the noise map calculation unit 205A in the first embodiment will be described. Note that the noise map calculation unit 212B changed from the noise map calculation unit 205B has the same configuration as the noise map calculation unit 212A.

<ノイズマップ算出部212Aの構成>
図17は、本実施形態によるノイズマップ算出部212の構成を示す図である。端子1701には、信号処理部103からデジタル画像iin(x,y)が入力される。端子1702には、ノイズ情報取得部204Aからノイズ情報が入力される。そして、第1実施形態において述べた処理と同様にして、ノイズ画像生成部303Aとフィルタ部304Aにより、カメラのノイズ画像n(x,y)が推定される。

Figure 2015121884
<Configuration of Noise Map Calculation Unit 212A>
FIG. 17 is a diagram illustrating a configuration of the noise map calculation unit 212 according to the present embodiment. A digital image i in (x, y) is input to the terminal 1701 from the signal processing unit 103. Noise information is input to the terminal 1702 from the noise information acquisition unit 204A. Then, similarly to the processing described in the first embodiment, the noise image n (x, y) of the camera is estimated by the noise image generation unit 303A and the filter unit 304A.
Figure 2015121884

帯域分割部1703は、帯域分割フィルタを用いて帯域分割を施し、帯域分割情報Isk,l(u,v)を生成する。但しここでkは横方向のインデックス、lは縦方向のインデックスである。帯域分割後の空間周波数情報は、それぞれ下式で表現される。Isk,l(u,v)はデジタル画像に対する帯域分割情報、Nsk,l(u,v)はホワイトノイズ画像に対する帯域分割情報である。

Figure 2015121884
帯域分割フィルタfilterbankk,l(u,v)は、次のように定義される。
Figure 2015121884
ここで、Kは横方向、Lは縦方向の帯域分割数であり、本実施形態ではK=6,L=6を用いる。 The band division unit 1703 performs band division using a band division filter to generate band division information Is k, l (u, v). Here, k is a horizontal index, and l is a vertical index. The spatial frequency information after the band division is expressed by the following equations, respectively. Is k, l (u, v) is band division information for a digital image, and Ns k, l (u, v) is band division information for a white noise image.
Figure 2015121884
The band division filter filterbank k, l (u, v) is defined as follows.
Figure 2015121884
Here, K is the horizontal direction and L is the number of band divisions in the vertical direction. In this embodiment, K = 6 and L = 6 are used.

図18は、帯域分割フィルタfilterbankk,l(u,v)による帯域分割を、横軸、縦軸とも正規化周波数空間で示した模式図である。各フィルタの半値周波数を、太い実線で示している。ノイズマスク部309は、帯域分割画像isk,l(x,y)に基づいて帯域分割されたノイズ画像nsk,l(x,y)に対するマスキングを施し、知覚されるノイズ画像Pk,l(x,y)を帯域毎に算出する。ノイズマップ合成部310は、帯域毎の知覚ノイズ画像Pk,l(x,y)を合成し、ノイズマップNM1(x,y)を算出する。ノイズマップ合成部310以降の処理は、第1実施形態において述べた処理と同様であり、説明を省略する。 FIG. 18 is a schematic diagram showing band division by the band division filter filterbank k, l (u, v) in the normalized frequency space on both the horizontal axis and the vertical axis. The half-value frequency of each filter is indicated by a thick solid line. The noise mask unit 309 performs masking on the noise image ns k, l (x, y) that has been band-divided based on the band-divided image is k, l (x, y), and perceived noise image P k, l (x, y) is calculated for each band. The noise map synthesis unit 310 synthesizes perceptual noise images P k, l (x, y) for each band and calculates a noise map NM1 (x, y). The processing after the noise map synthesis unit 310 is the same as the processing described in the first embodiment, and a description thereof will be omitted.

以上、本実施形態によれば、縦方向と横方向のフィルタを結合した簡易な帯域分割フィルタを用いて帯域分割処理が行われる。これにより、cortexフィルタを用いた第1実施形態よりも演算量や回路規模を縮小しながらも、第1実施形態と同様の効果を得ることが出来る。なお、本実施形態では、周波数域での乗算で帯域分割を行ったが、空間域での畳みこみ演算で実現することも可能である。さらに本実施形態に対しては、ウェーブレットなど公知の帯域分割フィルタを適用することが可能である。   As described above, according to the present embodiment, the band division process is performed using the simple band division filter in which the vertical and horizontal filters are combined. As a result, the same effects as those of the first embodiment can be obtained while reducing the calculation amount and the circuit scale as compared with the first embodiment using the cortex filter. In the present embodiment, band division is performed by multiplication in the frequency domain, but it can also be realized by convolution calculation in the spatial domain. Furthermore, a known band division filter such as a wavelet can be applied to the present embodiment.

[他の実施形態]
これまでにの述べた実施形態においては、画像合成部の処理において、ノイズマップから計算した重みマップに基づき、複数の超解像画像を合成していた。しかしながら、本発明はこれに限定されず、画像合成部の処理を例えば以下のような処理にしてもよい。
[Other Embodiments]
In the embodiments described so far, a plurality of super-resolution images are synthesized based on the weight map calculated from the noise map in the processing of the image synthesis unit. However, the present invention is not limited to this, and the processing of the image composition unit may be, for example, the following processing.

第1実施形態では、ノイズマップから重みマップを直接計算していた。しかしながら、この方法では、隣接画素での重みの変動が大きく、画像合成に伴うノイズが発生してしまうという課題があった。そこで、ノイズマップにローパスフィルタを施したのち、重みマップを算出することで、隣接画素間での重みの変動を抑制してもよい。具体的には、第1実施形態の重みマップW1及びW2を以下のように定義してもよい。

Figure 2015121884
Figure 2015121884
ここで、Lはローパスフィルタを表し、*はたたみこみ演算を表す。 In the first embodiment, the weight map is directly calculated from the noise map. However, in this method, there is a problem that the variation in weight between adjacent pixels is large, and noise is generated due to image synthesis. Therefore, after the low-pass filter is applied to the noise map, the weight map may be calculated to suppress the variation in weight between adjacent pixels. Specifically, the weight maps W1 and W2 of the first embodiment may be defined as follows.
Figure 2015121884
Figure 2015121884
Here, L represents a low-pass filter, and * represents a convolution operation.

また、これまでに述べた実施形態では、ノイズマップをもとに、画素ごとに重みマップを計算していた。しかしながらこれらの手法では、重みの算出および合成処理に多大な計算量がかかるという課題があった。そこで、画像を領域分割し、領域ごとに合成重みを決定してもよい。たとえば、16×16や32×32といった領域ごとにノイズマップの平均値が小さい超解像画像を選択し、統合する処理としてもよい。具体的には、領域分割された第一および第二の超解像処理画像をiin1_sub(x,y)及びiin2_sub(x,y)、ノイズマップをNM1_sub(x,y)及びNM2_sub(x,y)、出力画像をiout(x,y)とすると、

Figure 2015121884
と表わされる。 In the embodiments described so far, the weight map is calculated for each pixel based on the noise map. However, these methods have a problem in that a large amount of calculation is required for calculating weights and combining processing. Therefore, the image may be divided into regions, and the synthesis weight may be determined for each region. For example, a super-resolution image having a small noise map average value may be selected and integrated for each region such as 16 × 16 or 32 × 32. Specifically, the first and second super-resolution processed images divided into regions are i in1_sub (x, y) and i in2_sub (x, y), and the noise maps are NM 1_sub (x, y) and NM 2_sub. (x, y) and the output image is i out (x, y)
Figure 2015121884
It is expressed as

以上、これまでに述べた実施形態によれば、画像全体において、ノイズ劣化が視覚によって知覚されずに鮮鋭性を向上できる超解像処理が可能となる。なお、これまでに述べた実施形態を組み合わせることも可能である。   As described above, according to the embodiments described so far, it is possible to perform super-resolution processing that can improve sharpness in a whole image without noise degradation being perceived visually. It is also possible to combine the embodiments described so far.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (13)

画像処理装置であって、
入力画像に対してそれぞれ異なる解像度変換処理を施す複数の変換手段と、
前記解像度変換処理に応じたノイズ情報を取得する取得手段と、
前記ノイズ情報と前記入力画像に基づいて、前記入力画像におけるノイズの知覚しやすさを表したノイズマップを算出する算出手段と、
前記ノイズマップに基づいて、前記解像度変換処理が施された複数の画像の加算比率を決定する決定手段と、
前記加算比率に従って前記解像度変換処理が施された複数の画像を合成する合成手段とを備えることを特徴とする画像処理装置。
An image processing apparatus,
A plurality of conversion means for applying different resolution conversion processes to the input image,
Acquisition means for acquiring noise information according to the resolution conversion process;
Calculation means for calculating a noise map representing ease of perception of noise in the input image based on the noise information and the input image;
Determining means for determining an addition ratio of a plurality of images subjected to the resolution conversion processing based on the noise map;
An image processing apparatus comprising: a combining unit configured to combine a plurality of images subjected to the resolution conversion processing according to the addition ratio.
前記算出手段は、前記複数の変換手段の各々に対応して複数の前記ノイズマップを算出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the calculation unit calculates a plurality of the noise maps corresponding to each of the plurality of conversion units. 前記算出手段は、前記複数の変換手段のうちの一つに対応して一つの前記ノイズマップを算出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the calculation unit calculates one of the noise maps corresponding to one of the plurality of conversion units. 前記ノイズ情報を記憶する記憶手段を更に備え、
前記取得手段は、前記解像度変換処理のための設定パラメータに応じて前記記憶手段から前記ノイズ情報を取得することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
A storage means for storing the noise information;
The image processing apparatus according to claim 1, wherein the acquisition unit acquires the noise information from the storage unit according to a setting parameter for the resolution conversion process.
前記ノイズ情報は、ノイズ量と自己相関関数であることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the noise information is a noise amount and an autocorrelation function. 前記取得手段は、前記入力画像と前記解像度変換処理が施された画像を比較することによって前記ノイズ情報を取得することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the acquisition unit acquires the noise information by comparing the input image and an image subjected to the resolution conversion process. 5. . 前記算出手段は、
帯域分割されたノイズ画像を前記ノイズ情報に基づいて生成し、帯域分割された入力画像を前記入力画像に基づいて生成する帯域分割手段と、
前記帯域分割されたノイズ画像を前記帯域分割された入力画像に基づいてマスキングするマスク手段と、
前記マスク手段から出力されるマスク化後の帯域分割されたノイズ画像を全帯域で合成して前記ノイズマップを生成する生成手段とを備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The calculating means includes
Band division means for generating a noise image that has been divided into bands based on the noise information, and generating an input image that has been divided into bands based on the input image;
Mask means for masking the band-divided noise image based on the band-divided input image;
7. The apparatus according to claim 1, further comprising: a generating unit configured to combine the band-divided noise image output from the mask unit and generate the noise map in all bands. An image processing apparatus according to 1.
前記帯域分割されたノイズ画像は、所定のパワーを持つホワイトノイズ画像と前記ノイズ情報に基づいて生成されたものであることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the band-divided noise image is generated based on a white noise image having a predetermined power and the noise information. 前記帯域分割されたノイズ画像は、前記ノイズ情報から直接生成されたものであることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the band-divided noise image is directly generated from the noise information. 前記帯域分割手段は、周波数特性が円周方向の特性と半径方向の特性との結合で定義されるフィルタに基づいて前記帯域分割されたノイズ画像と前記帯域分割された入力画像を生成することを特徴とする請求項7乃至9の何れか1項に記載の画像処理装置。   The band dividing means generates the band-divided noise image and the band-divided input image based on a filter whose frequency characteristic is defined by a combination of a circumferential characteristic and a radial characteristic. The image processing apparatus according to claim 7, wherein the image processing apparatus is characterized. 前記帯域分割手段は、周波数特性が縦方向の特性と横方向の特性との結合で定義されるフィルタに基づいて前記帯域分割されたノイズ画像と前記帯域分割された入力画像を生成することを特徴とする請求項7乃至9の何れか1項に記載の画像処理装置。   The band dividing unit generates the band-divided noise image and the band-divided input image based on a filter whose frequency characteristic is defined by a combination of a vertical characteristic and a horizontal characteristic. The image processing apparatus according to any one of claims 7 to 9. 画像処理装置の制御方法であって、
入力画像に対してそれぞれ異なる解像度変換処理を施す工程と、
前記解像度変換処理に応じたノイズ情報を取得する工程と、
前記ノイズ情報と前記入力画像に基づいて、前記入力画像におけるノイズの知覚しやすさを表したノイズマップを算出する工程と、
前記ノイズマップに基づいて、前記解像度変換処理が施された複数の画像の加算比率を決定する工程と、
前記加算比率に従って前記解像度変換処理が施された複数の画像を合成する工程とを備えることを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus, comprising:
Applying different resolution conversion processing to each input image;
Obtaining noise information according to the resolution conversion process;
Calculating a noise map representing the ease of perception of noise in the input image based on the noise information and the input image;
Determining an addition ratio of a plurality of images subjected to the resolution conversion processing based on the noise map;
And a step of synthesizing a plurality of images subjected to the resolution conversion processing according to the addition ratio.
請求項1乃至請求項11のいずれか1項に記載の画像処理装置としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as the image processing apparatus according to any one of claims 1 to 11.
JP2013264501A 2013-10-30 2013-12-20 Image processing apparatus, method of the same, and program Pending JP2015121884A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013264501A JP2015121884A (en) 2013-12-20 2013-12-20 Image processing apparatus, method of the same, and program
US14/515,883 US9531922B2 (en) 2013-10-30 2014-10-16 Image processing apparatus, image processing method, and computer readable storage medium for improving sharpness

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013264501A JP2015121884A (en) 2013-12-20 2013-12-20 Image processing apparatus, method of the same, and program

Publications (1)

Publication Number Publication Date
JP2015121884A true JP2015121884A (en) 2015-07-02

Family

ID=53533458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013264501A Pending JP2015121884A (en) 2013-10-30 2013-12-20 Image processing apparatus, method of the same, and program

Country Status (1)

Country Link
JP (1) JP2015121884A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11257189B2 (en) 2019-05-02 2022-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof
KR20220092771A (en) * 2020-12-25 2022-07-04 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Photographing method, photographing device, terminal, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11257189B2 (en) 2019-05-02 2022-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof
US11861809B2 (en) 2019-05-02 2024-01-02 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof
KR20220092771A (en) * 2020-12-25 2022-07-04 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Photographing method, photographing device, terminal, and storage medium
KR102525293B1 (en) * 2020-12-25 2023-04-25 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Photographing method, photographing device, terminal, and storage medium
US11847769B2 (en) 2020-12-25 2023-12-19 Beijing Xiaomi Pinecone Electronics Co., Ltd. Photographing method, terminal, and storage medium

Similar Documents

Publication Publication Date Title
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2013005259A (en) Image processing apparatus, image processing method, and program
JP3731577B2 (en) Image processing program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US8526057B2 (en) Image processing apparatus and image processing method
US20170116715A1 (en) Image processing apparatus, image processing method, and image processing system
JP5766077B2 (en) Image processing apparatus and image processing method for noise reduction
CN109074637B (en) Method and system for generating an output image from a plurality of respective input image channels
JP7234057B2 (en) Image processing method, image processing device, imaging device, lens device, program, storage medium, and image processing system
JP4985660B2 (en) Pseudo gray image generating apparatus and program
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5843599B2 (en) Image processing apparatus, imaging apparatus, and method thereof
JP2015121884A (en) Image processing apparatus, method of the same, and program
CN110689486A (en) Image processing method, device, equipment and computer storage medium
JP5654860B2 (en) Image processing apparatus, control method therefor, and program
JP6514504B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP6381273B2 (en) Imaging apparatus, image processing system, and control method thereof
JP5218634B2 (en) Pseudo gray image generating apparatus and program
JP2007151094A (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
JP5545059B2 (en) Moving image processing method, moving image processing apparatus, and moving image processing program
JP2016201771A (en) Image processing device, image processing method and program
JP2007190208A (en) Comparative diagnostic reading support system
JP2020092288A (en) Image processing device, image processing method, and program
JP6468751B2 (en) Image processing apparatus, image processing method, and program
US20170206631A1 (en) Image processing unit, imaging device, computer-readable medium, and image processing method