JP2015121884A - Image processing apparatus, method of the same, and program - Google Patents
Image processing apparatus, method of the same, and program Download PDFInfo
- Publication number
- JP2015121884A JP2015121884A JP2013264501A JP2013264501A JP2015121884A JP 2015121884 A JP2015121884 A JP 2015121884A JP 2013264501 A JP2013264501 A JP 2013264501A JP 2013264501 A JP2013264501 A JP 2013264501A JP 2015121884 A JP2015121884 A JP 2015121884A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- image
- band
- processing apparatus
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像の解像度を変換する画像処理装置、その方法、及びプログラムに関する。 The present invention relates to an image processing apparatus for converting image resolution, a method thereof, and a program.
テレビやディスプレイなどの表示機器が表示する画像の高解像度に伴い、表示機器に入力される映像コンテンツが、表示される画像の解像度に満たない状況が増加している。このため、低解像度の映像から高解像度の映像を生成する超解像技術の重要性が増している。超解像技術には、大きく分けて学習型と再構成型の2つの手法がある。再構成型超解像技術は、まず初期の高解像度画像を設定し、そこからカメラモデルに基づき低解像度画像を推定し、推定した画像の画素値と実際の観測画素値の誤差を最小にするように高解像度画像を更新することで、超解像画像を取得する手法である。一方、学習型超解像は、入力画像とあらかじめ学習した高解像度画像データベースとを照らし合わせ、高解像度パターンに置き換えることで高解像度画像を得る手法である。なお、再構成型超解像技術を説明する文献として例えば特許文献1があり、学習型超解像技術を説明する文献として例えば特許文献2がある。
Along with the high resolution of images displayed on a display device such as a television or a display, the situation in which video content input to the display device is less than the resolution of the displayed image is increasing. For this reason, the importance of super-resolution technology for generating high-resolution video from low-resolution video is increasing. There are two main types of super-resolution techniques: learning and reconstruction. Reconstruction-type super-resolution technology first sets an initial high-resolution image, then estimates a low-resolution image based on the camera model, and minimizes the error between the estimated image pixel value and the actual observed pixel value. In this way, a super-resolution image is acquired by updating a high-resolution image. On the other hand, learning-type super-resolution is a method of obtaining a high-resolution image by comparing an input image with a previously learned high-resolution image database and replacing it with a high-resolution pattern. Note that, for example,
一方で、超解像技術にはノイズと鮮鋭感のトレードオフ問題が存在することが知られている。例えば、学習型超解像技術では、一般に、鮮鋭感の高い画像を生成する一方、出力画像にノイズが混合しやすく、破綻した画像が生成されることもある。一方、再構成型超解像では、は一般に、比較的鮮鋭感が低い画像しか生成できないが、出力画像にノイズは発生しない。 On the other hand, it is known that the super-resolution technique has a trade-off problem between noise and sharpness. For example, in the learning type super-resolution technique, an image with high sharpness is generally generated, while noise is easily mixed with an output image, and a broken image may be generated. On the other hand, in the reconstruction type super-resolution, generally only an image with a relatively low sharpness can be generated, but no noise is generated in the output image.
このようなトレードオフ問題を解消する技術として、画像に応じて複数の超解像手法を使い分ける方法が提案されている。例えば、特許文献3では、領域に含まれるエッジ量に応じて超解像処理を切り替えることで、ノイズと鮮鋭感の両立を図っている。 As a technique for solving such a trade-off problem, a method of properly using a plurality of super-resolution techniques according to images has been proposed. For example, Patent Document 3 attempts to achieve both noise and sharpness by switching super-resolution processing according to the amount of edges included in a region.
視覚によるノイズの知覚(見え方)は背景の画像によって変化することは、視覚のマスキング効果として良く知られている。したがって、画像の領域に応じて超解像処理を変更することで、上述した鮮鋭感とノイズのトレードオフの問題の解決が可能となる。しかし、公知技術では、視覚がノイズを知覚しやすい画像の一部でしか効果を得ることが出来なかった。例えば、特許文献3によれば、エッジ量に応じて超解像処理を切り替えるため、エッジ以外の領域では同一の超解像処理が施される。しかしながら、背景によるノイズのマスキング効果は、例えば遠景の森林などのテクスチャ領域など、エッジ以外の領域においても発生する。すなわち、特許文献3による手法では、鮮鋭感とノイズのトレードオフの問題が十分に解決されたとは言えないという課題があった。 It is well known as a visual masking effect that the perception (viewing) of visual noise varies depending on the background image. Therefore, by changing the super-resolution processing according to the image area, the above-described problem of sharpness and noise trade-off can be solved. However, in the known technique, an effect can be obtained only in a part of an image in which vision is easy to perceive noise. For example, according to Patent Document 3, since the super-resolution processing is switched according to the edge amount, the same super-resolution processing is performed in a region other than the edge. However, the noise masking effect due to the background also occurs in a region other than the edge, such as a texture region such as a distant forest. That is, the technique according to Patent Document 3 has a problem that it cannot be said that the sharpness and noise trade-off problem has been sufficiently solved.
本発明は、上記課題に鑑みてなされたものであり、画像全体において、ノイズ劣化が視覚によって知覚されずに鮮鋭性を向上できる超解像処理を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a super-resolution process that can improve sharpness in a whole image without noise degradation being perceived by vision.
上記目的を達成するための一手段として、本発明の画像処理装置は以下の構成を備える。すなわち、入力画像に対してそれぞれ異なる解像度変換処理を施す複数の変換手段と、前記解像度変換処理に応じたノイズ情報を取得する取得手段と、前記ノイズ情報と前記入力画像に基づいて、前記入力画像におけるノイズの知覚しやすさを表したノイズマップを算出する算出手段と、前記ノイズマップに基づいて、前記解像度変換処理が施された複数の画像の加算比率を決定する決定手段と、前記加算比率に従って前記解像度変換処理が施された複数の画像を合成する合成手段とを備える。 As a means for achieving the above object, an image processing apparatus of the present invention comprises the following arrangement. That is, a plurality of conversion units that perform different resolution conversion processes on the input image, an acquisition unit that acquires noise information according to the resolution conversion process, and the input image based on the noise information and the input image Calculating means for calculating a noise map representing the ease of perception of noise, determining means for determining an addition ratio of a plurality of images subjected to the resolution conversion processing based on the noise map, and the addition ratio And a synthesizing unit for synthesizing the plurality of images subjected to the resolution conversion processing.
画像全体において、ノイズ劣化が知覚されずに、鮮鋭性を向上させる超解像処理を実現することが出来る。 It is possible to realize super-resolution processing that improves sharpness without perceiving noise degradation in the entire image.
[第1実施形態]
本実施形態は、入力された低解像度画像に対して2つの超解像処理を行い、超解像処理後の出力画像を、ノイズを抑制しつつ解像感を増大させるように合成する。この際、入力画像の画像構造に応じたノイズの知覚しやすさをマップ化したノイズマップに基づき、2つの超解像出力画像の混合割合を決定する。これにより、ノイズの知覚されやすい領域にノイズの少ない超解像処理を、ノイズの知覚されにくい領域に解像感の高い超解像処理を割り当てることができ、ノイズ感と鮮鋭感を両立した超解像が可能となる。なお、ノイズ感度モデルに関しては、非特許文献1に詳しい記載がある。
[First Embodiment]
In this embodiment, two super-resolution processes are performed on the input low-resolution image, and the output image after the super-resolution process is synthesized so as to increase the resolution while suppressing noise. At this time, the mixing ratio of the two super-resolution output images is determined based on a noise map obtained by mapping the ease of perceiving noise according to the image structure of the input image. As a result, super-resolution processing with less noise can be assigned to areas where noise is easily perceived, and super-resolution processing with high resolution can be assigned to areas where noise is difficult to perceive. Resolution becomes possible. Note that Non-Patent
<画像処理装置の構成>
図1は、本実施形態による画像処理装置の構成を示すブロック図である。なお、図1は、画像処理装置としてデジタルカメラの構成を示している。撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどのセンサなどから構成され、被写体の光量を検知する。A/D変換部102は、被写体の光量をデジタル値に変換する。信号処理部103は、A/D変換部102で変換されたデジタル値にデモザイキング処理、ホワイトバランス処理、ガンマ処理などを行い、デジタル画像を生成する。画像処理部104は、信号処理部103で生成されたデジタル画像に対してノイズ低減処理を行う。エンコーダ部105は、ノイズ低減後のデジタル画像をJPEG等の映像圧縮フォーマットに変換する処理を行う。メディアインタフェース106は、107のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)につなぐためのインタフェースである。
<Configuration of image processing apparatus>
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the present embodiment. FIG. 1 shows a configuration of a digital camera as an image processing apparatus. The
CPU108は、各構成の処理全てに関わり、ROM109やRAM110に格納された命令を順に読み込み処理を実行する。また、CPU108は、システムバス115を介して各構成を制御する。ROM109とRAM110は、処理に必要なプログラム、データ、作業領域などをCPU108に提供する。撮像制御部111は、フォーカスを合わせる、シャッターを開く、絞りを調節するなど、CPU108から指示された撮像系の制御を行う。操作部112は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザー指示を受け取る。ユーザー指示としては、ISO感度設定、シャッター速度設定、F値設定等の撮影設定がある。これらの撮影設定はCPU108で処理が行われ、デジタルカメラの撮影条件に反映されると共に、RAM110に記憶される。D/A変換部113は、画像処理部104でノイズ低減されたデジタル画像に対しアナログ変換を行う。表示部114は、一般的には液晶ディスプレイが広く用いられており、D/A変換部113から受け取った撮影画像の表示を行う。
The
<画像処理部104の構成>
図2は、本実施形態による画像処理部104の構成を示す図である。端子201には、信号処理部103で生成されたデジタル画像信号が入力される。パラメータ取得部202Aと202Bは、それぞれ第一の超解像処理部206と第二の超解像処理部207から指定された、それぞれの処理の設定パラメータを、システムバス115を介してRAM110から取得する。ノイズ特性記憶部203Aと203Bは、それぞれ第一の超解像処理部206と第二の超解像処理部207の処理の設定パラメータに応じたノイズ特性を、テーブルもしくは関係式を用いて関連付けて記憶する。なお、本実施形態でのノイズ特性とは、ノイズ量と自己相関関数からなる。ノイズ情報取得部204Aと204Bは、それぞれパラメータ取得部202Aと202Bより取得した設定パラメータに基づき、それぞれノイズ特性記憶部203Aと203Bからノイズ特性を取得する。
<Configuration of
FIG. 2 is a diagram illustrating a configuration of the
そして、ノイズ情報取得部204Aと204Bは、取得したノイズ特性を画像に含まれるノイズ情報として、それぞれノイズマップ算出部205Aと205Bに送信する。ノイズマップ算出部205Aと205Bは、それぞれノイズ情報取得部204Aと204Bでノイズ情報として取得したノイズ特性と、信号処理部103から入力されたデジタル画像に基づき、画像におけるノイズの知覚されやすさを表現する、ノイズマップを生成する。第一の超解像処理部206及び第二の超解像処理部207は、システムバス115を介して信号処理部103から得られるデジタル画像に対してそれぞれ解像度変換処理を施す。画像合成部208は、第一の超解像処理部206及び第二の超解像処理部207により得られた画像に基づいて加算比率を算出し、算出した加算比率により画像を合成し、一枚の高解像度画像を出力する。端子209からは、超解像処理を施したデジタル画像が出力される。なお、図2における202A〜205Aは、それぞれ202B〜205Bと同じブロックとして構成されてもよい。この場合、第一の超解像処理部206及び第二の超解像処理部207に対応した処理が、並行に、もしくは切り換えられて行われる。
Then, the noise
<ノイズマップ算出部205Aと205Bの構成>
図3は、本実施形態によるノイズマップ算出部205Aの構成を示す図である。なお、ノイズマップ算出部205Bはノイズマップ算出部205Aと同様の構成を有する。端子301には、信号処理部103で生成されたデジタル画像が入力される。このデジタル画像をiin(x,y)とする。端子302には、ノイズ情報取得部204Aからノイズ情報が入力される。ノイズ画像生成部303は、デジタル画像と同じ位置のホワイトノイズ画像nw(x,y)を、所定のパワーとなる様に生成する。フィルタ部304は、生成されたホワイトノイズ画像nw(x,y)に対して下記の演算を施して、カメラのノイズ画像n(x,y)を推定する。
ここでαは、ノイズ情報取得部204Aで取得されたノイズ量に関する補正項である。また、ノイズ情報取得部204Aで取得されたノイズの自己相関関数のフーリエ変換結果と、c(x,y)のパワースペクトラムが一致するように、c(x,y)は求められる。
<Configuration of Noise
FIG. 3 is a diagram illustrating a configuration of the noise
Here, α is a correction term related to the amount of noise acquired by the noise
フーリエ変換部305Aと305Bは、デジタル画像とノイズ画像に対してフーリエ変換を施し、空間周波数情報を生成する。以下、デジタル画像iin(x,y)のフーリエ変換結果をIin(u,v)、ノイズ画像n(x,y)のフーリエ変換結果をN(u,v)とする。空間視覚特性乗算部306Aと306Bは、デジタル画像のフ―リ変換結果Iin(u,v)とノイズ画像のフーリエ変換結果N(u,v)に対し、空間視覚特性であるVTF(u,v)を乗算し、それぞれの乗算結果としてIV(u,v)とNV(u,v)を得る。なお、VTF(u,v)は、VTF(u,v)=VTFsx(u)×VTFsy(v)で定義され、VTFsx(u)は横方向の空間視覚特性、VTFsy(v)は縦方向の空間視覚特性である。これらは、それぞれ下式で定義される。
ここで、p(mm)は画素ピッチ、R(mm)は視距離、Nxは入力画像の横画素数、Nyは入力画像の縦画素数である。これらの値は、一般的なユーザー観察環境に基づいて定められる。なお、VTFsx(u)並びにVTFsy(v)は、空間視覚特性
を視距離と画面ピッチと画素数に応じて周波数空間でサンプリングしたものであり、基本形は同じである。
The
Here, p (mm) is the pixel pitch, R (mm) is the viewing distance, Nx is the number of horizontal pixels of the input image, and Ny is the number of vertical pixels of the input image. These values are determined based on a general user observation environment. VTFsx (u) and VTFsy (v) are spatial visual characteristics.
Is sampled in the frequency space according to the viewing distance, the screen pitch, and the number of pixels, and the basic shape is the same.
図4は、空間視覚特性VTF(u,v)の模式図である。図4では、空間視覚特性として、空間周波数に対する視覚による感度が示されている。図4によれば、画像の空間周波数が高くなるにつれて視覚による感度が高くなり、すなわち、画像が見えやすくなりことがわかる。また、画像の空間周波数がより高くなると再び、視覚による感度が低くなり、すなわち、画像が見えにくくなることがわかる。 FIG. 4 is a schematic diagram of the spatial visual characteristic VTF (u, v). In FIG. 4, the visual sensitivity to the spatial frequency is shown as the spatial visual characteristic. According to FIG. 4, it can be seen that the visual sensitivity increases as the spatial frequency of the image increases, that is, the image becomes easier to see. It can also be seen that the higher the spatial frequency of the image, the lower the visual sensitivity, that is, the image becomes difficult to see.
帯域分割部307Aと307Bはそれぞれ、空間視覚特性乗算部306による乗算結果である空間周波数情報IV(u,v)とNV(u,v)に対し、帯域分割フィルタcortexk,l(u,v)を用いて帯域分割を施す。kは半径方向、lは円周方向の帯域のインデックスである。帯域分割後の空間周波数情報は、それぞれ下式で表現される。Isk,l(u,v)はデジタル画像に対する帯域分割情報、Nsk,l(u,v)はホワイトノイズ画像に対する帯域分割情報である。
The
帯域分割フィルタcortexk,l(u,v)は、半径方向と円周方向を結合し、次のように定義される。
ここで、cortex_polk,l(ρ,θ) はcortexk,l(u,v)を極座標で表現したものである。Kは半径方向、Lは円周方向の帯域分割数であり、一般にはK=6,L=6を用いる。
The band division filter cortex k, l (u, v) combines the radial direction and the circumferential direction and is defined as follows.
Here, cortex_pol k, l (ρ, θ) represents cortex k, l (u, v) in polar coordinates. K is the radial direction, L is the number of band divisions in the circumferential direction, and generally K = 6 and L = 6 are used.
上記の式において、fanl(θ)の定義は次の通りである。
ここで
である。図5は、L=6の場合のfanl(θ)の模式図である。図5において、横軸は正規化周波数、縦軸は応答である。
In the above equation, fanl (θ) is defined as follows.
here
It is. FIG. 5 is a schematic diagram of fanl (θ) when L = 6. In FIG. 5, the horizontal axis represents the normalized frequency, and the vertical axis represents the response.
また、domk(ρ)の定義は次の通りである。
ここで
である。図6は、K=6の場合のdomk(ρ)の模式図である。図6において、横軸は正規化周波数、縦軸は応答である。
The definition of domk (ρ) is as follows.
here
It is. FIG. 6 is a schematic diagram of dom k (ρ) when K = 6. In FIG. 6, the horizontal axis represents the normalized frequency, and the vertical axis represents the response.
また、base(ρ)の定義は次の通りである。
ここで、
である。図7は、帯域分割フィルタcortexk,l(u,v)による帯域分割を、横軸、縦軸とも正規化周波数空間で示した模式図である。図7において、各フィルタの半値周波数が太い実線で示されている。
The definition of base (ρ) is as follows.
here,
It is. FIG. 7 is a schematic diagram showing band division by the band division filter cortex k, l (u, v) in the normalized frequency space on both the horizontal axis and the vertical axis. In FIG. 7, the half-value frequency of each filter is indicated by a thick solid line.
逆フーリエ変換部308Aと308Bは、帯域分割部307による帯域分割フィルタ後の空間周波数情報に対して、逆フーリエ変換を施し、帯域分割画像を生成する。以下では、デジタル画像に対する帯域分割周波数情報Isk,l(u,v)の逆フーリエ変換結果をisk,l(x,y)、ホワイトノイズ画像に対する帯域分割周波数情報Nsk,l(u,v)の逆フーリエ変換結果をnsk,l(x,y)とする。
Inverse
ノイズマスク部309は、逆フーリエ変換部308Aからの出力である帯域分割画像isk,l(x,y)に基づいて、逆フーリエ変換部308Bからの出力である帯域分割ノイズ画像nsk,l(x,y)に対するマスキングを施す。そして、ノイズマスク部309は、マスク化後のノイズ画像である、知覚されるノイズ画像Pk,l(x,y)を帯域毎に算出する。まず、マスキング強度Tek,l(x,y)を下式により算出する。
ここで、
であり、本実施形態ではW=6,Q=0.7,b=4,s=0.8とする。
The
here,
In this embodiment, W = 6, Q = 0.7, b = 4, and s = 0.8.
図8は、本実施形態におけるisk,l(x,y)のマスキング強度Tek,l(x,y)の関係を示すグラフである。図8において、横軸はisk,l(x,y)の強度を対数スケールで、縦軸はTek,l(x,y)の強度を対数スケールで表している。このTek,l(x,y)を用いて、ノイズ画像Pk,l(x,y)は、
と算出される。ここで、mはiin(x,y)の平均値である。
FIG. 8 is a graph showing the relationship between the masking strengths Te k, l (x, y) of is k, l (x, y) in the present embodiment. In FIG. 8, the horizontal axis represents the intensity of is k, l (x, y) on a logarithmic scale, and the vertical axis represents the intensity of Te k, l (x, y) on a logarithmic scale. Using this Te k, l (x, y), the noise image P k, l (x, y)
Is calculated. Here, m is an average value of i in (x, y).
ノイズマップ合成部310は、下式に基づいて帯域毎の知覚ノイズ画像Pk,l(x,y)を全帯域で合成し、ノイズマップNM1(x,y)を算出する。
なお、上記処理と同様にして、ノイズマップ算出部205BはノイズマップNM2(x,y)を算出する。
The noise
Note that the noise
<画像合成部208の構成>
図9は、本実施形態による画像合成部208の構成を表す図である。端子901には、第一の超解像処理部206から第一の超解像処理後のデジタル画像iin1(x,y)が入力される。端子902には、第二の超解像処理部207から第二の超解像処理後のデジタル画像iin2(x,y)が入力される。端子903には、ノイズマップ算出部205Aで算出された第一の超解像処理に対するノイズマップNM1(x,y)が入力される。端子904には、ノイズマップ算出部205Bで算出された第二の超解像処理に対するノイズマップNM2(x,y)が入力される。
<Configuration of
FIG. 9 is a diagram illustrating the configuration of the
重み決定部905は、画像位置(x,y)に応じたiin1(x,y)とiin2(x,y)の二つの画素値の混合重みを示す重みマップW1(x,y)及びW2(x,y) を、ノイズマップ情報NM1(x,y)及びNM2(x,y)に基づいて生成する。ここで、重みマップW1(x,y)及びW2(x,y)は、例えば以下の式により算出され得る。ただし、本実施形態では以下の算出方法に限定されない。
画像加算部906は、重みマップW1(x,y)及びW2(x,y)に従って、後述のようにデジタル画像iin1(x,y)とデジタル画像iin2(x,y)の合成処理を施す。
The
The
<画像加算部906の構成>
図10は、本実施形態による画像加算部906の構成を表す図である。画像加算部906では、重み算出部905で算出された重みマップW1(x,y)及びW2(x,y)を用いて、デジタル画像iin1(x,y)とデジタル画像iin2(x,y)の重み付き加算処理を施す。端子1001には、デジタル画像iin1(x,y)が、端子1002にはデジタル画像iin2(x,y)が入力される。また、端子1006にはデジタル画像iin1(x,y)に対する重みマップW1(x,y)が、端子1007にはデジタル画像iin2(x,y)に対する重みマップW2(x,y)が入力される。係数設定部1008Aと1008Bは、座標に応じた係数をそれぞれ重みマップW1(x,y)とW2(x,y)を参照して乗算部1003Aと1003Bに対して設定する。乗算部1003Aと1003Bは、入力デジタル画像から画素値を読み出し、あらかじめ設定された係数を乗算する。加算器1104は、重みが乗算された各画素値を加算する。
<Configuration of
FIG. 10 is a diagram illustrating the configuration of the
以上、本実施形態によれば、ノイズの知覚されやすさを表現する2つのノイズマップを算出し、これらのマップに基づいて2つの超解像結果を重み付け加算する。これにより、ノイズ劣化の弊害を抑えつつ、鮮鋭性の改善効果が得られる超解像処理を実現することが出来る。なお、本実施形態は2つの超解像処理を合成する場合に関して述べたが、れに限定されない。超解像処理が3つ以上の場合でも、各々の処理に対して重みマップを計算し合成することで、ノイズ劣化の弊害を抑えつつ鮮鋭性の改善効果が得られる超解像処理を実現することが出来る。 As described above, according to the present embodiment, two noise maps expressing the ease of perception of noise are calculated, and two super-resolution results are weighted and added based on these maps. As a result, it is possible to realize super-resolution processing that can improve the sharpness while suppressing the adverse effects of noise degradation. In addition, although this embodiment described regarding the case where two super-resolution processes are synthesize | combined, it is not limited to this. Even when there are three or more super-resolution processes, a weight map is calculated and combined for each process, thereby realizing a super-resolution process that can improve the sharpness while suppressing the effects of noise degradation. I can do it.
[第2実施形態]
第1実施形態では、2つの超解像処理に対してそれぞれノイズマップを算出し、2つのノイズマップから重みを決定していた。この手法では、ノイズの知覚される領域を高精度に判断できる反面、演算量や回路規模が大きくなるという課題があった。そこで本実施形態では、1つのノイズマップから重みを決定するように処理を簡易化する。以下では、第一実施形態からの差分について述べる。
[Second Embodiment]
In the first embodiment, a noise map is calculated for each of the two super-resolution processes, and a weight is determined from the two noise maps. This method has a problem that the amount of calculation and the circuit scale are increased while the area where noise is perceived can be determined with high accuracy. Therefore, in the present embodiment, the processing is simplified so as to determine the weight from one noise map. Below, the difference from 1st embodiment is described.
<画像処理部の構成>
図11は、本実施形態による画像処理部104の構成を示す図である。パラメータ取得部202、ノイズ特性記憶部203、ノイズ情報取得部204、ノイズマップ算出部205の構成は図2の202B〜205Bとそれぞれ同様である。すなわち、ノイズマップ算出部205は、第二の超解像処理の設定パラメータに基づいてノイズマップNM2(x,y)を算出する一方、第一の超解像処理の設定パラメータに基づくノイズマップNM1(x,y)は算出されない。画像合成部210は、第二の超解像処理部207により得られた画像に基づいて加算比率を算出し、算出した加算比率により画像を合成し、一枚の高解像度画像を出力する。
<Configuration of image processing unit>
FIG. 11 is a diagram illustrating a configuration of the
<画像合成部の210構成>
図12は、本実施形態による画像合成部210の構成を表す図である。端子1201には、第一の超解像処理部206から第一の超解像処理後のデジタル画像iin1(x,y)が入力される。端子1202には、第二の超解像処理部207から第二の超解像処理後のデジタル画像iin2(x,y)が入力される。端子1203には、ノイズマップ算出部205で算出された、第二の超解像処理に対するノイズマップNM2(x,y)が入力される。重み決定部1205は、画像位置(x,y)に応じたiin1(x,y)とiin2(x,y)の二つの画素値の混合重みを示す重みマップW1(x,y)及びW2(x,y)を、ノイズマップNM2(x,y)と所定の閾値thに基づいて生成する。ここで、重みマップW1(x,y)及びW2(x,y)は、例えば以下の式により算出され得る。ただし、本発明は以下の算出方法に限定されない。
画像加算部1206は、重みマップに従って、デジタル画像iin1(x,y)とデジタル画像iin2(x,y)の合成処理を施す。
<210 composition of image composition part>
FIG. 12 is a diagram illustrating the configuration of the
The
以上、本実施形態によれば、2つの超解像処理に対して1つのノイズマップを算出し、このマップに基づいて2つの超解像結果を重み付け加算する。これにより、第1実施形態より演算量や回路規模を縮小しながらも、第1実施形態と同様の効果を得ることが出来る。なお、本実施形態では、ノイズマップNM2(x,y)に基づいて重みマップが算出される例を説明したが、第一の超解像処理の設定パラメータに基づくノイズマップNM1(x,y)に基づいて重みマップが算出されるようにしても良い。 As described above, according to the present embodiment, one noise map is calculated for two super-resolution processes, and two super-resolution results are weighted and added based on this map. As a result, the same effects as those of the first embodiment can be obtained while reducing the calculation amount and the circuit scale as compared with the first embodiment. In the present embodiment, an example in which the weight map is calculated based on the noise map NM2 (x, y) has been described, but the noise map NM1 (x, y) based on the setting parameter of the first super-resolution processing is described. The weight map may be calculated based on the above.
[第3実施形態]
第1実施形態では、ノイズマップ算出部205Aと205Bに於いて、ノイズの帯域分割画像nsk,l(x,y)を、実際に生成したノイズ画像n(x,y)から生成していた。しかしながら、この方法では、ノイズ画像n(x,y)を計算する必要があり、計算量が大きいという課題があった。そこで本実施形態は、ノイズ特性に関する情報に基づき、ノイズの帯域分割画像nsk,l(x,y)を直接生成することで、処理を簡易化したものである。以下、第1実施形態におけるノイズマップ算出部205Aから変更するノイズマップ算出部211Aについて説明する。なお、ノイズマップ算出部205Bから変更するノイズマップ算出部211Bは、ノイズマップ算出部211Aと同様の構成を有する。
[Third Embodiment]
In the first embodiment, the noise
<ノイズマップ算出部211Aの構成>
図13は、本実施形態によるノイズマップ算出部211Aの構成を示す図である。端子1301には、信号処理部103からデジタル画像iin(x,y)が入力される。端子1302には、ノイズ情報取得部204からノイズ情報が入力される。フーリエ変換部305A〜逆フーリエ変換部308Aの処理は、図3と同様であり、説明を省略する。
<Configuration of Noise
FIG. 13 is a diagram illustrating a configuration of the noise
帯域分割部1303は、ノイズ情報取得部204Aで取得したノイズ特性に関する情報に基づき、帯域分割画像nsk,l(x,y)を生成する。まず、ノイズ情報取得部204Aで取得したノイズの自己相関関数をフーリエ変換し、ノイズのパワースペクトラムC(u,v)を算出する。C(u,v)に基づき、帯域毎のノイズのパワースペクトラムNPSk,l(u,v)を次の様に算出する。ここでkは半径方向のインデックス、lは円周方向のインデックスである。
ここで、αはノイズ情報取得部204Aで取得したノイズ量に関する補正項であり、cortexk,l(u,v)は第1実施形態において述べた帯域分割フィルタである。さらにNPSk,l(u,v)の総和をとって、帯域毎のパワーNPk,lを算出する。ここでUは横方向の周波数分割数、Vは縦方向の周波数分割数である。
帯域毎のパワーから、帯域分割画像nsk,l(x,y)を一様なベタ画像として次の様に生成する。
The
Here, α is a correction term related to the amount of noise acquired by the noise
From the power for each band, the band-divided image ns k, l (x, y) is generated as a uniform solid image as follows.
ノイズマスク部309は、逆フーリエ変換部308Aからの出力である帯域分割画像isk,l(x,y)に基づいて、帯域分割されたノイズ画像nsk,l(x,y)に対するマスキングを施し、知覚されるノイズ画像Pk,l(x,y)を帯域毎に算出する。ノイズマップ合成部310は、帯域毎の知覚ノイズ画像Pk,l(x,y)を合成し、ノイズマップNM1(x,y)を算出する。ノイズマップ合成部310以降の処理は、第1実施形態において述べた処理と同様であり、説明を省略する。
The
以上、本実施形態によれば、ノイズ画像n(x,y)を計算せず、ノイズの帯域分割画像nsk,l(x,y)を直接生成する。これにより、第1実施形態より演算量や回路規模を縮小しながらも、第1実施形態と同様の効果を得ることが出来る。 As described above, according to the present embodiment, the noise image n (x, y) is not calculated, and the noise band-divided image ns k, l (x, y) is directly generated. As a result, the same effects as those of the first embodiment can be obtained while reducing the calculation amount and the circuit scale as compared with the first embodiment.
[第4実施形態]
第1実施形態では、ノイズ情報取得部204Aと204Bで取得するノイズ情報として、ノイズ量と自己相関関数を利用していた。しかしこの情報は統計的情報に過ぎず、実際に混入しているノイズとは異なる。そこで本実施形態では、実際のデジタル画像から算出したノイズ画像を、ノイズ情報として用いる。以下、第1実施形態からの変更箇所を説明する。
[Fourth Embodiment]
In the first embodiment, the noise amount and the autocorrelation function are used as the noise information acquired by the noise
<画像処理部104の構成>
図14は、本実施形態による画像処理部104の構成を示す図である。端子1401には、信号処理部103で処理されたデジタル画像が入力される。ノイズ情報取得部1402Aと1402Bは、信号処理部103から出力されるデジタル画像とそれぞれ第一の超解像処理部206と第二の超解像処理部207から出力されるデジタル画像とを比較し、ノイズ画像を算出する。ノイズマップ算出部1403Aと1403Bは、ノイズ情報取得部1402Aと1402Bでノイズ情報として取得されたノイズ画像と、信号処理部103からのデジタル画像に基づき、画像でのノイズの知覚されやすさを表現する、ノイズマップを生成する。画像合成部208は、第一の超解像処理部206及び第二の超解像処理部207により得られた画像を合成し、一枚の高解像度画像を出力する。端子1404は、超解像処理を施したデジタル画像を出力する。
<Configuration of
FIG. 14 is a diagram illustrating a configuration of the
<ノイズ情報取得部1402Aの構成>
図15は、本実施形態によるノイズ情報取得部1402Aの構成を示す図である。なお、ノイズ情報取得部1402Bはノイズ情報取得部1402Aと同様の構成を有する。端子1501には、信号処理部103からのデジタル画像が入力される。ノイズ低減部1502は、デジタル画像に高域除去処理を施し、ノイズが除去されたノイズ除去画像を生成する。画像減算部1503は、信号処理部103からのデジタル画像から、ノイズ低減部1502からのノイズ除去画像を減ずることで、ノイズ画像を算出する。端子1504は、ノイズ画像を出力する。
<Configuration of noise
FIG. 15 is a diagram illustrating a configuration of the noise
<ノイズマップ算出部1403Aの構成>
図16は、本実施形態によるノイズマップ算出部1403Aの構成を示す図である。なお、ノイズマップ算出部1403Bが、ノイズマップ算出部1403Aと同様の構成を有する。端子1601には、信号処理部103からデジタル画像iin(x,y)が入力される。端子1602には、ノイズ情報取得部1402からノイズ情報としてノイズ画像n(x,y)が入力される。フーリエ変換部305Bには、端子1602から直接ノイズ画像n(x,y)が入力される点が第1実施形態と異なる。フーリエ変換部305Aと305B以降の処理は、第1実施形態において述べた処理と同様であり、説明を省略する。
<Configuration of noise
FIG. 16 is a diagram illustrating a configuration of the noise
以上、本実施形態によれば、実際のデジタル画像から算出したノイズ画像をノイズ情報として用いる。これにより、ノイズ情報を計算していた第1実施形態よりも演算量や回路規模を縮小しながらも、第1実施形態と同様の効果を得ることが出来る。 As described above, according to the present embodiment, a noise image calculated from an actual digital image is used as noise information. As a result, the same effects as those of the first embodiment can be obtained while reducing the calculation amount and the circuit scale as compared with the first embodiment in which noise information is calculated.
[第5実施形態]
第1実施形態では、ノイズマップ算出部205Aと205Bにおける帯域分割部307Aと307Bの処理に、cortexフィルタとして知られるフィルタを用いていた。しかしこの手法によれば、周波数特性が非常に特殊な形のフィルタとなる為、演算処理が重くなる。そこで本実施形態では、第1実施形態におけるcortexフィルタを、通常の縦方向と横方向のフィルタを結合した簡易な帯域分割フィルタに置き換えることで、演算処理を軽くしたものである。以下、第1実施形態におけるノイズマップ算出部205Aから変更するノイズマップ算出部212Aについて説明する。なお、ノイズマップ算出部205Bから変更するノイズマップ算出部212Bは、ノイズマップ算出部212Aと同様の構成を有する。
[Fifth Embodiment]
In the first embodiment, a filter known as a cortex filter is used for the processing of the
<ノイズマップ算出部212Aの構成>
図17は、本実施形態によるノイズマップ算出部212の構成を示す図である。端子1701には、信号処理部103からデジタル画像iin(x,y)が入力される。端子1702には、ノイズ情報取得部204Aからノイズ情報が入力される。そして、第1実施形態において述べた処理と同様にして、ノイズ画像生成部303Aとフィルタ部304Aにより、カメラのノイズ画像n(x,y)が推定される。
<Configuration of Noise
FIG. 17 is a diagram illustrating a configuration of the noise map calculation unit 212 according to the present embodiment. A digital image i in (x, y) is input to the terminal 1701 from the
帯域分割部1703は、帯域分割フィルタを用いて帯域分割を施し、帯域分割情報Isk,l(u,v)を生成する。但しここでkは横方向のインデックス、lは縦方向のインデックスである。帯域分割後の空間周波数情報は、それぞれ下式で表現される。Isk,l(u,v)はデジタル画像に対する帯域分割情報、Nsk,l(u,v)はホワイトノイズ画像に対する帯域分割情報である。
帯域分割フィルタfilterbankk,l(u,v)は、次のように定義される。
ここで、Kは横方向、Lは縦方向の帯域分割数であり、本実施形態ではK=6,L=6を用いる。
The band division unit 1703 performs band division using a band division filter to generate band division information Is k, l (u, v). Here, k is a horizontal index, and l is a vertical index. The spatial frequency information after the band division is expressed by the following equations, respectively. Is k, l (u, v) is band division information for a digital image, and Ns k, l (u, v) is band division information for a white noise image.
The band division filter filterbank k, l (u, v) is defined as follows.
Here, K is the horizontal direction and L is the number of band divisions in the vertical direction. In this embodiment, K = 6 and L = 6 are used.
図18は、帯域分割フィルタfilterbankk,l(u,v)による帯域分割を、横軸、縦軸とも正規化周波数空間で示した模式図である。各フィルタの半値周波数を、太い実線で示している。ノイズマスク部309は、帯域分割画像isk,l(x,y)に基づいて帯域分割されたノイズ画像nsk,l(x,y)に対するマスキングを施し、知覚されるノイズ画像Pk,l(x,y)を帯域毎に算出する。ノイズマップ合成部310は、帯域毎の知覚ノイズ画像Pk,l(x,y)を合成し、ノイズマップNM1(x,y)を算出する。ノイズマップ合成部310以降の処理は、第1実施形態において述べた処理と同様であり、説明を省略する。
FIG. 18 is a schematic diagram showing band division by the band division filter filterbank k, l (u, v) in the normalized frequency space on both the horizontal axis and the vertical axis. The half-value frequency of each filter is indicated by a thick solid line. The
以上、本実施形態によれば、縦方向と横方向のフィルタを結合した簡易な帯域分割フィルタを用いて帯域分割処理が行われる。これにより、cortexフィルタを用いた第1実施形態よりも演算量や回路規模を縮小しながらも、第1実施形態と同様の効果を得ることが出来る。なお、本実施形態では、周波数域での乗算で帯域分割を行ったが、空間域での畳みこみ演算で実現することも可能である。さらに本実施形態に対しては、ウェーブレットなど公知の帯域分割フィルタを適用することが可能である。 As described above, according to the present embodiment, the band division process is performed using the simple band division filter in which the vertical and horizontal filters are combined. As a result, the same effects as those of the first embodiment can be obtained while reducing the calculation amount and the circuit scale as compared with the first embodiment using the cortex filter. In the present embodiment, band division is performed by multiplication in the frequency domain, but it can also be realized by convolution calculation in the spatial domain. Furthermore, a known band division filter such as a wavelet can be applied to the present embodiment.
[他の実施形態]
これまでにの述べた実施形態においては、画像合成部の処理において、ノイズマップから計算した重みマップに基づき、複数の超解像画像を合成していた。しかしながら、本発明はこれに限定されず、画像合成部の処理を例えば以下のような処理にしてもよい。
[Other Embodiments]
In the embodiments described so far, a plurality of super-resolution images are synthesized based on the weight map calculated from the noise map in the processing of the image synthesis unit. However, the present invention is not limited to this, and the processing of the image composition unit may be, for example, the following processing.
第1実施形態では、ノイズマップから重みマップを直接計算していた。しかしながら、この方法では、隣接画素での重みの変動が大きく、画像合成に伴うノイズが発生してしまうという課題があった。そこで、ノイズマップにローパスフィルタを施したのち、重みマップを算出することで、隣接画素間での重みの変動を抑制してもよい。具体的には、第1実施形態の重みマップW1及びW2を以下のように定義してもよい。
ここで、Lはローパスフィルタを表し、*はたたみこみ演算を表す。
In the first embodiment, the weight map is directly calculated from the noise map. However, in this method, there is a problem that the variation in weight between adjacent pixels is large, and noise is generated due to image synthesis. Therefore, after the low-pass filter is applied to the noise map, the weight map may be calculated to suppress the variation in weight between adjacent pixels. Specifically, the weight maps W1 and W2 of the first embodiment may be defined as follows.
Here, L represents a low-pass filter, and * represents a convolution operation.
また、これまでに述べた実施形態では、ノイズマップをもとに、画素ごとに重みマップを計算していた。しかしながらこれらの手法では、重みの算出および合成処理に多大な計算量がかかるという課題があった。そこで、画像を領域分割し、領域ごとに合成重みを決定してもよい。たとえば、16×16や32×32といった領域ごとにノイズマップの平均値が小さい超解像画像を選択し、統合する処理としてもよい。具体的には、領域分割された第一および第二の超解像処理画像をiin1_sub(x,y)及びiin2_sub(x,y)、ノイズマップをNM1_sub(x,y)及びNM2_sub(x,y)、出力画像をiout(x,y)とすると、
と表わされる。
In the embodiments described so far, the weight map is calculated for each pixel based on the noise map. However, these methods have a problem in that a large amount of calculation is required for calculating weights and combining processing. Therefore, the image may be divided into regions, and the synthesis weight may be determined for each region. For example, a super-resolution image having a small noise map average value may be selected and integrated for each region such as 16 × 16 or 32 × 32. Specifically, the first and second super-resolution processed images divided into regions are i in1_sub (x, y) and i in2_sub (x, y), and the noise maps are NM 1_sub (x, y) and NM 2_sub. (x, y) and the output image is i out (x, y)
It is expressed as
以上、これまでに述べた実施形態によれば、画像全体において、ノイズ劣化が視覚によって知覚されずに鮮鋭性を向上できる超解像処理が可能となる。なお、これまでに述べた実施形態を組み合わせることも可能である。 As described above, according to the embodiments described so far, it is possible to perform super-resolution processing that can improve sharpness in a whole image without noise degradation being perceived visually. It is also possible to combine the embodiments described so far.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (13)
入力画像に対してそれぞれ異なる解像度変換処理を施す複数の変換手段と、
前記解像度変換処理に応じたノイズ情報を取得する取得手段と、
前記ノイズ情報と前記入力画像に基づいて、前記入力画像におけるノイズの知覚しやすさを表したノイズマップを算出する算出手段と、
前記ノイズマップに基づいて、前記解像度変換処理が施された複数の画像の加算比率を決定する決定手段と、
前記加算比率に従って前記解像度変換処理が施された複数の画像を合成する合成手段とを備えることを特徴とする画像処理装置。 An image processing apparatus,
A plurality of conversion means for applying different resolution conversion processes to the input image,
Acquisition means for acquiring noise information according to the resolution conversion process;
Calculation means for calculating a noise map representing ease of perception of noise in the input image based on the noise information and the input image;
Determining means for determining an addition ratio of a plurality of images subjected to the resolution conversion processing based on the noise map;
An image processing apparatus comprising: a combining unit configured to combine a plurality of images subjected to the resolution conversion processing according to the addition ratio.
前記取得手段は、前記解像度変換処理のための設定パラメータに応じて前記記憶手段から前記ノイズ情報を取得することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 A storage means for storing the noise information;
The image processing apparatus according to claim 1, wherein the acquisition unit acquires the noise information from the storage unit according to a setting parameter for the resolution conversion process.
帯域分割されたノイズ画像を前記ノイズ情報に基づいて生成し、帯域分割された入力画像を前記入力画像に基づいて生成する帯域分割手段と、
前記帯域分割されたノイズ画像を前記帯域分割された入力画像に基づいてマスキングするマスク手段と、
前記マスク手段から出力されるマスク化後の帯域分割されたノイズ画像を全帯域で合成して前記ノイズマップを生成する生成手段とを備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The calculating means includes
Band division means for generating a noise image that has been divided into bands based on the noise information, and generating an input image that has been divided into bands based on the input image;
Mask means for masking the band-divided noise image based on the band-divided input image;
7. The apparatus according to claim 1, further comprising: a generating unit configured to combine the band-divided noise image output from the mask unit and generate the noise map in all bands. An image processing apparatus according to 1.
入力画像に対してそれぞれ異なる解像度変換処理を施す工程と、
前記解像度変換処理に応じたノイズ情報を取得する工程と、
前記ノイズ情報と前記入力画像に基づいて、前記入力画像におけるノイズの知覚しやすさを表したノイズマップを算出する工程と、
前記ノイズマップに基づいて、前記解像度変換処理が施された複数の画像の加算比率を決定する工程と、
前記加算比率に従って前記解像度変換処理が施された複数の画像を合成する工程とを備えることを特徴とする画像処理装置の制御方法。 A control method for an image processing apparatus, comprising:
Applying different resolution conversion processing to each input image;
Obtaining noise information according to the resolution conversion process;
Calculating a noise map representing the ease of perception of noise in the input image based on the noise information and the input image;
Determining an addition ratio of a plurality of images subjected to the resolution conversion processing based on the noise map;
And a step of synthesizing a plurality of images subjected to the resolution conversion processing according to the addition ratio.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013264501A JP2015121884A (en) | 2013-12-20 | 2013-12-20 | Image processing apparatus, method of the same, and program |
US14/515,883 US9531922B2 (en) | 2013-10-30 | 2014-10-16 | Image processing apparatus, image processing method, and computer readable storage medium for improving sharpness |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013264501A JP2015121884A (en) | 2013-12-20 | 2013-12-20 | Image processing apparatus, method of the same, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015121884A true JP2015121884A (en) | 2015-07-02 |
Family
ID=53533458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013264501A Pending JP2015121884A (en) | 2013-10-30 | 2013-12-20 | Image processing apparatus, method of the same, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015121884A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11257189B2 (en) | 2019-05-02 | 2022-02-22 | Samsung Electronics Co., Ltd. | Electronic apparatus and image processing method thereof |
KR20220092771A (en) * | 2020-12-25 | 2022-07-04 | 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 | Photographing method, photographing device, terminal, and storage medium |
-
2013
- 2013-12-20 JP JP2013264501A patent/JP2015121884A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11257189B2 (en) | 2019-05-02 | 2022-02-22 | Samsung Electronics Co., Ltd. | Electronic apparatus and image processing method thereof |
US11861809B2 (en) | 2019-05-02 | 2024-01-02 | Samsung Electronics Co., Ltd. | Electronic apparatus and image processing method thereof |
KR20220092771A (en) * | 2020-12-25 | 2022-07-04 | 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 | Photographing method, photographing device, terminal, and storage medium |
KR102525293B1 (en) * | 2020-12-25 | 2023-04-25 | 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 | Photographing method, photographing device, terminal, and storage medium |
US11847769B2 (en) | 2020-12-25 | 2023-12-19 | Beijing Xiaomi Pinecone Electronics Co., Ltd. | Photographing method, terminal, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5968073B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP2013005259A (en) | Image processing apparatus, image processing method, and program | |
JP3731577B2 (en) | Image processing program | |
US9332195B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US8526057B2 (en) | Image processing apparatus and image processing method | |
US20170116715A1 (en) | Image processing apparatus, image processing method, and image processing system | |
JP5766077B2 (en) | Image processing apparatus and image processing method for noise reduction | |
CN109074637B (en) | Method and system for generating an output image from a plurality of respective input image channels | |
JP7234057B2 (en) | Image processing method, image processing device, imaging device, lens device, program, storage medium, and image processing system | |
JP4985660B2 (en) | Pseudo gray image generating apparatus and program | |
JP5765893B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP5843599B2 (en) | Image processing apparatus, imaging apparatus, and method thereof | |
JP2015121884A (en) | Image processing apparatus, method of the same, and program | |
CN110689486A (en) | Image processing method, device, equipment and computer storage medium | |
JP5654860B2 (en) | Image processing apparatus, control method therefor, and program | |
JP6514504B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
JP6381273B2 (en) | Imaging apparatus, image processing system, and control method thereof | |
JP5218634B2 (en) | Pseudo gray image generating apparatus and program | |
JP2007151094A (en) | Tone-conversion device for image, program, electronic camera, and tone-conversion method | |
JP5545059B2 (en) | Moving image processing method, moving image processing apparatus, and moving image processing program | |
JP2016201771A (en) | Image processing device, image processing method and program | |
JP2007190208A (en) | Comparative diagnostic reading support system | |
JP2020092288A (en) | Image processing device, image processing method, and program | |
JP6468751B2 (en) | Image processing apparatus, image processing method, and program | |
US20170206631A1 (en) | Image processing unit, imaging device, computer-readable medium, and image processing method |