JP6763637B2 - Image restoration method - Google Patents

Image restoration method Download PDF

Info

Publication number
JP6763637B2
JP6763637B2 JP2016161436A JP2016161436A JP6763637B2 JP 6763637 B2 JP6763637 B2 JP 6763637B2 JP 2016161436 A JP2016161436 A JP 2016161436A JP 2016161436 A JP2016161436 A JP 2016161436A JP 6763637 B2 JP6763637 B2 JP 6763637B2
Authority
JP
Japan
Prior art keywords
image
decomposed
restored
processing step
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016161436A
Other languages
Japanese (ja)
Other versions
JP2018028868A (en
Inventor
正浩 小林
正浩 小林
Original Assignee
正浩 小林
正浩 小林
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 正浩 小林, 正浩 小林 filed Critical 正浩 小林
Priority to JP2016161436A priority Critical patent/JP6763637B2/en
Publication of JP2018028868A publication Critical patent/JP2018028868A/en
Application granted granted Critical
Publication of JP6763637B2 publication Critical patent/JP6763637B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像の劣化過程を表す関数がガウス型関数である観測画像(劣化画像)を復元して、ぼけのない原画像にできるだけ近い復元画像を得る画像復元方法に関する。 The present invention relates to an image restoration method for restoring an observed image (deteriorated image) in which a function representing an image deterioration process is a Gaussian function to obtain a restored image as close as possible to the original image without blurring.

カメラのレンズを通して得た画像が劣化する主な原因としては、カメラと被写体の相対運動によるもの、焦点ずれあるいはピンぼけと呼ばれるもの、厚い空気層など媒質のランダムな揺らぎによるもの、レンズの収差によるものなどが挙げられる。それぞれに対して劣化過程を表す関数が異なる。ここでは、レンズの収差により劣化した画像を復元する場合を取り上げる。レンズの収差による画像の劣化過程を表す関数は、ガウス型関数である。 The main causes of deterioration of the image obtained through the camera lens are the relative movement of the camera and the subject, what is called out-of-focus or out-of-focus, the random fluctuation of the medium such as a thick air layer, and the aberration of the lens. And so on. The function that expresses the deterioration process is different for each. Here, the case of restoring an image deteriorated due to lens aberration will be taken up. The function representing the deterioration process of the image due to the aberration of the lens is a Gaussian function.

特許文献1には、既知のPSF(点拡がり関数)及び1枚の劣化画像に基づき、真の画像を復元することにより、リンギングやノイズを抑えた復元画像を生成するようにした画像復元装置が記載されている。 Patent Document 1 describes an image restoration device that generates a restored image with suppressed ringing and noise by restoring a true image based on a known PSF (point spread function) and one deteriorated image. Are listed.

特許文献1に記載の画像復元装置は、劣化画像に基づき、ベース画像生成処理を行うことにより、ベース画像を生成するベース画像生成処理部と、ベース画像生成処理部からの生成済みベース画像とPSF(点拡がり関数)との畳み込み積分を行うことにより、ぼかし画像を生成するぼかし画像生成処理部と、生成されたぼかし画像と、前記劣化画像との差分を計算することにより、劣化残差画像を生成する劣化残差画像生成処理部と、生成された劣化残差画像に対して、生成済みベース画像に基づき、拘束の強さを変化させるように画像復元処理を行うことにより、復元残差画像を生成する画像復元処理部と、生成された復元残差画像に生成済みベース画像を加えることにより、復元画像を生成する復元画像生成処理部とを備えている。 The image restoration device described in Patent Document 1 includes a base image generation processing unit that generates a base image by performing a base image generation processing based on a deteriorated image, and a base image generated from the base image generation processing unit and a PSF. A blurred image generation processing unit that generates a blurred image by performing convolution integration with (point spreading function), and a degraded residual image by calculating the difference between the generated blurred image and the degraded image. The restored residual image is restored by performing image restoration processing on the generated deterioration residual image and the generated deterioration residual image based on the generated base image so as to change the strength of the constraint. It is provided with an image restoration processing unit for generating a restored image and a restoration image generation processing unit for generating a restored image by adding a generated base image to the generated restoration residual image.

また、非特許文献1には、画像処理/信号処理に関して、ウェーブレットの工学的応用について記載されている。 In addition, Non-Patent Document 1 describes the engineering application of wavelets with respect to image processing / signal processing.

特開2009-271725号公報JP-A-2009-271725

「ウェーブレットによる信号処理と画像処理」 中野 宏毅・山本 鎮男・吉田 靖夫 著 1999年8月発行 共立出版"Signal processing and image processing by wavelet" by Hiroki Nakano, Shizuo Yamamoto, Yasuo Yoshida, published in August 1999, Kyoritsu Shuppan Open CV 2.2 documentationOpen CV 2.2 documentation

しかし、特許文献1に開示された技術では、リンギングやノイズを抑えた復元画像を生成することができても、レンズの収差により劣化した画像を復元してぼけのない原画像にできるだけ近い復元画像を得ることは難しい。 However, with the technique disclosed in Patent Document 1, even if a restored image with suppressed ringing and noise can be generated, the image deteriorated due to the aberration of the lens is restored and the restored image is as close as possible to the original image without blurring. It's hard to get.

本発明は、従来の技術が有するこのような問題点に鑑みてなされたものであり、画像の劣化過程を表す関数がガウス型関数である観測画像(劣化画像)を復元して、ぼけのない原画像にできるだけ近い復元画像が得られる画像復元方法を提供することを目的とする。 The present invention has been made in view of such problems of the prior art, and restores an observed image (deteriorated image) in which the function representing the image deterioration process is a Gaussian type function without blurring. It is an object of the present invention to provide an image restoration method for obtaining a restored image as close as possible to the original image.

上記課題を解決すべく本発明は、劣化画像を復元してぼけのない原画像にできるだけ近い復元画像を得る画像復元方法であって、劣化画像をYUVの色空間に変換する準備処理工程と、この準備処理工程によって得たYUVの色空間のうちのY画像(Yプレーン)を複数の分解画像に分解する分解処理工程と、この分解処理工程によって得た分解画像を再構成してY画像(Yプレーン)とすると共に前記準備処理工程で変換したUV画像(UVプレーン)と合成して復元画像とする再構成処理工程を備えた。 In order to solve the above problems, the present invention is an image restoration method for restoring a deteriorated image to obtain a restored image as close as possible to the original image without blurring, and a preparatory processing step for converting the deteriorated image into a YUV color space. A decomposition processing step of decomposing a Y image (Y plane) in the YUV color space obtained by this preparatory processing step into a plurality of decomposed images, and a Y image (Y image) by reconstructing the decomposed image obtained by this decomposition processing step. It is provided with a reconstruction processing step of forming a Y plane) and combining it with a UV image (UV plane) converted in the preparatory processing step to obtain a restored image.

前記画像復元方法において、前記準備処理工程は、例えば以下の1〜7である。
1.劣化画像(入力画像)f(x,y)をYUVの色空間に変換する。
2.YUVの色空間のうちのY画像fを32ビット化する。
3.入力パラメータ(復元深度t、比率k)からσ0Jの拡散値配列を作成する。
4.拡散値σ0 2のガウシアンカーネルGσ0 2を作成する。
5.拡散値σ1 2〜σJ 2のLOGカーネルLOGσ1 2〜LOGσJ 2を作成する。
6.上記3の配列内容を単純に、σを−tとした復元深度配列を作成する。
7.上記4〜5と同様の作業を上記6の腹元深度配列で行い、復元カーネルを作成する。
また、前記分解処理工程は、例えば以下の8〜10である。
8.Y画像f0に上記4の拡散値σ0 2のガウシアンカーネルGσ0 2を適用した画像Gσ0 2*f0をY画像f0から引いて1回分解後の分解画像f1を生成する(f1=f0−f0*Gσ0 2)。
9.1回分解後の分解画像f1に上記5の拡散値σ1 2のLOGカーネルLOGσ1 2を適用した画像f1*LOGσ1 2を1回分解後の分解画像f1から引いて2回分解後の分解画像f2を生成する(f2=f1−f1*LOGσ1 2)。
10.上記9と同様な作業を繰り返して分解画像fJまで生成し、分解画像をJ枚得る。
更に、前記再構成処理工程は、例えば以下の11〜14である。
11.分解画像f1〜fJにそれぞれ上記7で作成した復元LOGカーネルLOGσ1 2 -t〜LOGσJ 2 -tを適用し、全ての画像の和を求めて総和画像を作成する。
12.Y画像に上記7で作成した復元ガウシアンカーネルGσ0 2 -tを適用し、上記11で作成した総和画像と加算する。
13.Y画像を入力画像f(x,y)のビット深度に戻す。
14.上記13で得た画像をYプレーンとして入力画像f(x,y)のUVプレーンと合成して復元画像I'(x,y)として出力する。
In the image restoration method, the preparatory processing steps are, for example, 1 to 7 below.
1. 1. The deteriorated image (input image) f (x, y) is converted into the YUV color space.
2. 2. The Y image f in the YUV color space is converted into 32 bits.
3. 3. Create a diffusion value array of σ 0 to J from the input parameters (restoration depth t, ratio k).
4. Creating a Gaussian kernel Gσ 0 2 diffusion value sigma 0 2.
5. To create a LOG kernel LOGσ 1 2 ~LOGσ J 2 diffusion value σ 1 2 J 2.
6. A restoration depth array with σ as −t is created by simply using the array contents of 3 above.
7. Perform the same operations as 4 to 5 above with the abdominal depth array of 6 above to create a restored kernel.
The decomposition processing steps are, for example, the following 8 to 10.
8. Image Gσ 0 2 * f 0 of applying the Gaussian kernel Gσ 0 2 diffusion value sigma 0 2 of the 4 in the Y image f 0 is subtracted from the Y image f 0 to generate the decomposed image f 1 of the decomposed once ( f 1 = f 0 −f 0 * Gσ 0 2 ).
The separation image f 1 after 9.1 times exploded subtracted from the image f 1 * LOGshiguma 1 2 a separation image f 1 after one decomposed according to the LOG kernel LOGshiguma 1 2 diffusion values sigma 1 2 of the 5 2 The decomposed image f 2 after the decomposition is generated (f 2 = f 1 −f 1 * LOGσ 1 2 ).
10. The same operation as in 9 above is repeated to generate decomposed images f J , and J decomposed images are obtained.
Further, the reconstruction processing steps are, for example, the following 11 to 14.
11. The restored LOG kernels LOGσ 1 2 -t to LOGσ J 2 -t created in 7 above are applied to the decomposed images f 1 to f J , respectively, and the sum of all the images is obtained to create a total image.
12. The restored Gaussian kernel Gσ 0 2 -t created in 7 above is applied to the Y image, and the sum image created in 11 above is added.
13. The Y image is returned to the bit depth of the input image f (x, y).
14. The image obtained in 13 above is combined with the UV plane of the input image f (x, y) as a Y plane and output as a restored image I'(x, y).

本発明に係る画像復元方法によれば、レンズの収差による劣化画像や厚い空気層など媒質のランダムな揺らぎを通した劣化画像など、画像の劣化過程を表す関数がガウス型関数である観測画像(劣化画像)を復元してぼけのない原画像にできるだけ近い復元画像を得ることができる。 According to the image restoration method according to the present invention, an observed image in which a function representing an image deterioration process, such as a deteriorated image due to lens aberration or a deteriorated image through random fluctuations of a medium such as a thick air layer, is a Gaussian function. Degraded image) can be restored to obtain a restored image as close as possible to the original image without blur.

本発明に係る画像復元方法を実施する画像復元装置の構成図Configuration diagram of an image restoration device that implements the image restoration method according to the present invention. 本発明に係る画像復元方法の処理手順を示すフローチャートA flowchart showing a processing procedure of the image restoration method according to the present invention. 分解処理・復元処理におけるラインバッファ操作方法の説明図Explanatory drawing of line buffer operation method in disassembly processing / restoration processing (a)はレンズ収差により劣化した画像、(b)は復元後の画像(A) is an image deteriorated due to lens aberration, and (b) is an image after restoration. はテストチャートの原画Is the original picture of the test chart は原画のぼかし画像Is a blurred image of the original image はぼかし画像の復元画像Is a restored image of a blurred image

以下に本発明の実施の形態を添付図面に基づいて説明する。本発明に係る画像復元方法を実施する画像復元装置1は、図1に示すように、劣化画像f(x,y)をYUVの色空間に変換する準備処理手段2と、この準備処理手段2によって得たYUVの色空間のうちのY画像(Yプレーン)f0を複数の分解画像f1〜fJに分解する分解処理手段3と、この分解処理手段3によって得た分解画像f1〜fJを再構成してY画像(Yプレーン)fとすると共に準備処理手段2で変換したUV画像(UVプレーン)fuvと合成して復元画像I'(x,y)とする再構成処理手段4を備える。 Embodiments of the present invention will be described below with reference to the accompanying drawings. As shown in FIG. 1, the image restoration device 1 that implements the image restoration method according to the present invention includes a preparatory processing means 2 that converts a deteriorated image f (x, y) into a YUV color space, and the preparatory processing means 2 The decomposition processing means 3 that decomposes the Y image (Y plane) f 0 in the color space of YUV obtained by the above into a plurality of decomposed images f 1 to f J , and the decomposed images f 1 to obtained by the decomposition processing means 3. Reconstruction processing means for reconstructing f J to obtain a Y image (Y plane) f and combining it with a UV image (UV plane) fuv converted by the preparation processing means 2 to obtain a restored image I'(x, y). 4 is provided.

レンズと撮像素子(撮像センサ)による画像は、一般にレンズの収差によるガウス型のボケと高周波によるノイズによって劣化している。本来、1ピクセルに集まるべき光は、ガウス分布でボケており、周辺のピクセルに影響している。全く収差のないレンズによる画像は、ボケを生じないが、実際の画像はガウス分布でボケを生じた光の集合となる。 The image produced by the lens and the image sensor (imaging sensor) is generally deteriorated by Gaussian blur due to lens aberration and noise due to high frequency. Originally, the light that should be collected in one pixel is blurred by the Gaussian distribution and affects the surrounding pixels. An image with a lens that has no aberration at all does not cause blurring, but the actual image is a set of blurred light with a Gaussian distribution.

画像を数式で表すために、先ず二次元ガウス関数をGt(x,y)とすると、
Gt(x,y)=1/2πt*exp(-(x2+y2)/2t) (式1)
tはガウス関数の広がりを示す拡散値である。
To express an image with a mathematical formula, let the two-dimensional Gaussian function be Gt (x, y).
Gt (x, y) = 1 / 2πt * exp (-(x 2 + y 2 ) / 2t) (Equation 1)
t is a diffusion value indicating the spread of the Gaussian function.

収差のない(ボケのない)画像(原画像)をI(x,y)とすると、ボケた画像(劣化画像)の劣化過程f(x,y)は次式のように表される。
f(x,y)=KtI(x,y)+ω(x,y)=Gt(x,y)*I(x,y)+ω(x,y) (式2)
*はたたみ込みを表す演算子であり、次式で定義される。
Assuming that the image (original image) without aberration (without blur) is I (x, y), the deterioration process f (x, y) of the blurred image (deteriorated image) is expressed by the following equation.
f (x, y) = K t I (x, y) + ω (x, y) = Gt (x, y) * I (x, y) + ω (x, y) (Equation 2)
* Is an operator that represents convolution and is defined by the following equation.

Gt(x,y)*I(x,y)=∬Gt(x',y')*I(x・x',y・y')dx'dy' (式3)
これを有限画素で計算するために、次式に変換する。
Gt(x,y)*I(x,y)=Σy'Σx'(Gt(x',y')*I(x・x',y・y')) (式4)
なお、ω(x,y)は、観測時の高周波雑音と考えられるので省略する。
Gt (x, y) * I (x, y) = ∬Gt (x', y') * I (x ・ x', y ・ y') dx'dy' (Equation 3)
In order to calculate this with finite pixels, it is converted to the following equation.
Gt (x, y) * I (x, y) = Σy'Σx' (Gt (x', y') * I (x ・ x', y ・ y')) (Equation 4)
Note that ω (x, y) is omitted because it is considered to be high-frequency noise during observation.

ここで、Ktは関数を二次元ガウス関数Gt(x,y)でたたみ込みをする演算子である。tはガウス関数の広がりを表しているので、tを時刻と考えるとKtは例えば一点にあるインクが次第に拡散していく様子を表すと考えることができる。拡散時間は当然t≧0であるが、これをt<0とするとガウス関数拡散の逆、つまり復元の過程と捉えることができる。 Here, K t is an operator that convolves a function with a two-dimensional Gaussian function Gt (x, y). Since t represents the spread of the Gaussian function, if t is considered as a time, K t can be considered to represent, for example, how the ink at one point gradually diffuses. Of course, the diffusion time is t ≧ 0, but if this is t <0, it can be regarded as the reverse of Gaussian function diffusion, that is, the process of restoration.

このような操作をする演算子をK-tと表すと、原画像I(x,y)の近似解I'(x,y)を次式のように表すことができる。
I'(x,y)=K-tf(x,y)=I(x,y)+K-tω(x,y) (t>0) (式5)
また、KtとK-tの関係は次式となる。
t-tf(x,y)=f(x,y) (式6)
If the operator that performs such an operation is expressed as K -t , the approximate solution I'(x, y) of the original image I (x, y) can be expressed as the following equation.
I'(x, y) = K -t f (x, y) = I (x, y) + K -t ω (x, y) (t> 0) (Equation 5)
The relationship between K t and K -t is as follows.
K t K -t f (x, y) = f (x, y) (Equation 6)

このままでは利用することができないので、以下の関係式を用いる。
ひとつは、ガウス関数のたたみ込みに対しての関係式
-tGσ2*f=Gσ2-t*f (σ2>t) (式7)
もうひとつは、LOG関数のたたみ込みに対しての関係式
-tLOGσ2*f=LOGσ2-t*f (σ2>t) (式8)
Since it cannot be used as it is, the following relational expression is used.
One is the relational expression K -t2 * f = Gσ 2-t * f (σ 2 > t) for the convolution of the Gaussian function (Equation 7).
The other is the relational expression K -t LOGσ 2 * f = LOGσ 2-t * f (σ 2 > t) for the convolution of the LOG function (Equation 8).

LOG関数とは、画像処理でよく利用されるラプラシアンオブガウシアンフィルターであり、二次元のガウス関数にラプラシアン演算子Lを作用させることで得られる。
ラプラシアン演算子L=∂2/∂x2+∂2/∂y2 (式9)
The LOG function is a Laplacian of Gaussian filter often used in image processing, and is obtained by applying the Laplacian operator L to a two-dimensional Gaussian function.
Laplacian operator L = ∂ 2 / ∂ x 2 + ∂ 2 / ∂y 2 (Equation 9)

ラプラシアン演算子Lをガウス関数に作用させると次式となる。
LOGσ2(x,y)=1/(2πσ4)*(2−(x2+y2)/σ2)*exp(−(x2+y2)/2σ2) (式10)
この関数(式10)をフィルタと捉えると、中間周波数を通す帯域通過フィルタとなる。
When the Laplacian operator L is applied to the Gaussian function, the following equation is obtained.
LOGσ 2 (x, y) = 1 / (2πσ 4 ) * (2- (x 2 + y 2 ) / σ 2 ) * exp (− (x 2 + y 2 ) / 2σ 2 ) (Equation 10)
If this function (Equation 10) is regarded as a filter, it becomes a bandpass filter that passes an intermediate frequency.

式7と式8を利用して劣化画像f(x,y)を分解すると、
f=Gσ0 2*f1+ΣJ j=1LOGσj 2*fj+fJ+1 (式11)
本案では、劣化画像f(x,y)を有限画素で計算するために次式に変換する。
f(x,y)=Σy'Σx'(Gσ0 2 -t(x',y')*f1(x・x',y・y'))+
ΣJ j=1(Σy'Σx'(LOGσj 2 -t(x',y')*fj(x・x',y・y')))+fJ+1 (式12)
ここで、σ2はガウス関数およびLOG関数のスケールパラメータである。
When the deteriorated image f (x, y) is decomposed using Equations 7 and 8,
f = Gσ 0 2 * f 1 + Σ J j = 1 LOGσ j 2 * f j + f J + 1 (Equation 11)
In this proposal, the deteriorated image f (x, y) is converted into the following equation in order to calculate with finite pixels.
f (x, y) = Σ y 'Σ x' (Gσ 0 2 -t (x ', y') * f 1 (x · x ', y · y')) +
Σ J j = 1 (Σ y'Σ x'(LOG σ j 2 -t (x', y') * f j (x ・ x', y ・ y'))) + f J + 1 (Equation 12)
Here, σ 2 is a scale parameter of the Gaussian function and the LOG function.

jはj回分解後の残差画像であり、次式で得られる。
1段階目
1=f−Gσ0 2*f (式13)
j段階目
j=fj-1−LOGσj-1 2*fj-1 (1≦j≦J) (式14)
f j is a residual image after j decomposition, and is obtained by the following equation.
1st stage f 1 = f−Gσ 0 2 * f (Equation 13)
Stage j f j = f j-1 −LOGσ j-1 2 * f j-1 (1 ≦ j ≦ J) (Equation 14)

式7、式8、式11から復元を式で表すと
-tf=Gσ2-t*f+ΣJ j=1LOGσ2-t*fj+K-tJ+1 (式15)
となるが、式を安定させるには
σJ 2>t,σJ+1 2≦t (条件1)
でなければならない。
When the restoration is expressed by equations from equations 7, 8 and 11, K -t f = Gσ 2-t * f + Σ J j = 1 LOGσ 2-t * f j + K -t f J + 1 (Equation 15)
However, in order to stabilize the equation, σ J 2 > t, σ J + 1 2 ≤ t (Condition 1)
Must.

この時、式15のK-tJ+1は不安定であるが、この項は劣化画像の最も高い周波数成分であるため、ほとんどが雑音である。よって、この項は無視することとする。よって、求める復元画像I'(x,y)は次式となる。
I'(x,y)=Gσ2-t*f+ΣJ j=1LOGσ2-t*fj (式16)
At this time, K −t f J + 1 of Equation 15 is unstable, but since this term is the highest frequency component of the deteriorated image, most of it is noise. Therefore, this term is ignored. Therefore, the restored image I'(x, y) to be obtained is given by the following equation.
I'(x, y) = Gσ 2-t * f + Σ J j = 1 LOGσ 2-t * f j (Equation 16)

Jは劣化画像の分解回数、tは復元深度である。
σjはj回目の拡散(分解周波数)であり、σj+1=kσj(k<1) (式17)と等比数列になる。
J is the number of decompositions of the deteriorated image, and t is the restoration depth.
σ j is the j-th diffusion (decomposition frequency), and is a geometric progression with σ j + 1 = kσ j (k <1) (Equation 17).

本実施例では、式16を有限画素で計算するため、復元画像I'(x,y)を次式に変換する。
I'(x,y)=Σy'Σx'(Gσ0 2 -t(x',y')*f(x・x',y・y'))+
ΣJ j=1(Σy'Σx'(LOGσj 2 -t(x',y')*fj(x・x',y・y'))) (式18)
In this embodiment, the restored image I'(x, y) is converted into the following equation in order to calculate the equation 16 with a finite number of pixels.
I '(x, y) = Σ y' Σ x '(Gσ 0 2 -t (x', y ') * f (x · x', y · y ')) +
Σ J j = 1 (Σ y'Σ x'(LOG σ j 2 -t (x', y') * f j (x ・ x', y ・ y'))) (Equation 18)

式12および式18は、離散的プログラムで実装可能な式となっているが、劣化画像f(x,y)に対して6つのパラメータを決定する必要がある。即ち、分解回数J、復元深度t、ガウシアン/LOGカーネルサイズn、拡散の初期値σ0,σ1と比率kである。 Equations 12 and 18 are equations that can be implemented by a discrete program, but it is necessary to determine six parameters for the degraded image f (x, y). That is, the number of decompositions J, the restoration depth t, the Gaussian / LOG kernel size n, the initial values σ 0 and σ 1 of diffusion, and the ratio k.

カーネルは有限画素のたたみ込み計算を行う(x',y')の行列であり、中心のあるn×n(nは奇数)の正方行列とする。これらは上記条件1から特定の関係にある。
σ1≧1.44σ0
σj+1≧0.52σj
分解回数が小さいほど処理が終了するため、処理速度を優先すると、
σ1=1.44σ0
k=0.52
となる。但し、比率kが粗い(小さい)と分解精度が悪くなり、十分な復元が得られない。
The kernel is a matrix (x', y') that performs convolution calculations of finite pixels, and is a square matrix of n × n (n is an odd number) with a center. These have a specific relationship from the above condition 1.
σ 1 ≧ 1.44 σ 0
σ j + 1 ≧ 0.52 σ j
The smaller the number of decompositions, the more the processing ends.
σ 1 = 1.44 σ 0
k = 0.52
Will be. However, if the ratio k is coarse (small), the decomposition accuracy deteriorates and sufficient restoration cannot be obtained.

カーネルサイズ(正方行列の大きさ)を自動的に計算するには以下のように行う。
実施例のカーネルはガウシアン/LOGの2次元行列である。ガウシアン/LOGはいずれも行列の中心を原点として、中心から遠いほど値はゼロに近づく性質を持つ。
そこで、中心からの距離をrとし、半径rの円周で1/256未満になるσは簡易的にσ=0.3・r+0.8と近似できる。
σからカーネルサイズを求めるには、上記の式から、
r=(σ−0.8)/0.3+1と近似できる。
上記の式の右端の(+1)は製法行列とする場合に各外辺で丸め誤差がでないよう、1要素分だけ大きい正方行列にするために必要となる。
これから、カーネルサイズは(r×2)+1と算出できる。
To calculate the kernel size (the size of the square matrix) automatically, do as follows.
The kernel of the embodiment is a Gaussian / LOG two-dimensional matrix. Both Gaussian / LOG have the property that the center of the matrix is the origin and the value approaches zero as the distance from the center increases.
Therefore, let r be the distance from the center, and σ, which is less than 1/256 on the circumference of radius r, can be easily approximated as σ = 0.3 · r + 0.8.
To find the kernel size from σ, use the above formula
It can be approximated as r = (σ −0.8) /0.3 + 1.
(+1) at the right end of the above equation is necessary to make a square matrix larger by one element so that there is no rounding error on each outer side when making a manufacturing method matrix.
From this, the kernel size can be calculated as (r × 2) +1.

比率kに対して忠実度をdBで表現すると、次のようになる。
k=0.7:45dB、k=0.8:49dB、k=0.9:55dB、k=0.95:59dBとなる。忠実度が50dBを確保するには、k=0.8以上が必要である。
The fidelity expressed in dB with respect to the ratio k is as follows.
k = 0.7: 45 dB, k = 0.8: 49 dB, k = 0.9: 55 dB, k = 0.95: 59 dB. To ensure fidelity of 50 dB, k = 0.8 or higher is required.

必要条件は上記の通りであるが、実用になるパラメータを迅速に決定するためには、パラメータを自動算出する必要がある。
本案ではパラメータを復元量(復元深度)tと精度(比率)kの2つを決定すると他のパラメータは算術的に決定されるアルゴリズムを用いて自動算出を行う。
1. 拡散の初期値σ0=√(t+0.5) 経験的に求めた数値
2. 拡散の初期値σ1=1.44σ0 非特許文献1より
3. ガウシアン/LOGカーネルサイズn=2((σ1-0.8)/0.3+1.0)+1
非特許文献2よりσ=0.3(n/2-1)+0.8から逆算して概算奇数
4. 分解回数J=σj≦0.7となるj LOGの中心が(0±0.5,0±0.5)以内に収まるσ=0.7、精度kが1.0に近い場合、分解回数Jが非常に大きくなる可能性がある。
The necessary conditions are as described above, but in order to quickly determine the parameters for practical use, it is necessary to automatically calculate the parameters.
In this proposal, when two parameters, the restoration amount (restoration depth) t and the accuracy (ratio) k, are determined, the other parameters are automatically calculated using an algorithm that is determined arithmetically.
1. Initial value of diffusion σ 0 = √ (t + 0.5) Numerical value obtained empirically 2. Initial value of diffusion σ 1 = 1.44σ 0 From Non-Patent Document 1 3. Gaussian / LOG kernel size n = 2 ((() σ 1 -0.8) /0.3+1.0)+1
Approximately odd number calculated back from σ = 0.3 (n / 2-1) +0.8 from Non-Patent Document 2. 4. Number of decompositions J = σ j ≤ 0.7 The center of j LOG is within (0 ± 0.5, 0 ± 0.5) If σ = 0.7 and the accuracy k is close to 1.0, the number of decompositions J may become very large.

この場合、式17であるσj+1=kσj(k<1)を次式のように等差数列に置き換えて分解回数を削減する。
σj=σ1・(σ1・kσ1)・(j−1) (式19)
In this case, the number of decompositions is reduced by replacing σ j + 1 = kσ j (k <1) in Equation 17 with an arithmetic progression as in the following equation.
σ j = σ 1・ (σ 1・ kσ 1 ) ・ (j−1) (Equation 19)

復元処理のアルゴリズムは、主に準備処理、分解処理と再構成処理の3つに分かれる。
先ず、準備処理では、以下の処理が必要となる。復元画像I'(x,y)を表す式18を処理するには、fjが必要である。fjは式12によって算出される。式12と式18では、拡散値σ0 2のガウシアンカーネルと拡散値σ1 2〜σJ 2のJ個のLOGカーネルが必要である。これらのカーネルは、入力パラメータである復元量(復元深度)tと精度(比率)kから自動計算される拡散の初期値σ01より、式1及び式10で算出する。
The restoration processing algorithm is mainly divided into three types: preparation processing, decomposition processing, and reconstruction processing.
First, in the preparatory process, the following process is required. F j is required to process Equation 18 representing the restored image I'(x, y). f j is calculated by Equation 12. Equations 12 and 18 require a Gaussian kernel with a diffusion value of σ 0 2 and J LOG kernels with a diffusion value of σ 1 2 to σ J 2 . These kernels are calculated by Equations 1 and 10 from the initial values σ 0 and σ 1 of diffusion automatically calculated from the input parameters restoration amount (restoration depth) t and accuracy (ratio) k.

σ0〜σJは再構成処理のため、式17により配列等に記憶しておく。但し、分解回数Jが一定以上大きい場合(実装のメモリ容量などで規定)は、式19を利用する。 Since σ 0 to σ J are reconstructed, they are stored in an array or the like by Equation 17. However, when the number of decompositions J is larger than a certain level (specified by the memory capacity of the mounting), Equation 19 is used.

次に、分解処理では、以下の処理が行われる。カーネルが用意できたら式12の前半に従って、劣化画像f(x,y)と、劣化画像f(x,y)に拡散値σ0 2のガウシアンカーネルGσ0 2を適用したGσ0 2*f0との差を求め、これをf1とする。次いで、式12の後半に従って、f1と、f1に拡散値σ1 2のLOGカーネルLOGσ1 2を適用したLOGσ1 2*f1との差を求め、これをf2とする。以下fJまでこの処理を繰り返し、劣化画像f(x,y)の分解画像f1〜fJをJ枚得る。 Next, in the decomposition process, the following process is performed. Once the kernel is ready, according to the first half of Equation 12, Gσ 0 2 * f 0 obtained by applying the Gaussian kernel Gσ 0 2 with a diffusion value of σ 0 2 to the deteriorated image f (x, y) and the deteriorated image f (x, y). Find the difference with and let this be f 1 . Then, according to the second half of the equation 12, and f 1, we obtain the difference between LOGσ 1 2 * f 1 to which the LOG kernel LOGσ 1 2 diffusion values sigma 1 2 to f 1, which is referred to as f 2. Repeat this process until the following f J, obtained J Like the separation image f 1 ~f J degraded image f (x, y).

次に、再構成処理では、以下の処理が行われる。式18に従って、分解画像f1〜fJに対して拡散値σ1 2 -t〜σJ 2 -tの復元LOGカーネルを適用し、全ての画像の和を求める。次いで、劣化画像f(x,y)に拡散値σ0 2 -tの復元ガウシアンカーネルを適用し、その画像に上記の復元LOGカーネルを適用した全ての画像を加算して、復元画像I'(x,y)とする。 Next, in the reconstruction process, the following process is performed. According to Equation 18, the restored LOG kernel having the diffusion values σ 1 2 -t to σ J 2 -t is applied to the decomposed images f 1 to f J , and the sum of all the images is calculated. Next, a restored Gaussian kernel having a diffusion value of σ 0 2 -t is applied to the deteriorated image f (x, y), and all the images to which the above restored LOG kernel is applied are added to the image to restore the image I'(. Let x, y).

ここでは、グレースケールを前提としたアルゴリズムである。従って、入力画像(劣化画像)は先ずYUVの色空間に変換され、Y画像(Yプレーン)のみに対して上記復元処理が適用される。 Here, the algorithm is based on grayscale. Therefore, the input image (deteriorated image) is first converted into the YUV color space, and the restoration process is applied only to the Y image (Y plane).

次に、本発明に係る画像復元方法について、図2に示すフローチャートに従って説明する。先ず、劣化画像(入力画像)f(x,y)をYUVの色空間に変換する(ステップSP1)。次いで、YUVの色空間のうちのY画像(Yプレーン)f0を32ビット化する(ステップSP2)。 Next, the image restoration method according to the present invention will be described with reference to the flowchart shown in FIG. First, the deteriorated image (input image) f (x, y) is converted into the YUV color space (step SP1). Next, the Y image (Y plane) f 0 in the YUV color space is converted into 32 bits (step SP2).

ステップSP3では、入力パラメータ(復元深度t、比率k)からσ0Jの拡散値配列を作成する(式17または式19)。ステップSP4では、拡散値σ0 2のガウシアンカーネルGσ0 2を作成する(式1)。ステップSP5では、拡散値σ1 2〜σJ 2のLOGカーネルLOGσ1 2〜LOGσJ 2を作成する(式10)。 In step SP3, a diffusion value array of σ 0 to J is created from the input parameters (restoration depth t, ratio k) (Equation 17 or Equation 19). In step SP4, a Gaussian kernel G σ 0 2 having a diffusion value σ 0 2 is created (Equation 1). In step SP5, to create a LOG kernel LOGσ 1 2 ~LOGσ J 2 diffusion value σ 1 2 J 2 (Equation 10).

ステップSP6では、拡散値配列の配列内容を単純に、σを−tとした復元深度配列を作成する。ステップSP7では、ステップSP4,SP5と同様の作業をステップSP6の腹元深度配列で行い、復元カーネルを作成する。ここまで、ステップSP1〜ステップSP7が準備処理工程である。 In step SP6, the restoration depth array is created with σ as −t, simply by using the array contents of the diffusion value array as −t. In step SP7, the same work as in steps SP4 and SP5 is performed with the abdominal depth array in step SP6 to create a restored kernel. Up to this point, steps SP1 to SP7 are preparatory processing steps.

次いで、ステップSP8では、Y画像f0にステップSP4の拡散値σ0 2のガウシアンカーネルGσ0 2を適用した画像Gσ0 2*f0をY画像f0から引いて1回分解後の分解画像f1を生成する(f1=f0−Gσ0 2*f0)。ステップSP9では、(j−1)回分解後の分解画像fj-1にステップSP5の拡散値σj-1 2のLOGカーネルLOGσj-1 2を適用した画像LOGσj-1 2*fj-1を(j−1)回分解後の分解画像fj-1から引いてj回分解後の分解画像fjを生成する(fj=fj-1−LOGσ1 2*fj-1)。 Then, in step SP8, Y image diffusion value of f 0 in step SP4 sigma 0 2 of Gaussian kernel Jishiguma 0 image 2 was applied Gσ 0 2 * f 0 the separation image after one exploded subtracted from the Y image f 0 to generate the f 1 (f 1 = f 0 -Gσ 0 2 * f 0). In step SP9, the image LOGσ j-1 2 * f j in which the LOG kernel LOGσ j-1 2 of the diffusion value σ j-1 2 of step SP5 is applied to the decomposed image f j-1 after (j-1) decomposition. -1 is subtracted from the decomposed image f j-1 after (j-1) decomposition to generate the decomposed image f j after j decomposition (f j = f j-1 −LOGσ 1 2 * f j-1 ).

ステップSP10では、j(1≦j≦J)がJと等しいか否かが判断され、j<Jの場合にはステップSP9に戻って分解画像fjを生成し、j=Jの場合にはステップSP11へ進む。ここまで、ステップSP8〜ステップSP10が分解処理工程であり、分解画像をJ枚得る。 In step SP10, it is determined whether or not j (1 ≦ j ≦ J) is equal to J. If j <J, the process returns to step SP9 to generate the decomposed image f j , and if j = J, the decomposed image f j is generated. Proceed to step SP11. Up to this point, steps SP8 to SP10 are decomposition processing steps, and J images of decomposition are obtained.

次いで、ステップSP11では、分解画像f1〜fJにそれぞれステップSP7で作成した復元LOGカーネルLOGσ1 2 -t〜LOGσJ 2 -tを適用し、全ての画像の和を求めて総和画像を作成する。ステップSP12では、Y画像にステップSP7で作成した復元ガウシアンカーネルGσ0 2 -tを適用し、ステップSP11で作成した総和画像と加算する。 Next, in step SP11, the restored LOG kernels LOGσ 1 2 -t to LOGσ J 2 -t created in step SP7 are applied to the decomposed images f 1 to f J , respectively, and the sum of all the images is obtained to create a total image. To do. In step SP12, the restored Gaussian kernel Gσ 0 2 -t created in step SP7 is applied to the Y image, and the summed image created in step SP11 is added.

ステップSP13では、Y画像を劣化画像(入力画像)f(x,y)のビット深度に戻す。ステップSP14では、ステップSP13で得た画像をYプレーンとして劣化画像(入力画像)f(x,y)のUVプレーンと合成し、復元画像I'(x,y)として出力する。ステップSP11〜ステップSP14が再構成処理工程である。 In step SP13, the Y image is returned to the bit depth of the deteriorated image (input image) f (x, y). In step SP14, the image obtained in step SP13 is combined with the UV plane of the deteriorated image (input image) f (x, y) as a Y plane, and output as a restored image I'(x, y). Steps SP11 to SP14 are reconstruction processing steps.

図3は分解処理・復元処理におけるラインバッファ操作方法を示し、分解処理工程(ステップSP8〜ステップSP10)及び再構成処理工程(ステップSP11)において、J=3の場合である。 FIG. 3 shows a line buffer operation method in the decomposition processing / restoration processing, and is the case of J = 3 in the decomposition processing step (step SP8 to step SP10) and the reconstruction processing step (step SP11).

Y画像f0から分解画像f1、分解画像f2、分解画像f3を生成する作業及び分解画像f1〜f3に復元LOGカーネルLOGσ1 2 -t〜LOGσ3 2 -tを適用し、全ての画像の和を求めて総和画像を作成する作業が、処理時刻(1〜8)毎に各ラインバッファ(LBLV1〜LBLV4)において並行処理される。
ここで、ラインバッファは入力画像の水平画素数×カーネル縦サイズの大きさを持つ一時記憶メモリである。
Work to generate decomposed image f 1 , decomposed image f 2 , decomposed image f 3 from Y image f 0 and restore to decomposed images f 1 to f 3 Apply LOG kernel LOGσ 1 2 -t to LOGσ 3 2 -t . The work of obtaining the sum of all the images and creating the summed image is processed in parallel in each line buffer (LBLV1 to LBLV4) at each processing time (1 to 8).
Here, the line buffer is a temporary storage memory having a size of the number of horizontal pixels of the input image × the size of the kernel vertical size.

具体的には、最初の時刻(図3の最上段)では、ラインバッファ(LV1)からY画像f0を読み込み、ラインバッファ(LV2)に分解画像f1を書き込む。
次の時刻(図3の上から2段目)では、ラインバッファ(LV1)にリードモディファイ(f0−=f0*G−)を書き込み、ラインバッファ(LV3)に分解画像f2を書き込む。
次の時刻(図3の上から3段目)では、ラインバッファ(LV2)にリードモディファイ(f1−=f1−*L1−)を書き込み、ラインバッファ(LV4)に分解画像f3を書き込む。
次の時刻(図3の上から4段目)では、ラインバッファ(LV3)にリードモディファイ(f2−=f2−*L2−)を書き込み、ラインバッファ(LV4)にリードモディファイ(f3−=f3−*L3−)を書き込む。
次の時刻(図3の上から5段目)では、ラインバッファ(LV4)から(f3−)を読み取り、ラインバッファ(LV3)に(f2−)+(f3−)を書き込む。
次の時刻(図3の上から6段目)では、ラインバッファ(LV3)から(f2−)+(f3−)を読み取り、ラインバッファ(LV2)に(f1−)+(f2−)+(f3−)を書き込む。
次の時刻(図3の上から7段目)では、ラインバッファ(LV2)から(f1−)+(f2−)+(f3−)を読み取り、ラインバッファ(LV1)に(f0−)+(f1−)+(f2−)+(f3−)を書き込む。
このように処理時刻毎に各ラインバッファにおいて並行処理されることにより、分解処理及び復元処理の迅速化が可能になる。
Specifically, at the first time (top of FIG. 3), the Y image f 0 is read from the line buffer (LV1), and the decomposed image f 1 is written in the line buffer (LV2).
At the next time (second stage from the top of FIG. 3), the read modify (f 0 − = f 0 * G−) is written in the line buffer (LV1), and the decomposed image f 2 is written in the line buffer (LV3).
At the next time (third stage from the top of FIG. 3), the read modify (f 1 − = f 1 − * L1-) is written in the line buffer (LV2), and the decomposed image f 3 is written in the line buffer (LV4). ..
At the next time (fourth stage from the top of FIG. 3), read modify (f 2- = f 2- * L2-) is written to the line buffer (LV3), and read modify (f 3 −) is written to the line buffer (LV4). = F 3- * L3-) is written.
At the next time (fifth stage from the top of FIG. 3), (f 3 −) is read from the line buffer (LV4), and (f 2 −) + (f 3 −) is written in the line buffer (LV3).
At the next time (6th step from the top of FIG. 3), (f 2 −) + (f 3 −) is read from the line buffer (LV 3), and (f 1 −) + (f 2 ) is added to the line buffer (LV 2). -) + (F 3 −) is written.
At the next time (7th stage from the top of FIG. 3), (f 1 −) + (f 2 −) + (f 3 −) is read from the line buffer (LV2), and (f 0 ) is set in the line buffer (LV1). Write-) + (f 1 −) + (f 2 −) + (f 3 −).
By performing parallel processing in each line buffer at each processing time in this way, it is possible to speed up the decomposition processing and the restoration processing.

図4はレンズ収差により劣化した画像の(a)は復元前の画像、(b)は復元後の画像である。
また、図5は一般的に用いられるテストチャートを用いたものであり、(a)は原画、(b)は原画のぼかし画像、(c)はぼかし画像を本発明方法で復元した画像である。
これらの画像から、本発明方法によりレンズの収差によるガウス型のボケによる劣化画像が復元されていることが分かる。
In FIG. 4, (a) is an image before restoration and (b) is an image after restoration of the image deteriorated due to lens aberration.
Further, FIG. 5 shows a generally used test chart, in which (a) is an original image, (b) is a blurred image of the original image, and (c) is an image obtained by restoring the blurred image by the method of the present invention. ..
From these images, it can be seen that the deteriorated image due to the Gauss-shaped blur due to the aberration of the lens is restored by the method of the present invention.

本発明によれば、画像の劣化過程を表す関数がガウス型関数である観測画像(劣化画像)を復元してぼけのない原画像にできるだけ近い復元画像を得ることができる画像復元方法を提供することができる。 According to the present invention, there is provided an image restoration method capable of restoring an observed image (deteriorated image) in which a function representing an image deterioration process is a Gaussian function to obtain a restored image as close as possible to the original image without blurring. be able to.

1…画像復元装置、2…準備処理手段、3…分解処理手段、4…再構成処理手段。 1 ... Image restoration device, 2 ... Preparation processing means, 3 ... Disassembly processing means, 4 ... Reconstruction processing means.

Claims (2)

劣化画像を復元してぼけのない原画像にできるだけ近い復元画像を得る画像復元方法であって、劣化画像をYUVの色空間に変換する準備処理工程と、この準備処理工程によって得たYUVの色空間のうちのY画像(Yプレーン)を複数の分解画像に分解する分解処理工程と、この分解処理工程によって得た分解画像を再構成してY画像(Yプレーン)とすると共に前記準備処理工程で変換したUV画像(UVプレーン)と合成して復元画像とする再構成処理工程を備え、
前記分解処理工程は、以下の工程1〜3からなり、
工程1.Y画像f0に拡散値σ0 2のガウシアンカーネルGσ0 2を適用した画像Gf00 2)をY画像f0から引いて1回分解後の分解画像f1を生成する(f1=f−f0*Gσ0 2)。
工程2.1回分解後の分解画像f1に拡散値σ1 2のLOGカーネルLOGσ1 2を適用した画像f1*LOGσ1 2を1回分解後の分解画像f1から引いて2回分解後の分解画像f2を生成する(f2=f1−f1*LOGσ1 2)。
工程3.工程2と同様な作業を繰り返して分解画像fJまで生成し、分解画像をJ枚得る。
前記再構成処理工程は、以下の工程4〜7からなることを特徴とする画像復元方法。
工程4.分解画像f1〜fJにそれぞれ前記準備処理工程で作成した復元LOGカーネルLOGσ1 2 -t〜LOGσJ 2 -tを適用し、全ての画像の和を求めて総和画像を作成する。
工程5.Y画像に前記準備処理工程で作成した復元ガウシアンカーネルGσ0 2 -tを適用し、工程4で作成した総和画像と加算する。
工程6.Y画像を入力画像f(x,y)のビット深度に戻す。
工程7.工程6で得た画像をYプレーンとして入力画像f(x,y)のUVプレーンと合成して復元画像I'(x,y)として出力する。
This is an image restoration method for restoring a deteriorated image to obtain a restored image as close as possible to the original image without blurring. A preparatory process for converting a deteriorated image into a YUV color space and a YUV color obtained by this preparatory process. A decomposition processing step of decomposing a Y image (Y plane) in space into a plurality of decomposed images, and a decomposition processing step of reconstructing the decomposed image obtained by this decomposition processing step to obtain a Y image (Y plane) and the preparatory processing step. It is equipped with a reconstruction processing process that combines with the UV image (UV plane) converted in step 1 to create a restored image.
The decomposition treatment step comprises the following steps 1 to 3.
Process 1. Y in the image f 0 of the diffusion values sigma 0 2 Gaussian kernel Jishiguma 0 image 2 was applied Gf 0 * σ 0 2) is subtracted from the Y image f 0 to generate the decomposed image f 1 of the decomposed once (f 1 = F−f 0 * Gσ 0 2 ).
Pull the process 2.1 times degradation after separation image f 1 image f 1 * LOGshiguma 1 2 according to the LOG kernel LOGshiguma 1 2 diffusion values sigma 1 2 from separation image f 1 after one exploded twice degradation The later decomposed image f 2 is generated (f 2 = f 1 −f 1 * LOGσ 1 2 ).
Process 3. The same operation as in step 2 is repeated to generate decomposed images f J , and J decomposed images are obtained.
The image restoration method, wherein the reconstruction processing step comprises the following steps 4 to 7.
Process 4. The restored LOG kernels LOGσ 1 2 -t to LOGσ J 2 -t created in the preparatory processing step are applied to the decomposed images f 1 to f J , respectively, and the sum of all the images is obtained to create a total image.
Process 5. The restored Gaussian kernel Gσ 0 2 -t created in the preparatory process step is applied to the Y image, and the sum image created in step 4 is added.
Process 6. The Y image is returned to the bit depth of the input image f (x, y).
Process 7. The image obtained in step 6 is combined with the UV plane of the input image f (x, y) as a Y plane and output as a restored image I'(x, y).
請求項1に記載の画像復元方法において、前記分解処理工程及び前記再構成処理工程は、複数のラインバッファにより同時並行処理されることを特徴とする画像復元方法。 The image restoration method according to claim 1, wherein the decomposition processing step and the reconstruction processing step are simultaneously processed in parallel by a plurality of line buffers.
JP2016161436A 2016-08-19 2016-08-19 Image restoration method Active JP6763637B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016161436A JP6763637B2 (en) 2016-08-19 2016-08-19 Image restoration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016161436A JP6763637B2 (en) 2016-08-19 2016-08-19 Image restoration method

Publications (2)

Publication Number Publication Date
JP2018028868A JP2018028868A (en) 2018-02-22
JP6763637B2 true JP6763637B2 (en) 2020-09-30

Family

ID=61249111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016161436A Active JP6763637B2 (en) 2016-08-19 2016-08-19 Image restoration method

Country Status (1)

Country Link
JP (1) JP6763637B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816620B (en) * 2019-01-31 2021-01-05 深圳市商汤科技有限公司 Image processing method and device, electronic equipment and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4318874B2 (en) * 2001-08-31 2009-08-26 株式会社リコー Blurred image correction apparatus, image reading apparatus, image forming apparatus, and program
JP4799428B2 (en) * 2007-01-22 2011-10-26 株式会社東芝 Image processing apparatus and method
JP5614550B2 (en) * 2009-08-19 2014-10-29 日本電気株式会社 Image processing method, image processing apparatus, and program
CN106134177B (en) * 2014-03-31 2019-05-28 富士胶片株式会社 Image processing apparatus, camera, image processing method and image processing program

Also Published As

Publication number Publication date
JP2018028868A (en) 2018-02-22

Similar Documents

Publication Publication Date Title
US8737761B2 (en) Method for restoring and enhancing space based image of point or spot objects
US7912307B2 (en) Deconvolution method using neighboring-pixel-optical-transfer-function in fourier domain
EP3055831B1 (en) Method and system for processing an image
Gupta et al. Image denoising with linear and non-linear filters: a review
JP2007018379A (en) Image processing method and image processing device
CN114511473B (en) Hyperspectral remote sensing image denoising method based on unsupervised adaptive learning
JP2017010095A (en) Image processing apparatus, imaging device, image processing method, image processing program, and recording medium
Rani et al. A brief review on image restoration techniques
KR20190067111A (en) Motion deblurring method and apparatus
JP5105286B2 (en) Image restoration apparatus, image restoration method, and image restoration program
JP4945532B2 (en) Degraded image restoration method, degraded image restoration device, and program
JP6763637B2 (en) Image restoration method
Lanza et al. Space-variant TV regularization for image restoration
CN112164006B (en) Image color homogenizing method and device, electronic equipment and storage medium
Zhao et al. Reaction–diffusion equation based image restoration
CN110930331B (en) Noise blurred image non-blind restoration method, system and storage medium
CN108230251A (en) Combined type image recovery method and device
Jezierska et al. A convex approach for image restoration with exact poisson-gaussian likelihood
Jidesh A convex regularization model for image restoration
Lu Out-of-focus blur: Image de-blurring
Jung et al. Kernel design for real-time denoising implementation in low-resolution images
JP5743772B2 (en) Image processing system
KR102126916B1 (en) Apparatus and method for reconstructing blurred image
WO2017183297A1 (en) Image processing device, image processing program and image processing method, and image transmission/reception system and image transmission/reception method
Oguzhanoglu et al. Comparison of Satellite Image Denoising Techniques in Spatial and Frequency Domains

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200909

R150 Certificate of patent or registration of utility model

Ref document number: 6763637

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250