KR101868266B1 - Method for deblurring blur image by using sparse representation algorithm and apparatus for the same - Google Patents

Method for deblurring blur image by using sparse representation algorithm and apparatus for the same Download PDF

Info

Publication number
KR101868266B1
KR101868266B1 KR1020170011906A KR20170011906A KR101868266B1 KR 101868266 B1 KR101868266 B1 KR 101868266B1 KR 1020170011906 A KR1020170011906 A KR 1020170011906A KR 20170011906 A KR20170011906 A KR 20170011906A KR 101868266 B1 KR101868266 B1 KR 101868266B1
Authority
KR
South Korea
Prior art keywords
image
blur
noise
fryer
bases
Prior art date
Application number
KR1020170011906A
Other languages
Korean (ko)
Inventor
이승용
안택현
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020170011906A priority Critical patent/KR101868266B1/en
Application granted granted Critical
Publication of KR101868266B1 publication Critical patent/KR101868266B1/en

Links

Images

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/003Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

Disclosed is a deblurring method using a sparse representation algorithm performed in a deblurring apparatus. The method comprises the steps of: obtaining a plurality of prier images based on a sparse representation algorithm from a photographed image including a noise and a blur; estimating a primitive image and a blur kernel variable; and outputting a deblurred image through the estimated primitive image and the blur kernel variable. Accordingly, deblurring can be provided with excellent performance even under an environment having a great image noise.

Description

희소표현 알고리즘을 이용한 블러 영상 디블러링 방법 및 장치 {METHOD FOR DEBLURRING BLUR IMAGE BY USING SPARSE REPRESENTATION ALGORITHM AND APPARATUS FOR THE SAME}[0001] The present invention relates to a method and apparatus for blurring image blurring using a sparse representation algorithm,

본 발명은 블러 영상 디블러링 기법 에 관한 것으로, 희소표현 알고리즘을 이용한 잡음 있는 블러 영상 블라인드 디블러링 방법 및 장치에 관한 것이다.The present invention relates to a blurred image blurring technique, and more particularly, to a noise blurred image blurred blurring method and apparatus using a sparse rendering algorithm.

영상의 블러(blur)란 영상 왜곡을 의미할 수 있다. 영상의 블러의 발생원인은 다양하다. 블러란 대표적으로 사진 ㅋ촬영 시의 노출시간 동안 카메라나 카메라 시야 범위 내의 물체가 움직임으로써 사진 전체나 해당 물체 부분이 번져 보이는 영상 왜곡의 한 형태일 수 있다.Blur of an image can mean image distortion. The causes of image blur are various. Blur is typically a type of image distortion in which the entire image or part of the object is blurred by moving objects within the camera or camera field of view during the exposure time of photographs.

블러를 제거 하는 것을 영상 디블러링이라 한다. 디블러링은 블러의 형태를 나타내는 블러 커널(blur kernel)을 알고 있다고 가정하고 블러가 제거 된 영상만 획득하는 논블라인드 디블러링(non-blind deblurring)과 블러 커널과 블러가 제거 된 영상을 동시에 획득하는 블라인드 디블러링(blind deblurring)으로 나눌 수 있다. Removing the blur is called image de-blurring. It is assumed that a blur kernel representing a type of blur is known, and a non-blind deblurring that acquires only a blur removed image and a blur kernel and a blur removed image at the same time It can be divided into blind deblurring to be acquired.

영상 편집 및 분석 등 많은 영상정보처리 분야에서는 입력영상이 퀄리티가 결과에 영향을 미친다. 블러는 입력영상의 퀄리티에 영향을 미칠 수 있기 때문에 디블러링에 대한 구체적인 연구가 필요했다.In many image information processing fields such as image editing and analysis, the quality of the input image affects the result. Because blur can affect the quality of the input image, detailed study of de-blurring was needed.

일상 생활중에서도 블러는 빈번히 발생하며, 어두운 환경(저조도)에서 사진을 촬영하는 경우엔 블러 뿐만 아니라 영상에 잡음이 동반될 수 있다.Blur occurs frequently in everyday life, and when taking a picture in a dark environment (low light), noise may accompany the blur as well as the image.

하지만, 기존의 디블러링 알고리즘들은 이러한 잡음을 고려하지 않고 모델링(modeling)을 하였기 때문에, 잡음이 적은 경우에만 만족스러운 디블러된 영상을 얻을 수 있다.However, since conventional debloring algorithms do not consider such noise, they can obtain a satisfactory de-blurred image only when the noise is small.

구체적으로, 기존의 디블러링 알고리즘들은 입력영상 대비 5% 크기의 잡음만 추가 되면 디블러된 영상이 만족스럽지 못하거나, 블러 커널의 추정 조차 실패하는 경우가 빈번히 발생할 수 있다.Specifically, the existing de-blurring algorithms may not satisfactorily degrade the image if only noise of 5% of the input image is added, or even the estimation of the blur kernel may frequently fail.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 잡음 및 블러를 포함하는 영상에 대한 디블러링 방법을 제공하는 데 있다.In order to solve the above problems, an object of the present invention is to provide a method for deblurring images including noise and blur.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 디블러링 장치에서 수행되는 희소표현 알고리즘을 이용한 디블러링 방법은, 잡음 및 블러(blur)를 포함하는 촬영 영상을 획득하는 단계; 상기 촬영 영상의 해석을 위해 사용되는 복수의 기저들과 희소표현 계수의 선형적 결합인 희소표현 알고리즘에 기초하여, 상기 촬영 영상으로부터 복수의 프라이어(prior) 영상 변수들을 획득하는 단계; 상기 잡음 및 상기 블러를 제거하기 위해 상기 복수의 프라이어 영상 변수들을 포함하는 추정 알고리즘을 획득하는 단계; 상기 추정 알고리즘을 사용하여 상기 촬영 영상으로부터 상기 잡음이 제거된 원시 영상을 추정하는 단계; 상기 추정 알고리즘으로부터 상기 잡음의 포함 정도를 지시하는 블러 커널 변수를 추정하는 단계; 및 상기 원시 영상 및 상기 블러 커널 변수의 변화량이 미리 정해진 기준 이하인 경우 최종 영상을 출력하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of de-blurring using a sparse representation algorithm performed in a de-blurring apparatus, comprising: obtaining an image including noise and blur; Obtaining a plurality of prior image parameters from the photographed image based on a sparse representation algorithm that is a linear combination of a plurality of bases and a rare representation coefficient used for analysis of the photographed image; Obtaining an estimation algorithm including the plurality of fryer image parameters to remove the noise and the blur; Estimating the noise-removed original image from the photographed image using the estimation algorithm; Estimating a blur kernel variable indicating the degree of inclusion of the noise from the estimation algorithm; And outputting a final image when the amount of change of the original image and the blur kernel variable is less than or equal to a predetermined reference value.

여기서, 상기 희소표현 알고리즘을 통해 획득되는 상기 복수의 프라이어 영상 변수들은 상기 잡음이 제거된 제1 프라이어 영상 변수와 상기 잡음 및 상기 블러가 제거된 제2 프라이어 영상 변수를 포함할 수 있다.Here, the plurality of fryer image variables obtained through the sparse representation algorithm may include a first fryer image variable from which the noise is removed, and a second fryer image parameter from which the noise and the blur are removed.

여기서, 상기 제1 프라이어 영상 변수는 상기 희소표현 계수와 상기 블러를 포함하는 복수의 제1 기저들의 곱의 시그마 합으로 획득될 수 있다.Here, the first fryer image parameter may be obtained by a sigma sum of the product of the rare representation coefficient and a plurality of first bases including the blur.

여기서, 상기 제1 기저들은 상기 제2 프라이어 영상 변수 획득을 위해 필요한 상기 블러를 포함하지 않는 복수의 제2 기저들과 상기 블러 커널 변수의 콘볼루션을 통해 획득될 수 있다.Here, the first bases may be obtained through a convolution of the blur kernel variable and a plurality of second bases that do not include the blur required for obtaining the second fryer image variable.

여기서, 상기 제2 프라이어 영상 변수는 상기 희소표현 계수와 상기 블러를 포함하지 않는 복수의 제2 기저들의 곱의 시그마 합으로 획득될 수 있다.Here, the second fryer image parameter may be obtained by a sigma sum of the product of the rare representation coefficient and a plurality of second bases that do not include the blur.

여기서, 상기 희소표현 계수는 상기 블러를 포함하는 복수의 제1 기저들의 제곱근 오차를 기초로 획득될 수 있다.Here, the rare representation coefficient may be obtained based on a square root error of a plurality of first bases including the blur.

여기서, 상기 복수의 기저들은 잡음이 없는 영상들로부터 학습될 수 있다.Here, the plurality of bases can be learned from noisy images.

여기서, 상기 원시 영상은 상기 추정 알고리즘에서 상기 블러 커널 변수를 고정 시킴으로써 획득될 수 있다.Here, the source image can be obtained by fixing the blur kernel variable in the estimation algorithm.

여기서, 상기 블러 커널 변수는 상기 추정 알고리즘에서 상기 원시 영상을 고정 시킴으로써 획득될 수 있다.Here, the blur kernel variable may be obtained by fixing the source image in the estimation algorithm.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 디블러링 장치는, 프로세서(processor); 및 상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고, 상기 적어도 하나의 명령은, 잡음 및 블러(blur)를 포함하는 촬영 영상을 획득하고, 상기 촬영 영상의 해석을 위해 사용되는 복수의 기저들과 희소표현 계수의 선형적 결합인 희소표현 알고리즘에 기초하여, 상기 촬영 영상으로부터 복수의 프라이어(prior) 영상 변수들을 획득하고, 상기 잡음 및 상기 블러를 제거하기 위해 상기 복수의 프라이어 영상 변수들을 포함하는 추정 알고리즘을 획득하고, 상기 추정 알고리즘을 사용하여 상기 촬영 영상으로부터 상기 잡음이 제거된 원시 영상을 추정하고, 상기 추정 알고리즘으로부터 상기 잡음의 포함 정도를 지시하는 블러 커널 변수를 추정하고, 그리고 상기 원시 영상 및 상기 블러 커널 변수의 변화량이 미리 정해진 기준 이하인 경우 최종 영상을 출력하도록 실행 가능하다.According to an aspect of the present invention, there is provided a de-blurring apparatus comprising: a processor; And a memory in which at least one instruction executed via the processor is stored, wherein the at least one instruction is to acquire an imaging image including noise and blur, and to interpret the imaging image A plurality of prior image parameters are obtained from the photographed image based on a rare representation algorithm which is a linear combination of a plurality of bases used and a rare representation coefficient, Estimating an original image from which the noise has been removed from the photographed image using the estimation algorithm, estimating a blur kernel variable indicating the degree of inclusion of the noise from the estimation algorithm, And the amount of change of the original image and the blur kernel variable is determined in advance And outputting the final image if it is below the reference value.

여기서, 상기 희소표현 알고리즘을 통해 획득되는 상기 복수의 프라이어 영상 변수들은 상기 잡음이 제거된 제1 프라이어 영상 변수와 상기 잡음 및 상기 블러가 제거된 제2 프라이어 영상 변수를 포함하도록 실행 가능할 수 있다.Here, the plurality of fryer image variables obtained through the sparse representation algorithm may be executable to include the noise-removed first fryer image variable and the noise and the second fryer image variable from which the blur is removed.

여기서, 상기 제1 프라이어 영상 변수는 상기 희소표현 계수와 상기 블러를 포함하는 복수의 제1 기저들의 곱의 시그마 합으로 획득되도록 실행 가능할 수 있다.Here, the first fryer image variable may be executable to obtain a sigma sum of the product of the rare representation coefficient and a plurality of first bases including the blur.

여기서, 상기 제1 기저들은 상기 제2 프라이어 영상 변수 획득을 위해 필요한 상기 블러를 포함하지 않는 복수의 제2 기저들과 상기 블러 커널 변수의 콘볼루션을 통해 획득되도록 실행 가능할 수 있다.Here, the first bases may be operable to be obtained through convolution of the blur kernel variable with a plurality of second bases that do not include the blur required for obtaining the second fryer image variable.

여기서, 상기 제2 프라이어 영상 변수는 상기 희소표현 계수와 상기 블러를 포함하지 않는 복수의 제2 기저들의 곱의 시그마 합으로 획득되도록 실행 가능할 수 있다.Here, the second fryer image variable may be executable to obtain a sigma sum of the product of the rare representation coefficient and a plurality of second bases that do not include the blur.

여기서, 상기 희소표현 계수는 상기 블러를 포함하는 복수의 제1 기저들의 제곱근 오차를 기초로 획득되도록 실행 가능할 수 있다.Here, the rare representation coefficient may be executable to be obtained based on a square root error of a plurality of first bases including the blur.

여기서, 상기 복수의 기저들은 잡음이 없는 영상들로부터 학습되도록 실행 가능할 수 있다.Here, the plurality of bases may be executable to learn from noisy images.

여기서, 상기 원시 영상은 상기 추정 알고리즘에서 상기 블러 커널 변수를 고정 시킴으로써 획득되도록 실행 가능할 수 있다.Here, the source image may be executable to be obtained by fixing the blur kernel variable in the estimation algorithm.

여기서, 상기 블러 커널 변수는 상기 추정 알고리즘에서 상기 원시 영상을 고정 시킴으로써 획득되도록 실행 가능할 수 있다.Here, the blur kernel variable may be executable to be obtained by fixing the source image in the estimation algorithm.

본 발명에 의하면, 영상 디블리링을 수행함에 있어서 앞서 기술한 희소표현(sparse representation) 알고리즘을 이용하여 프라이어 영상를 생성하고 이들을 최적화 목표 식에 이용함으로써, 잡음에 강건한 디블러링된 최종영상 추정 및 블러 커널 추정을 할 수 있는 효과가 있다.According to the present invention, a fryer image is generated using a sparse representation algorithm described above in performing image debloring, and the generated fryer image is used in an optimization target expression to generate a noise- There is an effect that the kernel estimation can be performed.

도 1은 디블러링 장치의 구조를 도시한 블록도이다.
도 2는 디블러링 방법을 도시한 흐름도이다.
도 3은 희소표현 알고리즘을 사용한 디블러링 방법을 도시한 흐름도이다.
도 4는 블러를 포함하는 사전(기저)을 도시한 개념도이다.
도 5는 잡음이 제거된 제1 프라이어 영상을 획득하는 방법을 도시한 개념도이다.
도 6은 블러와 잡음이 제거된 제2 프라이어 영상을 획득하는 방법을 도시한 개념도이다.
도 7은 잡음이 13%인 경우 희소표현 알고리즘을 이용한 디블러링 장치의 상대적인 성능을 도시한 개념도이다.
도 8은 잡음이 8.5%인 경우 복수의 디블러링 장치들의 상대적은 성능을 도시한 개념도이다.
도 9는 잡음이 10%인 경우 복수의 디블러링 장치들의 상대적은 성능을 도시한 개념도이다.
도 10은 복수의 디블러링 장치들의 잡음 레벨 별 최대 신호 대 잡음비를 도시한 그래프이다.
1 is a block diagram showing the structure of a de-blurring apparatus.
FIG. 2 is a flow chart illustrating a debloring method.
3 is a flow chart illustrating a method for de-blurring using a sparse representation algorithm.
4 is a conceptual diagram showing a dictionary (base) including blur.
5 is a conceptual diagram illustrating a method for acquiring a noise-removed first fryer image.
6 is a conceptual diagram showing a method of acquiring a blur and a noise-removed second fryer image.
FIG. 7 is a conceptual diagram showing the relative performance of the de-blurring apparatus using the sparse representation algorithm when the noise is 13%.
8 is a conceptual diagram showing the relative performance of a plurality of de-blurring apparatuses when the noise is 8.5%.
9 is a conceptual diagram showing the relative performance of a plurality of de-blurring apparatuses when the noise is 10%.
10 is a graph showing the maximum signal-to-noise ratio for each noise level of a plurality of de-blurring apparatuses.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

아래에서, 본 발명에 따른 실시예들이 적용되는 무선 통신 네트워크(wireless communication network)가 설명될 것이다. 본 발명에 따른 실시예들이 적용되는 무선 통신 네트워크는 아래 설명된 내용에 한정되지 않으며, 본 발명에 따른 실시예들은 다양한 무선 통신 네트워크들에 적용될 수 있다.In the following, a wireless communication network to which embodiments according to the present invention are applied will be described. The wireless communication network to which the embodiments according to the present invention are applied is not limited to the following description, and the embodiments according to the present invention can be applied to various wireless communication networks.

도 1은 디블러링 장치의 구조를 도시한 블록도이다.1 is a block diagram showing the structure of a de-blurring apparatus.

도 1을 참조하면, 디블러링 장치(100)는 적어도 하나의 프로세서(110) 및 메모리(120)를 포함할 수 있다. 또한, 디블러링 장치(100)는 입력 인터페이스 장치(130), 출력 인터페이스 장치(140), 저장 장치(150) 등을 더 포함할 수 있다. 디블러링 장치(100)에 포함된 각각의 구성들은 버스(bus)(160)에 의해 연결되어 서로 통신을 수행할 수 있다.Referring to FIG. 1, the deblurring apparatus 100 may include at least one processor 110 and a memory 120. The deblurring apparatus 100 may further include an input interface device 130, an output interface device 140, a storage device 150, and the like. Each of the components included in the de-blurring apparatus 100 may be connected by a bus 160 to communicate with each other.

프로세서(110)는 메모리(120) 및/또는 저장 장치(150)에 저장된 프로그램 명령을 실행할 수 있다. 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 본 발명에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120)와 저장 장치(150)는 휘발성 저장 매체 및/또는 비휘발성 저장 매체로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및/또는 랜덤 액세스 메모리(random access memory, RAM)로 구성될 수 있다.The processor 110 may execute program instructions stored in the memory 120 and / or the storage device 150. [ The processor 110 may refer to a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which the methods according to the present invention are performed. The memory 120 and the storage device 150 may be composed of a volatile storage medium and / or a non-volatile storage medium. For example, memory 120 may be comprised of read only memory (ROM) and / or random access memory (RAM).

도 2는 디블러링 방법을 도시한 흐름도이다.FIG. 2 is a flow chart illustrating a debloring method.

도 2를 참조하면, 디블러링 장치는 프로세서에 의해 디블러링과 관련된 절차를 수행할 수 있다. 디블러링 장치는 영상의 노이즈를 지시하는 잡음(noise) 및 촬영 기기의 흔들림 등으로 인해 발생하는 블러(blur)를 포함하는 촬영 영상을 획득할 수 있다(S200).Referring to FIG. 2, the de-blurring apparatus may perform a procedure related to de-blurring by a processor. The de-blurring apparatus can acquire a photographed image including blur caused by noise indicating image noise and shaking of the photographing apparatus (S200).

구체적으로, 블러 및 잡음을 포함하는 촬영 영상

Figure 112017008893257-pat00001
은 블러가 없는 원시 영상과 블러 커널 변수의 콘볼루션과 잡음
Figure 112017008893257-pat00002
의 합으로 모델링될 수 있다. 해당 수식은 다음과 같은 수학식으로 표현될 수 있다.Specifically, a photographed image including blur and noise
Figure 112017008893257-pat00001
Convolution and Noise of Blur-Free Source Images and Blur Kernel Variables
Figure 112017008893257-pat00002
. ≪ / RTI > The corresponding equation can be expressed by the following equation.

Figure 112017008893257-pat00003
Figure 112017008893257-pat00003

주어진 블러 영상만으로 디블러 된 영상 및 블러 커널을 함께 구해야 하기 때문에, 조직화 항을 추가해(regularization term) 계산하는 것이 일반적이다. 주로 원시 영상 및 블러 커널 변수에 대한 조직화 항을 추가함으로써 다음과 같은 형태의 수식을 최적화할 수 있다.It is common to calculate the regularization term because the image and the blur kernel must be obtained together with a given blur image only. Primarily, we can optimize the form of the following form by adding an organizing term for the raw image and blur kernel variables.

Figure 112017008893257-pat00004
Figure 112017008893257-pat00004

수학식 2에서

Figure 112017008893257-pat00005
Figure 112017008893257-pat00006
는 각각
Figure 112017008893257-pat00007
,
Figure 112017008893257-pat00008
에 해당하는 조직화 항일 수 있다. 원시 영상
Figure 112017008893257-pat00009
은 실제 영상의 잠재 영상(latent image)일 수 있다. 수학식 2의 argmin 함수는
Figure 112017008893257-pat00010
식을 최소화 할 수 있는 변수 값을 도출하는 알고리즘일 수 있다. 디블러링 장치는 원시 영상을 수학식 2의 변수
Figure 112017008893257-pat00011
을 고정 시킨 상태에서
Figure 112017008893257-pat00012
에 대한 식을 풀어서 획득할 수 있다. In Equation 2,
Figure 112017008893257-pat00005
And
Figure 112017008893257-pat00006
Respectively
Figure 112017008893257-pat00007
,
Figure 112017008893257-pat00008
Can be an organizing part corresponding to < RTI ID = 0.0 > Raw video
Figure 112017008893257-pat00009
May be a latent image of the actual image. The argmin function in equation (2)
Figure 112017008893257-pat00010
It can be an algorithm that derives a variable value that minimizes the expression. The de-blurring device transforms the raw image into the variable < RTI ID = 0.0 >
Figure 112017008893257-pat00011
In a fixed state
Figure 112017008893257-pat00012
Can be obtained by solving the equation for.

디블러링 장치는 블러 커널 변수를 수학식 2의 변수

Figure 112017008893257-pat00013
을 고정 시킨 상태에서
Figure 112017008893257-pat00014
에 대한 식을 풀어서 획득할 수 있다. 디블러링 장치는 원시 영상 및 블러 커널 변수가 미리 설정된 기준 이상으로 변화가 없는 경우 최종 영상을 출력할 수 있다. The de-blurring device uses the blur kernel variable as a variable in equation
Figure 112017008893257-pat00013
In a fixed state
Figure 112017008893257-pat00014
Can be obtained by solving the equation for. The deblurring unit can output the final image if the original image and the blur kernel variable do not change above a preset reference.

디블러링 장치는 블러를 제거하기 위한 추정 알고리즘을 획득할 수 있다. 디블러링 장치는 추정 알고리즘으로부터 잡음이 제거된 원시 영상

Figure 112017008893257-pat00015
을 추정할 수 있다(S210). 디블러링 장치는 추정 알고리즘으로부터 잡음 포함 정도를 지시하는 블러 커널(blur kernel)변수
Figure 112017008893257-pat00016
를 추정할 수 있다(S220).The de-blurring device may obtain an estimation algorithm for removing the blur. The de-blurring device is a noise-
Figure 112017008893257-pat00015
(S210). The de-blurring apparatus includes a blur kernel variable indicating the degree of noise inclusion from the estimation algorithm
Figure 112017008893257-pat00016
(S220).

디블러링 장치는 원시 영상 및 블러 커널 변수 값이 미리 정해진 기준 이상인지 여부를 판단할 수 있다(S230). 디블러링 장치는 원시 영상 및 블러 커널 변수의 변화량이 미리 정해진 기준 이하인 경우 S210-S230 과정을 반복할 수 있다.The deblurring apparatus can determine whether the raw image and blur kernel variable values are equal to or greater than a predetermined reference (S230). The de-blurring apparatus can repeat steps S210-S230 if the amount of change of the original image and the blur kernel variable is less than or equal to a predetermined standard.

디블러링 장치는 원시 영상 및 블러 커널 변수 값이 미리 정해진 기준 이상인 경우 최종 영상을 출력할 수 있다(S240).The deblurring apparatus can output the final image when the values of the original image and the blur kernel variable are equal to or greater than a predetermined reference (S240).

도 3은 희소표현 알고리즘을 사용한 디블러링 방법을 도시한 흐름도이다.3 is a flow chart illustrating a method for de-blurring using a sparse representation algorithm.

도 3을 참조하면, 디블러링 장치는 조직화 항이 포함된 희소표현 알고리즘(또는 "희소표현")을 생성하고, 생성된 희소표현 알고리즘이 포함된 추정 알고리즘을 통해 디블러링을 수행할 수 있다.Referring to FIG. 3, the de-blurring apparatus may generate a rare representation algorithm (or "sparse representation") that includes an organizing term and perform debloring through an estimation algorithm including the generated sparse representation algorithm.

희소표현 알고리즘은 주어진 데이터

Figure 112017008893257-pat00017
를 기저(basis,
Figure 112017008893257-pat00018
)(또는 사전(dictionary))들의 선형적 결합(linear combination, 결합계수 {
Figure 112017008893257-pat00019
})으로 근사표현을 하는 것을 의미할 수 있다. The sparse representation algorithm uses the given data
Figure 112017008893257-pat00017
(Basis,
Figure 112017008893257-pat00018
(Or dictionary combinations) (linear combination,
Figure 112017008893257-pat00019
}) Can be approximated.

구체적으로, 희소표현 알고리즘(또는 convolutional sparse coding; CPC)은 희소표현 계수와 영상 맵(map)인 기저 필터의 콘볼루션의 합계로 전체 영상를 표현하는 것을 의미할 수 있다.In particular, a convolutional sparse coding (CPC) may represent a full image as a sum of the convolution of the base filter, which is a sparse representation coefficient and an image map.

결합된 기저(coupled dictionary) 개념은 입력 소스 표현 및 목표 표현 사이에 매핑(mapping)이 존재하는 것을 의미할 수 있다. 희소표현 알고리즘을 표현한 수학식은 다음과 같을 수 있다.The coupled coupled concept may mean that there is a mapping between the input source representation and the target representation. The expression for the sparse representation algorithm may be as follows.

Figure 112017008893257-pat00020
Figure 112017008893257-pat00020

기저들은 잡음이 없는 촬영 영상들로부터 학습되고, 소수의 기저들로 데이터를 표현하기 때문에 희소표현 알고리즘은 자체적으로 잡음에 강건할 수 있다. Since bases are learned from noise-free images and represent data with a small number of bases, the sparse representation algorithm can be robust to noise itself.

디블러링 장치는 프로세서에 의해 디블러링과 관련된 절차를 수행할 수 있다. 디블러링 장치는 잡음 및 블러(blur)를 포함하는 촬영 영상을 획득할 수 있다(S300). 복수의 기저들은 다음과 같이 표현될 수 있다.The de-blurring device may perform the de-blurring-related procedure by the processor. The de-blurring device may acquire a photographed image including noise and blur (S300). The plurality of bases can be expressed as follows.

도 4는 블러를 포함하는 기저(사전)를 도시한 개념도이다.4 is a conceptual diagram showing a base (dictionary) including blur.

도 4를 참조하면, 왼쪽은 미리 학습된 기저(사전)를 표현한 영상(400)이다.

Figure 112017008893257-pat00021
에서
Figure 112017008893257-pat00022
는 블러를 포함하지 않은 기저를 지시할 수 있다. 선행 처리 과정에서 자연스러운 촬영 영상을 사용하여 기저가 미리 학습될 수 있다. 블러를 포함하지 않은 기저는 i=1 부터 i=
Figure 112017008893257-pat00023
까지의 값을 가질 수 있다.
Figure 112017008893257-pat00024
는 복수의 기저의 개수를 의미할 수 있다.Referring to FIG. 4, the left side is an image 400 representing a pre-learned base (dictionary).
Figure 112017008893257-pat00021
in
Figure 112017008893257-pat00022
Can point to a base that does not contain blur. The base can be learned in advance by using a natural photographed image in the pre-processing process. The basis without blur is i = 1 to i =
Figure 112017008893257-pat00023
Lt; / RTI >
Figure 112017008893257-pat00024
May mean the number of bases.

오른쪽은 블러를 포함하는 기저(이하"블러 기저"라고 한다) (사전)를 표현한 영상(410)이다.

Figure 112017008893257-pat00025
에서
Figure 112017008893257-pat00026
는 블러 기저를 지시할 수 있다. 블러 기저는 i=1 부터 i=
Figure 112017008893257-pat00027
까지의 값을 가질 수 있다.And the right side is an image 410 representing a base (hereinafter referred to as "blur basis") (dictionary) including blur.
Figure 112017008893257-pat00025
in
Figure 112017008893257-pat00026
Can indicate a blur basis. The blur basis is i = 1 to i =
Figure 112017008893257-pat00027
Lt; / RTI >

블러 기저는 블러를 포함하지 않는 기저(이하"비-블러 기저"라고 한다)와 블러의 콘볼루션 결합으로 생성될 수 있다. i=1 부터 i=

Figure 112017008893257-pat00028
까지의 블러 기저는 다음과 같을 수 있다.A blurred basis can be generated by a convolutional combination of a blur-free basis (hereinafter referred to as a "non-blur basis") and blur. i = 1 to i =
Figure 112017008893257-pat00028
The blur basis to the following may be as follows.

Figure 112017008893257-pat00029
Figure 112017008893257-pat00029

현재 얻어진 블러 커널을 이용해 기저들을 블러링 시키고

Figure 112017008893257-pat00030
이 블러가 포함된 기저들로 촬영 영상을 희소표현 알고리즘으로 나타낼 수 있다.Blur the bases using the currently obtained blur kernel
Figure 112017008893257-pat00030
The bases containing this blur can represent photographed images with a sparse representation algorithm.

다시 도 3을 참조하면, 디블러링 장치는 데이터를 촬영 영상 해석에 기초가 되는 복수의 기저들과 희소표현 계수의 선형적 결합으로 근사한 희소표현 알고리즘에 기초하여, 상기 촬영 영상으로부터 복수의 프라이어 영상들을 획득할 수 있다(S310). 잡음이 제거된 제1 프라이어 영상은 다음과 같이 획득될 수 있다.Referring again to FIG. 3, the de-blurring apparatus is configured to extract data from a plurality of fryer images from the photographed image based on a rare representation algorithm approximated by a linear combination of a plurality of bases and a rare representation coefficient, (S310). The noise-removed first fryer image can be obtained as follows.

도 5는 잡음이 제거된 제1 프라이어 영상을 획득하는 방법을 도시한 개념도이다.5 is a conceptual diagram illustrating a method for acquiring a noise-removed first fryer image.

도 5를 참조하면, 왼쪽은 잡음 및 블러가 포함된 촬영 영상(

Figure 112017008893257-pat00031
)을 표현한 영상(500)일 수 있다. 오른쪽은 잡음이 제거된 제1 프라이어 영상(
Figure 112017008893257-pat00032
)(510)일 수 있다.Referring to FIG. 5, the left side shows a captured image including noise and blur
Figure 112017008893257-pat00031
(500). On the right side, the first fryer image
Figure 112017008893257-pat00032
) ≪ / RTI >

촬영 영상으로부터 제1 프라이어 영상을 얻는 수식은 다음과 같을 수 있다.The formula for obtaining the first fryer image from the photographed image may be as follows.

Figure 112017008893257-pat00033
Figure 112017008893257-pat00033

Figure 112017008893257-pat00034
Figure 112017008893257-pat00034

디블러링 장치는

Figure 112017008893257-pat00035
를 블러 기저(
Figure 112017008893257-pat00036
)와 희소표현 계수(
Figure 112017008893257-pat00037
)의 콘볼루션 값의 시그마 합으로 표현할 수 있다. 희소표현 계수는 다음과 같은 수학식을 통해 획득될 수 있다.The de-
Figure 112017008893257-pat00035
To the blurred basis
Figure 112017008893257-pat00036
) And the rarity coefficient (
Figure 112017008893257-pat00037
) Can be expressed by the sigma sum of convolution values. The scarcity representation coefficient can be obtained by the following equation.

Figure 112017008893257-pat00038
Figure 112017008893257-pat00038

argmin 함수는

Figure 112017008893257-pat00039
이 최소가 되는
Figure 112017008893257-pat00040
값을 찾는 함수일 수 있다.
Figure 112017008893257-pat00041
Figure 112017008893257-pat00042
값을 결정함에 있어서 조절 역할을 하는 파라미터일 수 있다.The argmin function
Figure 112017008893257-pat00039
This is the minimum
Figure 112017008893257-pat00040
It can be a function to find a value.
Figure 112017008893257-pat00041
The
Figure 112017008893257-pat00042
May be a parameter that plays a role in determining the value.

디블러링 장치는 블러 기저(

Figure 112017008893257-pat00043
)와 희소표현 계수(
Figure 112017008893257-pat00044
)의 콘볼루션 값의 시그마 합을 잡음이 제거된 제1 프라이어 영상 (
Figure 112017008893257-pat00045
)으로 결정할 수 있다. 블러와 잡음이 제거된 제2 프라이어 영상은 다음과 같이 획득될 수 있다.The de-blurring device has a blurred basis
Figure 112017008893257-pat00043
) And the rarity coefficient (
Figure 112017008893257-pat00044
) Is calculated by subtracting the sigma sum of the convolution values of the first pre-
Figure 112017008893257-pat00045
). The blur and noise-canceled second fryer image can be obtained as follows.

도 6은 블러와 잡음이 제거된 제2 프라이어 영상을 획득하는 방법을 도시한 개념도이다.6 is a conceptual diagram showing a method of acquiring a blur and a noise-removed second fryer image.

도 6을 참조하면, 왼쪽은 희소표현(

Figure 112017008893257-pat00046
) 계수 맵을 표현한 영상(600)일 수 있다. 오른쪽은 블러 및 잡음이 제거된 제2 프라이어 영상(
Figure 112017008893257-pat00047
)(610)일 수 있다. 촬영 영상으로부터 제2 프라이어 영상을 얻는 수식은 다음과 같을 수 있다.Referring to FIG. 6, the left side is a rare expression (
Figure 112017008893257-pat00046
(600) representing a coefficient map. On the right is a second fryer image with blur and noise removed (
Figure 112017008893257-pat00047
) ≪ / RTI > The formula for obtaining the second fryer image from the photographed image may be as follows.

Figure 112017008893257-pat00048
Figure 112017008893257-pat00048

디블러링 장치는 비-블러 기저(

Figure 112017008893257-pat00049
)와 희소표현 계수(
Figure 112017008893257-pat00050
)의 콘볼루션 값의 시그마 합을 블러 및 잡음이 제거된 제2 프라이어 영상 (
Figure 112017008893257-pat00051
)으로 결정할 수 있다.The de-blurring device may be a non-
Figure 112017008893257-pat00049
) And the rarity coefficient (
Figure 112017008893257-pat00050
) Of the convolutional value of the second preial image ("
Figure 112017008893257-pat00051
).

다시 도 3를 참조하면, 디블러링 장치는 잡음 및 블러를 제거하기 위해 상기 복수의 프라이어 영상들을 추청하는 추정 알고리즘을 획득할 수 있다. 추정 알고리즘은 다음과 같은 수학식으로 표현될 수 있다.Referring again to Figure 3, the de-blurring device may obtain an estimation algorithm that estimates the plurality of fryer images to remove noise and blur. The estimation algorithm can be expressed by the following equation.

Figure 112017008893257-pat00052
Figure 112017008893257-pat00052

실험에서는 조직화 항

Figure 112017008893257-pat00053
Figure 112017008893257-pat00054
Figure 112017008893257-pat00055
Figure 112017008893257-pat00056
로 구체화 시켜 표현한 수학식은 다음과 같을 수 있다.In the experiment,
Figure 112017008893257-pat00053
and
Figure 112017008893257-pat00054
The
Figure 112017008893257-pat00055
and
Figure 112017008893257-pat00056
The following equation can be expressed as follows.

Figure 112017008893257-pat00057
Figure 112017008893257-pat00057

각각의 항은

Figure 112017008893257-pat00058
의 데이터 부분,
Figure 112017008893257-pat00059
+
Figure 112017008893257-pat00060
의 조직화 항,
Figure 112017008893257-pat00061
+
Figure 112017008893257-pat00062
, 희소표현 알고리즘으로 구해진 프라이어 영상들(
Figure 112017008893257-pat00063
,
Figure 112017008893257-pat00064
)을 이용한 추가적 조직화 항으로 구성될 수 있다.Each term
Figure 112017008893257-pat00058
Lt; / RTI >
Figure 112017008893257-pat00059
+
Figure 112017008893257-pat00060
, ≪ / RTI &
Figure 112017008893257-pat00061
+
Figure 112017008893257-pat00062
, Fryer images obtained by the sparse expression algorithm (
Figure 112017008893257-pat00063
,
Figure 112017008893257-pat00064
). ≪ / RTI >

디블러링 장치는 추정 알고리즘으로부터 잡음이 제거된 원시 영상(

Figure 112017008893257-pat00065
)를 추정할 수 있다(S320). 원시 영상 추정은 수학식 10의 변수
Figure 112017008893257-pat00066
를 고정 시킨 상태에서 변수
Figure 112017008893257-pat00067
에 대해서 식을 풀어서
Figure 112017008893257-pat00068
을 획득할 수 있다.The de-blurring device extracts the noise-removed original image (
Figure 112017008893257-pat00065
(S320). The raw image estimation is performed using the variable < RTI ID = 0.0 >
Figure 112017008893257-pat00066
In a fixed state
Figure 112017008893257-pat00067
To solve for
Figure 112017008893257-pat00068
Can be obtained.

디블러링 장치는 추정 알고리즘으로부터 잡음 포함 정도를 지시하는 블러 커널(blur kernel)변수(

Figure 112017008893257-pat00069
)를 추정할 수 있다(S330). 블러 커널 변수 추정은 수학식 10의 변수
Figure 112017008893257-pat00070
를 고정 시킨 상태에서 변수
Figure 112017008893257-pat00071
에 대해서 식을 풀어서
Figure 112017008893257-pat00072
을 획득할 수 있다.The de-blurring device uses a blur kernel variable ("
Figure 112017008893257-pat00069
) (S330). The blur kernel variable estimation is performed using the variable < RTI ID = 0.0 >
Figure 112017008893257-pat00070
In a fixed state
Figure 112017008893257-pat00071
To solve for
Figure 112017008893257-pat00072
Can be obtained.

디블러링 장치는 추정 알고리즘으로부터 잡음이 제거된 원시 영상(

Figure 112017008893257-pat00073
)를 갱신할 수 있다. 갱신하는 과정은 다음과 같이 표현될 수 있다.The de-blurring device extracts the noise-removed original image (
Figure 112017008893257-pat00073
Can be updated. The process of updating can be expressed as follows.

Figure 112017008893257-pat00074
Figure 112017008893257-pat00074

수학식 11의

Figure 112017008893257-pat00075
는 편미분 연산자이고,
Figure 112017008893257-pat00076
는 대응 가중치일 수 있다.Equation (11)
Figure 112017008893257-pat00075
Is a partial differential operator,
Figure 112017008893257-pat00076
May be a corresponding weight.

디블러링 장치는 원시 영상 및 블러 커널 변수의 변화량 미리 정해진 기준 이하인지 여부를 판단할 수 있다(S340). 원시 영상 및 블러 커널 변수의 변화량이 미리 정해진 기준보다 낮은 경우, 디블러링 과정을 더 이상 반복하더라도 디블러링 성능의 차이가 거의 없기 때문이다. The deblurring apparatus can determine whether the amount of change of the original image and the blur kernel variable is less than a predetermined standard (S340). If the amount of change of the original image and the blur kernel variable is lower than a predetermined criterion, even if the de-blurring process is repeated, there is almost no difference in the de-blurring performance.

디블러링 장치는 원시 영상 및 블러 커널 변수의 변화량이 미리 정해진 기준 이상인 경우 S310-S340 과정을 반복할 수 있다. 디블러링 장치는 원시 영상 및 블러 커널 변수의 변화량이 미리 정해진 기준 이하인 경우 최종 영상을 출력할 수 있다(S350).The de-blurring apparatus may repeat steps S310-S340 if the amount of change of the original image and the blur kernel variable is equal to or greater than a predetermined reference value. The deblurring apparatus can output the final image when the amount of change of the original image and the blur kernel variable is equal to or less than a predetermined reference (S350).

희소표현 알고리즘을 사용한 디블러링의 경우와 그렇지 않은 경우를 비교한 실시예는 다음과 같을 수 있다.An embodiment in which the case of de-blurring using the sparse representation algorithm is compared with the case of not de-blurring may be as follows.

도 7은 잡음이 13%인 경우 희소표현 알고리즘을 이용한 디블러링 장치의 상대적인 성능을 도시한 개념도이다.FIG. 7 is a conceptual diagram showing the relative performance of the de-blurring apparatus using the sparse representation algorithm when the noise is 13%.

도 7을 참조하면, 잡음 레벨이 13%인 촬영 영상(700)을 희소표현 알고리즘을 사용하여 디블러링의 경우와 잡음 레벨이 13%인 촬영 영상(700)을 희소표현 알고리즘을 사용하지 않고 디블러링의 경우를 비교한 실시예가 확인될 수 있다.Referring to FIG. 7, an image 700 having a noise level of 13% is subjected to de-blurring using a sparse representation algorithm and an image 700 having a noise level of 13% An embodiment in which the case of blurring is compared can be confirmed.

디블러링 장치는 잡음 레벨이 13%인 촬영 영상(700)을 정교하게 디블러링 한 경우 정교한 추정 영상 및 추정 커널(710)을 획득할 수 있다. The de-blurring device can obtain a sophisticated estimated image and estimated kernel 710 when the captured image 700 having a noise level of 13% is finely de-blurred.

희소표현 알고리즘을 이용한 디블러링 방식으로 측정한 결과 값은 우측 상단의 영상(720, 722, 724)에 표현되어 있을 수 있다. 희소표현 알고리즘을 이용하지 않은 디블러링 방식으로 측정한 결과는 우측 하단의 영상(730, 732, 734)에 표현되어 있을 수 있다. The result measured by the de-blurring method using the sparse representation algorithm may be expressed in the upper right images 720, 722, and 724. The result of the measurement using the de-blurring method without using the sparse representation algorithm may be expressed in the images 730, 732, and 734 at the bottom right.

영상 720은 본 발명의 도 4의 S310-S340 과정을 한 번 수행하고 얻은 결과 값일 수 있다. 영상 722은 본 발명의 도 2의 S310-S340 과정을 두 번 수행하고 얻은 결과 값일 수 있다. 영상 724는 본 발명의 도 2의 S310-S340 과정을 세 번 수행하고 얻은 결과 값일 수 있다.The image 720 may be a result obtained by performing S310-S340 of FIG. 4 of the present invention once. The image 722 may be a result obtained by performing S310-S340 of FIG. 2 of the present invention twice. The image 724 may be a result obtained by performing S310-S340 of FIG. 2 of the present invention three times.

영상 730은 본 발명의 도 2의 S210-S230 과정을 한 번 수행하고 얻은 결과 값일 수 있다. 영상 732은 본 발명의 도 2의 S210-S230 과정을 두 번 수행하고 얻은 결과 값일 수 있다. 영상 734는 본 발명의 도 2의 S210-S230 과정을 세 번 수행하고 얻은 결과 값일 수 있다.The image 730 may be a result obtained by performing the S210-S230 process of FIG. 2 of the present invention once. The image 732 may be a result obtained by performing S210-S230 of FIG. 2 of the present invention twice. The image 734 may be a result obtained by performing the steps S210-S230 of FIG. 2 of the present invention three times.

원시 영상 추정과, 블러 커널 변수 추정을 반복할수록 잡음 및 블러가 더 제거되는 것이 확인될 수 있다. 또한 영상 724와 영상 734를 비교할 때, 희소표현 알고리즘을 사용한 디블러링 방법의 성능이 우수한 것이 확인 될 수 있다. It can be confirmed that noise and blur are more removed as the original image estimation and the blur kernel variable estimation are repeated. Also, when comparing the image 724 and the image 734, it can be confirmed that the performance of the de-blurring method using the rare representation algorithm is excellent.

도 8은 잡음이 8.5%인 경우 복수의 디블러링 장치들의 상대적인 성능을 도시한 개념도이다.8 is a conceptual diagram showing the relative performance of a plurality of de-blurring apparatuses when the noise is 8.5%.

도 8을 참조하면, 좌측 상단은 야외에서 촬영한 별장의 실제 영상(800)을 의미할 수 있다. 좌측 하단은 8.5%의 잡음 및 블러가 포함된 촬영 영상(810)을 의미할 수 있다.Referring to FIG. 8, the upper left corner may refer to an actual image 800 of a villa taken outdoors. And the lower left hand side may mean a shot image 810 including 8.5% noise and blur.

중간 상단은 레빈(Levin et al) 방식으로 8.5%의 잡음 및 블러가 포함된 촬영 영상(810)을 디블러링한 최종 영상(820)일 수 있다. 이 경우 최대 신호 대 잡음비(peak signal-to-noise ratio; PSNR)는 7.35dB일 수 있다.The middle top may be the final image 820, which is a Levin et al. Method, in which a photographed image 810 with 8.5% noise and blur is deblurred. In this case, the peak signal-to-noise ratio (PSNR) may be 7.35 dB.

최대 신호 대 잡음비는 영상의 손실 압축에서 화질 손실 정보를 수치로 표현한 값으로 영상에 워터마크를 삽입할 때 원본 영상과 워터마크를 삽입한 영상의 차이를 표현하는 수치일 수 있다.The maximum signal-to-noise ratio (SNR) is a numerical value of image loss information in lossy compression of an image, and may be a value representing a difference between an original image and a watermarked image when a watermark is inserted into the image.

최대 신호 대 잡음비는 신호의 전력에 대한 고려 없이 평균 제곱 오차(root mean square error; RMSE)를 이용해서 계산 될 수 있다. 최대 신호 대 잡음비는 로그스케일에서 측정되기 때문에, 단위는 dB일 수 있다.The maximum signal-to-noise ratio can be calculated using the root mean square error (RMSE) without considering the power of the signal. Since the maximum signal-to-noise ratio is measured on a logarithmic scale, the unit may be in dB.

최대 신호 대 잡음비는 손실이 적을수록 높은 값을 가질 수 있다. 즉, 최대 신호 대 잡음비가 클수록 실제 영상과 유사한 영상을 출력하는 것으로 해석될 수 있다.The maximum signal-to-noise ratio can be high as the loss is small. That is, the larger the maximum signal-to-noise ratio, the more likely it is to output an image similar to an actual image.

중간 하단은 종(zhong et al) 방식으로 8.5%의 잡음 및 블러가 포함된 촬영 영상(810)을 디블러링한 최종 영상(830)일 수 있다. 이 경우 최대 신호 대 잡음비는 24.55dB일 수 있다.And the middle bottom may be a final image 830 obtained by deburring the photographed image 810 including 8.5% noise and blur in the zhong et al scheme. In this case, the maximum signal-to-noise ratio may be 24.55 dB.

우측 상단은 페론 및 페바로(perrone and favaro) 방식으로 8.5%의 잡음 및 블러가 포함된 촬영 영상(810)을 디블러링한 최종 영상(840)일 수 있다. 이 경우 최대 신호 대 잡음비는 17.16dB일 수 있다.The upper right hand side may be a final image 840 which is a perrone and favaro method and which is obtained by deburring a photographed image 810 including 8.5% noise and blur. In this case, the maximum signal-to-noise ratio may be 17.16 dB.

우측 하단은 본 발명의 개선된 디블러링 방식으로 8.5%의 잡음 및 블러가 포함된 촬영 영상(810)을 디블러링한 최종 영상(850)일 수 있다. 이 경우 최대 신호 대 잡음비는 26.23dB일 수 있다.And the lower right end may be the final image 850 obtained by deburring the photographed image 810 including 8.5% noise and blur in the improved de-blurring method of the present invention. In this case, the maximum signal-to-noise ratio may be 26.23 dB.

본 발명의 디블러링 결과 값의 최대 신호 대 잡음비가 상대적으로 가장 높은 것이 확인될 수 있다. 또한 본 발명의 디블러링 결과 값이 실제 영상(800)과 상대적으로 더 유사한 것이 확인될 수 있다.It can be confirmed that the maximum signal-to-noise ratio of the resulting de-blurring value of the present invention is relatively highest. It can also be confirmed that the result of the debloring of the present invention is relatively similar to the actual image 800. [

도 9는 잡음이 10%인 경우 복수의 디블러링 장치들의 상대적인 성능을 도시한 개념도이다.9 is a conceptual diagram showing the relative performance of a plurality of de-blurring apparatuses when the noise is 10%.

도 9를 참조하면, 좌측 상단은 야외에서 촬영한 얼굴의 실제 영상(900)을 의미할 수 있다. 좌측 하단은 10%의 잡음 및 블러가 포함된 촬영 영상(910)을 의미할 수 있다.Referring to FIG. 9, the upper left corner may be an actual image 900 of a face photographed in the open air. And the lower left hand side may mean a shot image 910 including 10% noise and blur.

중간 상단은 레빈 방식으로 10%의 잡음 및 블러가 포함된 촬영 영상(910)을 디블러링한 최종 영상(920)일 수 있다. 이 경우 최대 신호 대 잡음비는 7.00dB일 수 있다.The middle top may be a final image 920 that has been deburred from the photographed image 910 with 10% noise and blur in a Levin manner. In this case, the maximum signal-to-noise ratio may be 7.00 dB.

중간 하단은 종 방식으로 10%의 잡음 및 블러가 포함된 촬영 영상(910)을 디블러링한 최종 영상(930)일 수 있다. 이 경우 최대 신호 대 잡음비는 26.31dB일 수 있다.And the middle lower end may be a final image 930 obtained by deblurring the photographed image 910 including 10% noise and blur in the vertical mode. In this case, the maximum signal-to-noise ratio may be 26.31 dB.

우측 상단은 페론 및 페바로 방식으로 10%의 잡음 및 블러가 포함된 촬영 영상(910)을 디블러링한 최종 영상(940)일 수 있다. 이 경우 최대 신호 대 잡음비는 16.81dB일 수 있다.The upper right hand side may be the final image 940 which is the image 910 with 10% noise and blur in the Peron and Pebbles manner. In this case, the maximum signal-to-noise ratio may be 16.81 dB.

우측 하단은 본 발명의 개선된 디블러링 방식으로 10%의 잡음 및 블러가 포함된 촬영 영상(910)을 디블러링한 최종 영상(950)일 수 있다. 이 경우 최대 신호 대 잡음비는 26.56dB일 수 있다.And the lower right end may be a final image 950 obtained by deblurring the photographed image 910 including 10% noise and blur in the improved de-blurring method of the present invention. In this case, the maximum signal-to-noise ratio may be 26.56 dB.

본 발명의 디블러링 결과 값의 최대 신호 대 잡음비가 상대적으로 가장 높은 것이 확인될 수 있다. 또한 본 발명의 디블러링 결과 값이 실제 영상(900)과 상대적으로 더 유사한 것이 확인될 수 있다.It can be confirmed that the maximum signal-to-noise ratio of the resulting de-blurring value of the present invention is relatively highest. It can also be confirmed that the result of the debloring of the present invention is relatively similar to the actual image 900.

도 10은 복수의 디블러링 장치들의 잡음 레벨 별 최대 신호 대 잡음비를 도시한 그래프이다.10 is a graph showing the maximum signal-to-noise ratio for each noise level of a plurality of de-blurring apparatuses.

도 10을 참조하면, 세로축은 최대 신호 대 잡음비(PSNR)(dB)를 의미할 수 있다. 가로축은 잡음 레벨(noise level)(%)를 의미할 수 있다. 좌측 하단의 첫 번째 선(1000)은 나이브(naive) 방식으로 디블러링 결과 값을 의미할 수 있다.Referring to FIG. 10, the vertical axis indicates the maximum signal-to-noise ratio (PSNR) (dB). And the horizontal axis may indicate a noise level (%). The first line 1000 at the lower left may denote a debloring result value in a naive manner.

좌측 하단의 두 번째 선(1010)은 본 발명 도 2의 실시예로서 프라이어 영상을 사용하지 않은 디블러링 결과 값을 의미할 수 있다. 좌측 하단의 세 번째 선(1020)은 제2 프라이어 영상만 사용한 디블러링 결과 값을 의미할 수 있다.And the second line 1010 on the lower left side indicates the result of the debloring without using the fryer image as an embodiment of the present invention of FIG. And the third line 1020 at the lower left may mean a result of debloring using only the second fryer image.

좌측 하단의 네 번째 선(1030)은 본 발명의 제1 및 제2 프라이어 영상을 사용한 디블러링 결과 값을 의미할 수 있다. 좌측 하단의 다섯 번째 선(1040)은 레빈 방식으로 디블러링 결과 값을 의미할 수 있다.And the fourth line 1030 on the lower left may mean the debloring result using the first and second fryer images of the present invention. And the fifth line 1040 on the lower left can denote the result of the Levening method.

좌측 하단의 여섯 번째 선(1050)은 페론 및 페바로 방식으로 디블러링 결과 값을 의미할 수 있다. 좌측 하단의 일곱 번째 선(1060)은 미첼리 앤 이라니(Michaeli and irani) 방식으로 디블러링 결과 값을 의미할 수 있다.The sixth line 1050 at the bottom left can mean the result of the de-blurring in the Peron and Pebar schemes. The seventh line 1060 at the bottom left can mean the de-blurring result in the Michaeli and irani manner.

좌측 하단의 여덟 번째 선(1070)은 종 방식으로 디블러링 결과 값을 의미할 수 있다. 좌측 하단의 두 번째 선(1010), 세 번째 선(1020), 네 번째 선(1030)을 비교할 경우, 복수의 프라이어 영상들을 활용할수록 잡음 레벨 별 최대 신호 대 잡음비가 높게 나타나는 것이 확인될 수 있다.The eighth line (1070) at the bottom left can denote the de-blurring result in a longitudinal manner. When comparing the second line 1010, the third line 1020, and the fourth line 1030 in the lower left corner, it can be seen that the maximum signal-to-noise ratio per noise level is higher as the plurality of fryer images are utilized.

희소표현 알고리즘을 사용한 본 발명의 실험 결과값을 지시하는 좌측 하단의 네 번째 선(1030)은 상대적으로 경쟁 디블러링 방식과 비교할 때, 잡음 레벨이 2% 이상인 구간에서 가장 우수한 성능을 가지는 것이 확인될 수 있다.The fourth line 1030 on the lower left side indicating the experimental result value of the present invention using the sparse representation algorithm has the best performance in a section where the noise level is 2% or more as compared with the relatively competitive dubbing method .

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention can be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer readable medium may be those specially designed and constructed for the present invention or may be available to those skilled in the computer software.

컴퓨터 판독 가능 매체의 예에는 롬, 램, 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러(compiler)에 1의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media include hardware devices that are specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by the compiler 1, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

Claims (18)

디블러링(deblurring) 장치에서 수행되는 희소표현 알고리즘을 이용한 디블러링 방법으로,
잡음 및 블러(blur)를 포함하는 촬영 영상을 획득하는 단계;
상기 촬영 영상의 해석을 위해 사용되는 복수의 기저들과 희소표현 계수의 선형적 결합인 희소표현 알고리즘에 기초하여, 상기 촬영 영상으로부터 복수의 프라이어(prior) 영상 변수들을 획득하는 단계;
상기 잡음 및 상기 블러를 제거하기 위해 상기 복수의 프라이어 영상 변수들을 포함하는 추정 알고리즘을 획득하는 단계;
상기 추정 알고리즘을 사용하여 상기 촬영 영상으로부터 상기 잡음이 제거된 원시 영상을 추정하는 단계;
상기 추정 알고리즘으로부터 상기 잡음의 포함 정도를 지시하는 블러 커널 변수를 추정하는 단계; 및
상기 원시 영상 및 상기 블러 커널 변수의 변화량이 미리 정해진 기준 이하인 경우 최종 영상을 출력하는 단계를 포함하고,
상기 희소표현 알고리즘을 통해 획득되는 상기 복수의 프라이어 영상 변수들은 상기 잡음이 제거된 제1 프라이어 영상 변수와 상기 잡음 및 상기 블러가 제거된 제2 프라이어 영상 변수를 포함하는, 디블러링 방법.
As a deblurring method using a rare representation algorithm performed in a deblurring apparatus,
Obtaining a photographed image including noise and blur;
Obtaining a plurality of prior image parameters from the photographed image based on a sparse representation algorithm that is a linear combination of a plurality of bases and a rare representation coefficient used for analysis of the photographed image;
Obtaining an estimation algorithm including the plurality of fryer image parameters to remove the noise and the blur;
Estimating the noise-removed original image from the photographed image using the estimation algorithm;
Estimating a blur kernel variable indicating the degree of inclusion of the noise from the estimation algorithm; And
And outputting a final image when the amount of change of the original image and the blur kernel variable is equal to or less than a predetermined reference,
Wherein the plurality of fryer image variables obtained through the sparse representation algorithm include a first fryer image parameter from which the noise is removed and a second fryer image parameter from which the noise and the blur are removed.
삭제delete 청구항 1에 있어서,
상기 제1 프라이어 영상 변수는 상기 희소표현 계수와 상기 블러를 포함하는 복수의 제1 기저들의 곱의 시그마 합으로 획득되는, 디블러링 방법.
The method according to claim 1,
Wherein the first fryer image variable is obtained by a sigma sum of the product of the rare representation coefficient and a plurality of first bases comprising the blur.
청구항 3에 있어서,
상기 제1 기저들은 상기 제2 프라이어 영상 변수 획득을 위해 필요한 상기 블러를 포함하지 않는 복수의 제2 기저들과 상기 블러 커널 변수의 콘볼루션을 통해 획득되는, 디블러링 방법.
The method of claim 3,
Wherein the first bases are obtained through a convolution of the blur kernel variable and a plurality of second bases that do not include the blur needed for obtaining the second fryer image variable.
청구항 1에 있어서,
상기 제2 프라이어 영상 변수는 상기 희소표현 계수와 상기 블러를 포함하지 않는 복수의 제2 기저들의 곱의 시그마 합으로 획득되는, 디블러링 방법.
The method according to claim 1,
Wherein the second fryer image variable is obtained by a sigma sum of the product of the rare representation coefficient and a plurality of second bases that do not include the blur.
청구항 1에 있어서,
상기 희소표현 계수는 상기 블러를 포함하는 복수의 제1 기저들의 제곱근 오차를 기초로 획득되는, 디블러링 방법.
The method according to claim 1,
Wherein the rare representation coefficient is obtained based on a square root error of a plurality of first bases comprising the blur.
청구항 1에 있어서,
상기 복수의 기저들은 잡음이 없는 영상들로부터 학습되는, 디블러링 방법.
The method according to claim 1,
Wherein the plurality of bases are learned from noise free images.
청구항 1에 있어서,
상기 원시 영상은 상기 추정 알고리즘에서 상기 블러 커널 변수를 고정 시킴으로써 획득되는, 디블러링 방법.
The method according to claim 1,
Wherein the source image is obtained by fixing the blur kernel variable in the estimation algorithm.
청구항 1에 있어서,
상기 블러 커널 변수는 상기 추정 알고리즘에서 상기 원시 영상을 고정 시킴으로써 획득되는, 디블러링 방법.
The method according to claim 1,
Wherein the blur kernel variable is obtained by fixing the source image in the estimation algorithm.
디블러링 장치로서,
프로세서(processor); 및
상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고,
상기 적어도 하나의 명령은,
잡음 및 블러(blur)를 포함하는 촬영 영상을 획득하고,
상기 촬영 영상의 해석을 위해 사용되는 복수의 기저들과 희소표현 계수의 선형적 결합인 희소표현 알고리즘에 기초하여, 상기 촬영 영상으로부터 복수의 프라이어(prior) 영상 변수들을 획득하고,
상기 잡음 및 상기 블러를 제거하기 위해 상기 복수의 프라이어 영상 변수들을 포함하는 추정 알고리즘을 획득하고,
상기 추정 알고리즘을 사용하여 상기 촬영 영상으로부터 상기 잡음이 제거된 원시 영상을 추정하고,
상기 추정 알고리즘으로부터 상기 잡음의 포함 정도를 지시하는 블러 커널 변수를 추정하고, 그리고
상기 원시 영상 및 상기 블러 커널 변수의 변화량이 미리 정해진 기준 이하인 경우 최종 영상을 출력하도록 실행되고,
상기 희소표현 알고리즘을 통해 획득되는 상기 복수의 프라이어 영상 변수들은 상기 잡음이 제거된 제1 프라이어 영상 변수와 상기 잡음 및 상기 블러가 제거된 제2 프라이어 영상 변수를 포함하는, 디블러링 장치.
As a de-coupling device,
A processor; And
Wherein at least one instruction executed through the processor includes a memory,
Wherein the at least one instruction comprises:
Obtaining a photographed image including noise and blur,
Acquiring a plurality of prior image parameters from the photographed image based on a rare representation algorithm which is a linear combination of a plurality of bases used for analyzing the photographed image and a rare representation coefficient,
Obtaining an estimation algorithm including the plurality of fryer image variables to remove the noise and the blur,
Estimating the noise-removed original image from the photographed image using the estimation algorithm,
Estimating a blur kernel variable indicating the degree of inclusion of the noise from the estimation algorithm, and
And outputting a final image when the amount of change of the original image and the blur kernel variable is equal to or less than a predetermined reference,
Wherein the plurality of fryer image variables obtained through the sparse representation algorithm include a first fryer image variable from which the noise has been removed and a second fryer image parameter from which the noise and the blur have been removed.
삭제delete 청구항 10에 있어서,
상기 제1 프라이어 영상 변수는 상기 희소표현 계수와 상기 블러를 포함하는 복수의 제1 기저들의 곱의 시그마 합으로 획득되는, 디블러링 장치.
The method of claim 10,
Wherein the first fryer image variable is obtained by a sigma sum of the product of the rare representation coefficient and a plurality of first bases comprising the blur.
청구항 12에 있어서,
상기 제1 기저들은 상기 제2 프라이어 영상 변수 획득을 위해 필요한 상기 블러를 포함하지 않는 복수의 제2 기저들과 상기 블러 커널 변수의 콘볼루션을 통해 획득되는, 디블러링 장치.
The method of claim 12,
Wherein the first bases are obtained through convolution of the blur kernel variable with a plurality of second bases that do not include the blur needed for obtaining the second fryer image variable.
청구항 10에 있어서,
상기 제2 프라이어 영상 변수는 상기 희소표현 계수와 상기 블러를 포함하지 않는 복수의 제2 기저들의 곱의 시그마 합으로 획득되는, 디블러링 장치.
The method of claim 10,
Wherein the second fryer image variable is obtained by a sigma sum of the product of the rare representation coefficient and a plurality of second bases that do not include the blur.
청구항 10에 있어서,
상기 희소표현 계수는 상기 블러를 포함하는 복수의 제1 기저들의 제곱근 오차를 기초로 획득되는, 디블러링 장치.
The method of claim 10,
Wherein the sparse representation coefficients are obtained based on a square root error of a plurality of first bases comprising the blur.
청구항 10에 있어서,
상기 복수의 기저들은 잡음이 없는 영상들로부터 학습되는, 디블러링 장치.
The method of claim 10,
Wherein the plurality of bases are learned from noise free images.
청구항 10에 있어서,
상기 원시 영상은 상기 추정 알고리즘에서 상기 블러 커널 변수를 고정 시킴으로써 획득되는, 디블러링 장치.
The method of claim 10,
Wherein the source image is obtained by fixing the blur kernel variable in the estimation algorithm.
청구항 10에 있어서,
상기 블러 커널 변수는 상기 추정 알고리즘에서 상기 원시 영상을 고정 시킴으로써 획득되는, 디블러링 장치.
The method of claim 10,
Wherein the blur kernel variable is obtained by fixing the source image in the estimation algorithm.
KR1020170011906A 2017-01-25 2017-01-25 Method for deblurring blur image by using sparse representation algorithm and apparatus for the same KR101868266B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170011906A KR101868266B1 (en) 2017-01-25 2017-01-25 Method for deblurring blur image by using sparse representation algorithm and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170011906A KR101868266B1 (en) 2017-01-25 2017-01-25 Method for deblurring blur image by using sparse representation algorithm and apparatus for the same

Publications (1)

Publication Number Publication Date
KR101868266B1 true KR101868266B1 (en) 2018-06-15

Family

ID=62628727

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170011906A KR101868266B1 (en) 2017-01-25 2017-01-25 Method for deblurring blur image by using sparse representation algorithm and apparatus for the same

Country Status (1)

Country Link
KR (1) KR101868266B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568519B2 (en) 2020-08-31 2023-01-31 Samsung Electronics Co., Ltd. Image enhancement method, image enhancement apparatus, and method and apparatus for training image enhancement apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160029668A (en) * 2014-09-05 2016-03-15 후아웨이 테크놀러지 컴퍼니 리미티드 Method and apparatus for generating sharp image based on blurry image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160029668A (en) * 2014-09-05 2016-03-15 후아웨이 테크놀러지 컴퍼니 리미티드 Method and apparatus for generating sharp image based on blurry image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Haichao Zhang ET AL:"Sparse representation based blind image deblurring", Multimedia and Expo (ICME), 2011 IEEE International Conference on, 11-15 July 2011(2011.07.11.)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568519B2 (en) 2020-08-31 2023-01-31 Samsung Electronics Co., Ltd. Image enhancement method, image enhancement apparatus, and method and apparatus for training image enhancement apparatus

Similar Documents

Publication Publication Date Title
Ji et al. Robust image deblurring with an inaccurate blur kernel
US10002411B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for estimating blur
KR101844332B1 (en) A method and an apparatus for debluring non-uniform motion blur usign multiframe comprises of a blur image and a noise image
JP2007188493A (en) Method and apparatus for reducing motion blur in motion blur image, and method and apparatus for generating image with reduced motion blur by using a plurality of motion blur images each having its own blur parameter
JP2008146643A (en) Method and device for reducing blur caused by movement in image blurred by movement, and computer-readable medium executing computer program for reducing blur caused by movement in image blurred by movement
JP2010041064A (en) Image processing unit, image processing method, and program
WO2014070273A1 (en) Recursive conditional means image denoising
JP6293374B2 (en) Image processing apparatus, image processing method, program, recording medium recording the same, video photographing apparatus, and video recording / reproducing apparatus
KR101362011B1 (en) Method for blur removing ringing-atifactless
JP2017010095A (en) Image processing apparatus, imaging device, image processing method, image processing program, and recording medium
JP2020191046A (en) Image processing apparatus, image processing method, and program
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
KR20100016272A (en) Image compression and decompression using the pixon method
JP6541454B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
US8055093B2 (en) Method and system for noise level detection in image data
JP5914843B2 (en) Image processing apparatus and image processing method
CN110111261B (en) Adaptive balance processing method for image, electronic device and computer readable storage medium
US8090215B2 (en) Method and system for noise level detection in image data
US20110096205A1 (en) Reducing signal-dependent noise in digital cameras
KR101868266B1 (en) Method for deblurring blur image by using sparse representation algorithm and apparatus for the same
US8208753B2 (en) Method and system for noise level detection in image data
Fry et al. Validation of modulation transfer functions and noise power spectra from natural scenes
KR101152525B1 (en) Methods of removing motion blur and apparatuses for the same
JP2014099048A (en) Image restoration device and image restoration method
Patel et al. A review on different image de-noising methods

Legal Events

Date Code Title Description
GRNT Written decision to grant