KR102507165B1 - Image processing apparatus and image processing method thereof - Google Patents

Image processing apparatus and image processing method thereof Download PDF

Info

Publication number
KR102507165B1
KR102507165B1 KR1020180084294A KR20180084294A KR102507165B1 KR 102507165 B1 KR102507165 B1 KR 102507165B1 KR 1020180084294 A KR1020180084294 A KR 1020180084294A KR 20180084294 A KR20180084294 A KR 20180084294A KR 102507165 B1 KR102507165 B1 KR 102507165B1
Authority
KR
South Korea
Prior art keywords
pixel
image
pixel block
value
noise
Prior art date
Application number
KR1020180084294A
Other languages
Korean (ko)
Other versions
KR20190098018A (en
Inventor
김상훈
박승호
김동윤
문영수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/165,183 priority Critical patent/US10963995B2/en
Priority to PCT/KR2019/001649 priority patent/WO2019156524A1/en
Publication of KR20190098018A publication Critical patent/KR20190098018A/en
Application granted granted Critical
Publication of KR102507165B1 publication Critical patent/KR102507165B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • G06T5/002
    • G06T5/004
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

영상 처리 장치가 개시된다. 영상 처리 장치는, 입력부 및 입력부를 통해 입력된 영상에 대한 잡음 제거 처리를 수행하고, 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하고, 잡음이 제거된 영상에서 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별하고, 제1 픽셀 블럭에 포함된 픽셀 값 및 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득하고, 획득된 게인 값을 상기 제2 픽셀 블럭에 적용하여 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 프로세서를 포함한다. An image processing device is disclosed. The image processing apparatus performs noise removal processing on an input unit and an image input through the input unit, identifies a first pixel block based on a target pixel in the input image, and removes noise from the noise-removed image based on the target pixel. Two pixel blocks are identified, a gain value is obtained based on a pixel value included in the first pixel block and a pixel value included in the second pixel block, and the acquired gain value is applied to the second pixel block to reduce noise. and a processor performing enhancement processing on the removed image.

Description

영상 처리 장치 및 그 영상 처리 방법 { Image processing apparatus and image processing method thereof }Image processing apparatus and image processing method thereof {Image processing apparatus and image processing method thereof }

본 개시은 영상 처리 장치 및 그 영상 처리 방법에 관한 것으로, 더욱 상세하게는 입력 영상에 대한 인핸스 처리를 수행하는 영상 처리 장치 및 그 영상 처리 방법에 관한 것이다.The present disclosure relates to an image processing device and an image processing method thereof, and more particularly, to an image processing device performing enhancement processing on an input image and an image processing method thereof.

전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급되고 있다. 특히, 가정, 사무실, 공공 장소 등 다양한 장소에서 이용되는 디스플레이 장치는 최근 수년 간 지속적으로 발전하고 있다.Thanks to the development of electronic technology, various types of electronic devices are being developed and supplied. In particular, display devices used in various places such as homes, offices, and public places have been continuously developed in recent years.

최근에는 고해상도 영상 서비스, 실시간 스트리밍 서비스에 대한 요구가 크게 증가하고 있다. 하지만, 고해상도 영상, 스트리밍 영상의 전송을 위해 손실 압축을 피할 수 없는 상황이며 이는 화질 감소로 이어진다는 문제점이 있다. Recently, the demand for high-resolution video service and real-time streaming service is greatly increasing. However, there is a problem in that lossy compression is unavoidable for transmission of high-resolution video and streaming video, which leads to a decrease in image quality.

본 개시은 상술한 필요성에 따른 것으로, 본 개시의 목적은, 영상 압축, 잡음 제거 처리 등으로 감소된 에지의 선명도 및 로컬 콘트라스트를 향상시키 위한 영상 처리 장치 및 그 영상 처리 방법을 제공함에 있다.The present disclosure is in accordance with the above-described needs, and an object of the present disclosure is to improve the sharpness and local contrast of edges reduced by image compression, noise removal processing, etc. An image processing device and an image processing method thereof are provided.

이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 영상 처리 장치는, 입력부 및 상기 입력부를 통해 입력된 영상에 대한 잡음 제거 처리를 수행하고, 상기 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하고, 상기 잡음이 제거된 영상에서 상기 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별하고, 상기 제1 픽셀 블럭에 포함된 픽셀 값 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득하고, 상기 획득된 게인 값을 상기 제2 픽셀 블럭에 적용하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 프로세서를 포함한다. In order to achieve the above object, an image processing apparatus according to an embodiment of the present disclosure performs noise removal processing on an input unit and an image input through the input unit, and performs a first noise removal process based on a target pixel in the input image. A pixel block is identified, a second pixel block is identified based on the target pixel in the noise-removed image, and based on a pixel value included in the first pixel block and a pixel value included in the second pixel block and a processor that obtains a gain value and applies the obtained gain value to the second pixel block to perform enhancement processing on the noise-removed image.

이 경우, 상기 프로세서는, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산에 기초하여 상기 게인 값을 획득할 수 있다. In this case, the processor may obtain the gain value based on the variance of pixel values included in the first pixel block and the variance of pixel values included in the second pixel block.

또는, 상기 프로세서는, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 그래디언트 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트에 기초하여 상기 게인 값을 획득할 수 있다. Alternatively, the processor may obtain the gain value based on a gradient of pixel values included in the first pixel block and a gradient of pixel values included in the second pixel block.

또한, 상기 프로세서는, 상기 제1 픽셀 블럭이 상기 입력 영상의 텍스처 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산에 기초하여 상기 게인 값을 획득하고, 상기 제1 픽셀 블럭이 상기 입력 영상의 에지 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트에 기초하여 상기 게인 값을 획득할 수 있다. In addition, when the first pixel block is included in the texture region of the input image, the processor determines the variance of pixel values included in the first pixel block and the variance of pixel values included in the second pixel block. The gain value is obtained based on, and when the first pixel block is included in an edge region of the input image, a gradient for a pixel value included in the first pixel block and a pixel included in the second pixel block The gain value may be obtained based on a gradient for the value.

또한, 상기 프로세서는, 상기 제2 픽셀 블럭에 포함된 픽셀 값, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 제1 평균 값, 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 제2 평균 값 및 상기 게인 값에 기초하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다. The processor may further include a pixel value included in the second pixel block, a first average value of pixel values included in the first pixel block, and a second average value of pixel values included in the second pixel block. and based on the gain value, enhancement processing may be performed on the noise-removed image.

또한, 상기 프로세서는, 상기 제2 픽셀 블럭에 포함된 각 픽셀 값에서 상기 제2 평균 값을 차감하고, 상기 게인 값을 곱한 후 상기 제1 평균 값을 가산하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다. In addition, the processor subtracts the second average value from each pixel value included in the second pixel block, multiplies the gain value, and adds the first average value to enhance the noise-removed image processing can be performed.

또한, 상기 프로세서는, 상기 제2 픽셀 블럭에서 상기 대상 픽셀의 픽셀 값을 획득하고, 상기 획득된 픽셀 값에서 상기 제2 평균 값을 차감하고, 상기 게인 값을 곱한 후 상기 제1 평균 값을 가산하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다. The processor obtains a pixel value of the target pixel in the second pixel block, subtracts the second average value from the acquired pixel value, multiplies the gain value, and adds the first average value. Thus, enhancement processing may be performed on the noise-removed image.

또한, 상기 프로세서는, 언샤프 마스킹(unsharp masking) 및 픽셀 값 스트레칭(stretching) 중 적어도 하나를 적용하여 상기 인핸스 처리를 수행할 수 있다. Also, the processor may perform the enhancement process by applying at least one of unsharp masking and pixel value stretching.

또한, 디스플레이;를 더 포함하며, 상기 프로세서는, 상기 인핸스 처리된 영상을 디스플레이하도록 상기 디스플레이를 제어할 수 있다. The processor may further include a display, and the processor may control the display to display the enhanced image.

한편, 본 개시의 일 실시 예에 따른 영상 처리 장치의 영상 처리 방법은, 입력된 영상에 대한 잡음 제거 처리를 수행하는 단계, 상기 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하는 단계, 상기 잡음이 제거된 영상에서 상기 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별하는 단계, 상기 제1 픽셀 블럭에 포함된 픽셀 값 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득하는 단계 및, 상기 획득된 게인 값을 상기 제2 픽셀 블럭에 적용하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 단계를 포함할 수 있다. Meanwhile, an image processing method of an image processing apparatus according to an embodiment of the present disclosure includes performing noise removal processing on an input image, identifying a first pixel block based on a target pixel in the input image, Identifying a second pixel block based on the target pixel in the noise-removed image, obtaining a gain value based on a pixel value included in the first pixel block and a pixel value included in the second pixel block and performing enhancement processing on the noise-removed image by applying the obtained gain value to the second pixel block.

이 경우, 상기 게인 값을 획득하는 단계는, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산에 기초하여 상기 게인 값을 획득할 수 있다. In this case, the obtaining of the gain value may include obtaining the gain value based on the variance of pixel values included in the first pixel block and the variance of pixel values included in the second pixel block. .

또는, 상기 게인 값을 획득하는 단계는, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 그래디언트 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트에 기초하여 상기 게인 값을 획득할 수 있다. Alternatively, the obtaining of the gain value may include obtaining the gain value based on a gradient of pixel values included in the first pixel block and a gradient of pixel values included in the second pixel block.

또한, 상기 게인 값을 획득하는 단계는, 상기 제1 픽셀 블럭이 상기 입력 영상의 텍스처 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산에 기초하여 상기 게인 값을 획득하고, 상기 제1 픽셀 블럭이 상기 입력 영상의 에지 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트에 기초하여 상기 게인 값을 획득할 수 있다. The obtaining of the gain value may include, when the first pixel block is included in the texture region of the input image, the variance of the pixel value included in the first pixel block and the gain value included in the second pixel block. The gain value is obtained based on dispersion of pixel values, and when the first pixel block is included in an edge region of the input image, a gradient for pixel values included in the first pixel block and the second pixel The gain value may be obtained based on a gradient of a pixel value included in a block.

또한, 상기 인핸스 처리를 수행하는 단계는, 상기 제2 픽셀 블럭에 포함된 픽셀 값, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 제1 평균 값, 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 제2 평균 값 및 상기 게인 값에 기초하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다. In addition, the performing of the enhancement process may include a pixel value included in the second pixel block, a first average value of pixel values included in the first pixel block, and a pixel value included in the second pixel block. Enhancement processing may be performed on the noise-removed image based on the second average value and the gain value.

또한, 상기 인핸스 처리를 수행하는 단계는, 상기 제2 픽셀 블럭에 포함된 각 픽셀 값에서 상기 제2 평균 값을 차감하고, 상기 게인 값을 곱한 후 상기 제1 평균 값을 가산하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다.In the performing of the enhancement process, the noise is removed by subtracting the second average value from each pixel value included in the second pixel block, multiplying the gain value, and then adding the first average value. Enhancement processing may be performed on the image.

또한, 상기 인핸스 처리를 수행하는 단계는, 상기 제2 픽셀 블럭에서 상기 대상 픽셀의 픽셀 값을 획득하고, 상기 획득된 픽셀 값에서 상기 제2 평균 값을 차감하고, 상기 게인 값을 곱한 후 상기 제1 평균 값을 가산하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다. The performing of the enhancement process may include obtaining a pixel value of the target pixel in the second pixel block, subtracting the second average value from the obtained pixel value, multiplying the gain value, and then multiplying the pixel value by the gain value. An enhancement process may be performed on the noise-removed image by adding the average value of 1 .

또한, 상기 인핸스 처리를 수행하는 단계는, 언샤프 마스킹(unsharp masking) 및 픽셀 값 스트레칭(stretching) 중 적어도 하나를 적용하여 상기 인핸스 처리를 수\행할 수 있다. In the performing of the enhancement process, the enhancement process may be performed by applying at least one of unsharp masking and pixel value stretching.

또한, 상기 인핸스 처리된 영상을 디스플레이하는 단계를 더 포함할 수 있다. The method may further include displaying the enhanced image.

본 개시의 일 실시 예에 따른 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 동작은, 입력된 영상에 대한 잡음 제거 처리를 수행하는 단계, 상기 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하는 단계, 상기 잡음이 제거된 영상에서 상기 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별하는 단계, 상기 제1 픽셀 블럭에 포함된 픽셀 값 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득하는 단계 및, 상기 획득된 게인 값을 상기 제2 픽셀 블럭에 적용하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 단계를 포함할 수 있다. In a non-transitory computer readable medium storing computer instructions that cause an electronic device to perform an operation when executed by a processor of an electronic device according to an embodiment of the present disclosure, the operation includes noise on an input image. performing a removal process; identifying a first pixel block based on a target pixel in the input image; identifying a second pixel block based on the target pixel in the noise-removed image; obtaining a gain value based on a pixel value included in a pixel block and a pixel value included in the second pixel block, and applying the acquired gain value to the second pixel block to obtain an image from which noise has been removed. It may include a step of performing enhancement processing for.

본 개시의 다양한 실시 예에 따르면, 영상 압축, 잡음 제거 처리 등으로 감소된 에지의 선명도 및/또는 로컬 콘트라스트를 향상시킬 수 있게 된다.According to various embodiments of the present disclosure, it is possible to improve sharpness and/or local contrast of an edge reduced by image compression, noise removal processing, and the like.

도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구현 예를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 3은 본 개시의 일 실시 예에 따른 유사 패치 탐색 방법을 설명하기 위한 도면이다.
도 4a 내지 도 4c는 본 개시의 일 실시 예에 따른 픽셀 값 스트레칭 방법을 설명하기 위한 도면들이다.
도 5a 내지 도 5c는 본 개시의 일 실시 예에 따른 필터링 방법을 설명하기 위한 도면들이다.
도 6a 및 도 6b는 본 개시의 다양한 실시 예에 따른 영상 처리 방법을 개략적으로 설명하기 위한 블럭도이다.
도 7 내지 도 13b는 본 개시의 다른 실시 예를 설명하기 위한 도면들이다.
도 14는 본 개시의 다른 실시 예에 따른 정량적 효과를 설명하기 위한 테이블이다.
도 15는 본 개시의 일 실시 예에 따른 영상 처리 방법을 설명하기 위한 흐름도이다.
도 16은 본 개시의 다른 실시 예에 따른 영상 처리 장치의 구성을 나타내는 블럭도이다.
1 is a diagram for explaining an implementation example of a display device according to an embodiment of the present disclosure.
2 is a block diagram illustrating a configuration of a display device according to an exemplary embodiment of the present disclosure.
3 is a diagram for explaining a similar patch search method according to an embodiment of the present disclosure.
4A to 4C are diagrams for explaining a pixel value stretching method according to an exemplary embodiment of the present disclosure.
5A to 5C are diagrams for explaining a filtering method according to an embodiment of the present disclosure.
6A and 6B are block diagrams schematically illustrating an image processing method according to various embodiments of the present disclosure.
7 to 13b are drawings for explaining another embodiment of the present disclosure.
14 is a table for explaining quantitative effects according to another embodiment of the present disclosure.
15 is a flowchart illustrating an image processing method according to an exemplary embodiment of the present disclosure.
16 is a block diagram illustrating the configuration of an image processing device according to another embodiment of the present disclosure.

이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다. Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the present disclosure will be described in detail.

본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure have been selected from general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. . In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the disclosure. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.

본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Embodiments of the present disclosure may apply various transformations and may have various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of technology disclosed. In describing the embodiments, if it is determined that a detailed description of a related known technology may obscure the subject matter, the detailed description will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. Terms are only used to distinguish one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprise" or "consist of" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.

A 및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다. The expression at least one of A and B should be understood to denote either "A" or "B" or "A and B".

본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a “module” or “unit” performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software. In addition, a plurality of "modules" or a plurality of "units" are integrated into at least one module and implemented by at least one processor (not shown), except for "modules" or "units" that need to be implemented with specific hardware. It can be.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. And in order to clearly describe the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구현 예를 설명하기 위한 도면이다. 1 is a diagram for explaining an implementation example of a display device according to an embodiment of the present disclosure.

도 1은 본 개시의 일 실시 예에 따른 영상 처리 장치의 구현 예를 설명하기 위한 도면이다. 1 is a diagram for explaining an implementation example of an image processing device according to an embodiment of the present disclosure.

영상 처리 장치(100)는 도 1에 도시된 바와 같이 TV 또는 set-top box 로 구현될 수 있으나, 이에 한정되는 것은 아니며 스마트 폰, 태블릿 PC, 노트북 PC, HMD(Head mounted Display), NED(Near Eye Display), LFD(large format display), Digital Signage(디지털 간판), DID(Digital Information Display), 비디오 월(video wall), 프로젝터 디스플레이, 카메라 등과 같이 영상 처리 및/또는 디스플레이 기능을 갖춘 장치라면 한정되지 않고 적용 가능하다. The image processing device 100 may be implemented as a TV or set-top box as shown in FIG. 1, but is not limited thereto, and is not limited thereto, such as a smart phone, a tablet PC, a notebook PC, a head mounted display (HMD), a NED (Near Eye Display), LFD (large format display), Digital Signage, DID (Digital Information Display), video wall, projector display, camera, etc. can be applied without

영상 처리 장치(100)는 다양한 압축 영상 또는 다양한 해상도의 영상을 수신할 수 있다. 예를 들어, 영상 처리 장치(100)는 MPEG(Moving Picture Experts Group)(예를 들어, MP2, MP4, MP7 등), JPEG(joint photographic coding experts group), AVC(Advanced Video Coding), H.264, H.265, HEVC(High Efficiency Video Codec) 등으로 압축된 형태로 영상을 수신할 수 있다. 또는 영상 처리 장치(100)는 SD(Standard Definition), HD(High Definition), Full HD, Ultra HD 영상 중 어느 하나의 영상을 수신할 수 있다. The image processing device 100 may receive various compressed images or images of various resolutions. For example, the image processing device 100 may include Moving Picture Experts Group (MPEG) (eg, MP2, MP4, MP7, etc.), joint photographic coding experts group (JPEG), Advanced Video Coding (AVC), H.264 , H.265, High Efficiency Video Codec (HEVC), etc., to receive video in a compressed form. Alternatively, the image processing device 100 may receive any one of SD (Standard Definition), HD (High Definition), Full HD, and Ultra HD images.

일 실시 예에 따라 입력되는 영상이 압축 영상인 경우 압축으로 인한 잡음를 포함하게 된다. 예를 들어, block-discrete cosine transform(BDCT)는 널리 이용되고 있는 효과적인 압축 방식이지만, blocky, ringing, mosquito, stair case와 같은 압축 잡음과, blurring, weak texture 손실 등을 발생시킨다. 예를 들어, blocky와 같은 잡음는 압축에 사용된 블록의 경계에서 불연속성을 발생시킬 수 있다. 또한, 고주파 성분의 양자화에 의하여 에지 주변에서 Ringing, mosquito 잡음 및 blurring 등이 발생될 수 있다. According to an embodiment, when an input image is a compressed image, it includes noise due to compression. For example, block-discrete cosine transform (BDCT) is a widely used and effective compression method, but generates compression noise such as blocky, ringing, mosquito, and stair case, blurring, and weak texture loss. For example, noise such as blocky can cause discontinuities at the boundaries of blocks used for compression. In addition, ringing, mosquito noise, and blurring may occur around the edge due to quantization of high-frequency components.

이에 따라 압축 영상이 수신되는 경우 압축 잡음을 제거하기 위한 처리가 필수적으로 요구되는데, 압축 잡음을 제거하는 처리 과정에서도 에지가 블러되고, 로컬 콘트라스트가 감소하는 현상이 발생하게 된다. 이에 따라 압축 잡음 제거 후 에지의 선명도, 로컬 콘트라스트 등을 복원하기 위한 인핸스 과정이 추가적으로 요구된다. Accordingly, when a compressed image is received, processing to remove compression noise is essential. Even in the process of removing compression noise, edges are blurred and local contrast is reduced. Accordingly, an enhancement process for restoring edge sharpness and local contrast after compression noise removal is additionally required.

다만, 에지의 선명도를 지나치게 증가시키면 영상이 왜곡되거나 언더슈트(undershoot) 또는 오버슈트(overshoot)과 같은 부작용이 발생하게 된다. 반대로 에지의 선명도를 충분히 복원시켜주지 않으면 고화질 수준의 선명도를 얻을 수 없게 된다. 이에 따라 에지의 선명도, 로컬 콘트라스트 복원을 위한 최적의 게인을 산출하는 것이 무엇보다 중요하다. However, if the sharpness of the edge is excessively increased, side effects such as image distortion or undershoot or overshoot may occur. Conversely, if the sharpness of the edge is not sufficiently restored, the sharpness of the high-definition level cannot be obtained. Accordingly, it is more important than anything else to calculate the optimal gain for restoring edge sharpness and local contrast.

이하에서는 압축 또는 압축 잡음을 제거하는 과정에서 블러되는 에지의 선명도 및 로컬 콘트라스트를 향상시키 위한 다양한 실시 예에 대해 설명하도록 한다. Hereinafter, various embodiments for improving the sharpness and local contrast of an edge blurred in the process of compression or compression noise removal will be described.

도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다. 2 is a block diagram illustrating a configuration of a display device according to an exemplary embodiment of the present disclosure.

도 2에 따르면, 영상 처리 장치(100)는 입력부(110) 및 프로세서(120)를 포함한다. According to FIG. 2 , the image processing device 100 includes an input unit 110 and a processor 120 .

입력부(110)는 다양한 타입의 컨텐츠를 입력받는다. 예를 들어 입력부(110)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN, 이더넷, IEEE 1394, HDMI, USB, MHL, AES/EBU, 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB), 외부 서버(예를 들어 웹 하드) 등으로부터 스트리밍 또는 다운로드 방식으로 영상 신호를 입력받을 수 있다. 여기서, 영상 신호는 디지털 신호가 될 수 있으나 이에 한정되는 것은 아니다. The input unit 110 receives various types of content. For example, the input unit 110 is AP-based Wi-Fi (Wi-Fi, Wireless LAN network), Bluetooth (Bluetooth), Zigbee (Zigbee), wired / wireless LAN (Local Area Network), WAN, Ethernet, IEEE 1394, HDMI , external device (eg, source device), external storage medium (eg, USB), external server (eg, USB) through communication methods such as USB, MHL, AES / EBU, optical, coaxial, etc. For example, a video signal may be input from a web hard drive or the like in a streaming or download method. Here, the video signal may be a digital signal, but is not limited thereto.

프로세서(120)는 영상 처리 장치(100)의 전반적인 동작을 제어한다. The processor 120 controls overall operations of the image processing device 100 .

일 실시 예에 따라 프로세서(120)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(140)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.According to an embodiment, the processor 120 may be implemented as a digital signal processor (DSP), a microprocessor, or a time controller (TCON) that processes digital image signals. However, it is not limited thereto. It is not a central processing unit (CPU), a micro controller unit (MCU), a micro processing unit (MPU), a controller, an application processor (AP), or a communication processor ( CP)) and ARM processors, or may be defined in terms of one or more of them In addition, the processor 140 is implemented as a System on Chip (SoC) with a built-in processing algorithm or a large scale integration (LSI). It may be, or it may be implemented in the form of a Field Programmable Gate Array (FPGA).

< 잡음 제거 처리> <Noise Removal Processing>

프로세서(120)는 입력부(110)를 통해 입력된 영상에 대한 잡음 제거 처리(또는 잡음 감소 처리)를 수행한다. 일반적으로, 영상을 압축하는 과정, 전송하는 과정 등에서 잡음이 발생된다. 잡음 제거 처리를 하는 이유는 잡음에 의해 영상의 화질을 떨어질 뿐 아니라 스케일링, 특징 추출, 해상도 처리 등 다른 영상 처리 효과도 감소될 수 있기 때문이다. The processor 120 performs noise removal processing (or noise reduction processing) on the image input through the input unit 110 . In general, noise is generated during a process of compressing and transmitting an image. The reason for performing the noise removal process is that not only the quality of the image is degraded by noise, but also other image processing effects such as scaling, feature extraction, and resolution processing may be reduced.

일 실시 예에 따라 프로세서(120)는 넌 로컬 필터링(non-local filtering) 및 자기 유사성(self-similarity)을 이용한 방식에 기초하여 잡음 제거 처리를 수행할 수 있다. 대부분의 영상은 프렉탈 이론의 기반이 되는 자기 유사성이라는 특징을 가지고 있다. 즉, 영상 내에 일 영역과 유사한 다른 영역이 포함되어 있다는 가정 하에, 영상 내의 다른 영역에 대하여 유사도를 측정한 후 유사도가 높은 픽셀 영역에 기초하여 잡음 제거를 수행할 수 있다. According to an embodiment, the processor 120 may perform noise removal processing based on a method using non-local filtering and self-similarity. Most images have a feature called self-similarity, which is the basis of the fractal theory. That is, under the assumption that another region similar to one region is included in the image, after measuring the similarity of another region in the image, noise removal may be performed based on a pixel region having a high similarity.

예를 들어, 프로세서(120)는 영상 내에서 기설정된 픽셀 영역(또는 픽셀 블럭), 예를 들어, 기 설정된 패치(이하, 현재 패치라 함)를 획득하고, 현재 패치와 유사한 패치들이 영상 내에 존재한다고 가정한다. 영상 내에서 현재 패치와 유사한 패치들을 수집하여, 유사 성분들은 스트럭쳐(structure) 성분으로 간주하고 비유사 성분들은 잡음 성분으로 간주한다. 즉, 프로세서(120)는 패치들 사이에 유사성이 높은 신호들은 남기고 유사성이 낮은 신호들은 제거하여 영상 내의 잡음을 제거한다. 이러한 방법을 이용하면, 로우 패스 필터링(low pass filtering)에 의한 스무딩(smoothing) 필터와 비교하여 structure 성분의 블러(blur)를 최소화하고 효과적으로 잡음을 제거할 수 있게 된다. For example, the processor 120 obtains a preset pixel area (or pixel block) in the image, for example, a preset patch (hereinafter referred to as a current patch), and patches similar to the current patch exist in the image. Suppose you do Patches similar to the current patch are collected in the image, and similar components are regarded as structure components and dissimilar components are regarded as noise components. That is, the processor 120 removes noise in an image by leaving signals with high similarity between patches and removing signals with low similarity. Using this method, compared to a smoothing filter by low pass filtering, it is possible to minimize the blur of the structure component and effectively remove noise.

도 3은 본 개시의 일 실시 예에 따른 유사 패치 탐색 방법을 설명하기 위한 도면이다. 3 is a diagram for explaining a similar patch search method according to an embodiment of the present disclosure.

도 3에서 현재 패치(310)를 기준으로, 기설정된 영역(320) 내에서 유사 패치들을 찾는다. 유사성을 판단하는 비용 함수(cost function)로는 MSE(Mean Square Error), SAD(Sum of absolute difference), MAD(Median Absolute Deviation), correlation 등을 사용할 수 있다. 예를 들어, MSE를 적용하는 경우, 압축 영상의 획득되는 패치들의 MSE를 산출하고, MSE 관점에서 유사도가 높은 패치 즉, MSE 차이가 작은 패치를 탐색하여 유사 패치들을 획득할 수 있다. In FIG. 3 , similar patches are searched within a preset area 320 based on the current patch 310 . As a cost function for determining similarity, mean square error (MSE), sum of absolute difference (SAD), median absolute deviation (MAD), correlation, and the like can be used. For example, when MSE is applied, similar patches may be obtained by calculating MSEs of acquired patches of a compressed image and searching for patches having a high similarity from the MSE point of view, that is, patches having a small MSE difference.

유사 패치들(331 내지 336)이 획득되면, 유사 패치(330-1 내지 330-6)들의 자기 유사성을 활용하여 압축 잡음을 제거한다. When the similar patches 331 to 336 are acquired, compression noise is removed by utilizing the self-similarity of the similar patches 330-1 to 330-6.

유사 패치를 활용하여 잡음을 제거하기 위하여 NLM(A. Buades, B. Coll, and J.M. Morel, “A non-local algorithm for image denoising,” in Proc. IEEE Int. Conf. Comput. Vis., pp. 60-65, 2005.), BM3D(K. Dabov, A. Foi, V. Katkovnik, and K. Egiazarian, “Image denoising by sparse 3-D transform-domain collaborative filtering,” IEEE Trans. Image Process., vol. 16, no. 8, pp. 2080?2095, Aug. 2007), CONCOLOR(J. Zhang, R. Xiong, C. Zhao, Y. Zhang, S. Ma, and W. Gao, “CONCOLOR: Constrained non-convex low-rank model for image deblocking,” IEEE Trans. Image Process., vol. 25, no. 3, pp. 1246-1259, 2016) 등에 개시된 다양한 방법을 이용할 수 있다. To remove noise using similar patches, NLM (A. Buades, B. Coll, and J.M. Morel, “A non-local algorithm for image denoising,” in Proc. IEEE Int. Conf. Comput. Vis., pp. 60-65, 2005.), BM3D (K. Dabov, A. Foi, V. Katkovnik, and K. Egiazarian, “Image denoising by sparse 3-D transform-domain collaborative filtering,” IEEE Trans. Image Process., vol 16, no. 8, pp. 2080?2095, Aug. 2007), CONCOLOR (J. Zhang, R. Xiong, C. Zhao, Y. Zhang, S. Ma, and W. Gao, “CONCOLOR: Constrained non -convex low-rank model for image deblocking,” IEEE Trans. Image Process., vol. 25, no. 3, pp. 1246-1259, 2016) can be used.

예를 들어, CONCOLOR를 적용하는 경우, SVD(singular value decomposition)을 사용하여 유사 성분 및 비 유사 성분을 구분한다. CONCOLOR는 패치의 structure 성분에 해당하는 유사 성분은 유지하고 잡음에 해당하는 비 유사 성분의 신호를 감소시켜 잡음을 제거한다. 한편, BM3D에서는 patch들의 3D-DCT를 수행하여 패치 간 유사 성분과 비 유사 성분을 구분하는데, SVD를 사용하면 3D-DCT보다 정확하게 유사 성분 및 비 유사 성분을 구분할 수 있다. For example, when CONCOLOR is applied, similar components and dissimilar components are distinguished using singular value decomposition (SVD). CONCOLOR removes noise by maintaining similar components corresponding to the structure components of the patch and reducing the signal of dissimilar components corresponding to noise. On the other hand, in BM3D, 3D-DCT of patches is performed to distinguish between similar and dissimilar components between patches. Using SVD, similar and dissimilar components can be distinguished more accurately than 3D-DCT.

< 일 실시 예에 따른 게인 획득 및 인핸스 처리 > <Gain acquisition and enhancement processing according to an embodiment>

이어서, 프로세서(120)는 잡음이 제거된(denoised) 영상 및 입력 영상에 기초하여 인핸스 처리를 위한 게인을 획득한다. Next, the processor 120 obtains a gain for enhancement processing based on the denoised image and the input image.

일 실시 예에 따라 프로세서(120)는 잡음 제거 과정에서 블러된 에지, 저하된 선명도 등을 복원하기 위한 게인을 산출할 수 있다. According to an embodiment, the processor 120 may calculate a gain for restoring a blurred edge or degraded sharpness in a noise removal process.

이 경우, 첫째, 에지 주변에 있는 잡음 파워는 에지의 파워보다 크지 않다고 가정한다. 이러한 가정은 압축 잡음의 생성 과정에 기인한 것이다. 즉, 압축 시에 에지를 표현하기 위해 패치 단위의 DCT(descret cosine transform)를 수행하고, 이후 DCT 계수들에 대해서 양자화(quantization)을 수행하는 과정에서 압축 잡음이 생기기 때문이다. 둘째, non-local filtering 등을 사용한 노이즈 제거 방법이 텍스처(texture)를 완전한 평탄면으로는 만들지 않는다고 가정한다. 노이즈 제거된 영상에서 완전 평탄인 영역은 입력 이미지가 이미 완전한 평탄 영역이거나 거의 평탄이어서, 사용자가 텍스처를 인지하지 못하는 수준인 영역일 수 있다. In this case, first, it is assumed that the noise power around the edge is not greater than the power of the edge. This assumption is due to the generation process of compression noise. That is, this is because compression noise is generated in a process of performing descret cosine transform (DCT) in a patch unit to represent an edge during compression and then performing quantization on DCT coefficients. Second, it is assumed that the noise removal method using non-local filtering does not make the texture a perfectly flat surface. The perfectly flat region in the noise-removed image may be a region where the input image is already perfectly flat or almost flat, and thus the user cannot perceive the texture.

이러한 두 가정에 기초하여 본 개시의 일 실시 예에 따른 최적 게인을 찾는 방법은, 잡음이 제거된 후에도 압축 영상의 로컬 특성에 따라 보존되어야 할 메트릭(metric)이 보존되는 방식으로 이루어질 수 있다. 예를 들어, 압축 영상의 평균, 분산, 그래디언트 등의 메트릭을 산출하고, 이를 보존하는 방식으로 게인을 산출할 수 있다. Based on these two assumptions, a method for finding an optimal gain according to an embodiment of the present disclosure may be performed in such a way that a metric to be preserved according to local characteristics of a compressed image is preserved even after noise is removed. For example, the gain may be calculated by calculating metrics such as average, variance, and gradient of the compressed image and preserving them.

구체적으로, 프로세서(120)는 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하고, 잡음이 제거된 영상에서 해당 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별할 수 있다. 일 실시 예에 따라 프로세서(120)는 대상 픽셀을 중심 픽셀로 하며 주변 픽셀을 포함하는 기설정된 크기의 제1 픽셀 블럭 및 제2 픽셀 블럭을 획득할 수 있다. 여기서, 기설정된 크기는 3*3, 5*5 등 다양한 크기가 될 수 있으나, 이하에서는 설명의 편의를 위하여 3*3 픽셀 블럭을 획득하는 경우를 상정하여 설명하도록 한다. 여기서, 픽셀 블럭은 예를 들어 패치로 구현될 수 있다. Specifically, the processor 120 may identify a first pixel block based on a target pixel in the input image and identify a second pixel block based on the corresponding target pixel in the noise-removed image. According to an embodiment, the processor 120 may obtain a first pixel block and a second pixel block having a target pixel as a center pixel and having a predetermined size including neighboring pixels. Here, the predetermined size may be various sizes such as 3*3 or 5*5, but hereinafter, for convenience of description, a case in which a 3*3 pixel block is obtained will be assumed and described. Here, the pixel block may be implemented as a patch, for example.

프로세서(120)는 제1 픽셀 블럭에 포함된 픽셀 값 및 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득할 수 있다.The processor 120 may obtain a gain value based on a pixel value included in the first pixel block and a pixel value included in the second pixel block.

일 예에 따라 프로세서(120)는 제1 패치에서 평균 및 분산을 산출하고, 제2 패치에서 평균 및 분산을 산출할 수 있다. 여기서, 제1 패치에서의 평균 및 분산을 각각

Figure 112018071598014-pat00001
Figure 112018071598014-pat00002
라고 하고, 제2 패치에서의 평균 및 분산을 각각
Figure 112018071598014-pat00003
Figure 112018071598014-pat00004
라 한다. According to an example, the processor 120 may calculate the average and variance in the first patch and calculate the average and variance in the second patch. Here, the mean and variance in the first patch are respectively
Figure 112018071598014-pat00001
and
Figure 112018071598014-pat00002
, and the mean and variance in the second patch are respectively
Figure 112018071598014-pat00003
and
Figure 112018071598014-pat00004
say

프로세서(120)는 제1 패치에서의 분산

Figure 112018071598014-pat00005
및 제2 패치에서의 분산
Figure 112018071598014-pat00006
에 기초하여 게인 g를 획득할 수 있다. 여기서, 분산은 (편차)2의 평균을 의미하며, 편차는 제1 패치(또는 제2 패치)에 포함된 픽셀 값들의 평균과 각 픽셀 값의 차이가 될 수 있다. The processor 120 distributes in the first patch
Figure 112018071598014-pat00005
and variance in the second patch
Figure 112018071598014-pat00006
Gain g can be obtained based on Here, the variance means the average of (deviation) 2 , and the deviation may be a difference between the average of pixel values included in the first patch (or the second patch) and each pixel value.

다른 예에 따라, 프로세서(120)는 제1 패치에서 최대 그래디언트를 산출하고, 제2 패치에서 최대 그래디언트를 산출할 수 있다. 여기서, 제1 패치에서의 최대 그래디언트 및 제2 패치에서의 최대 그래디언트를 각각

Figure 112018071598014-pat00007
Figure 112018071598014-pat00008
라 한다. 여기서, 그래디언트는 인접 픽셀 간 픽셀 값 차이를 의미하며, 최대 그래디언트는 제1 패치(또는 제2 패치)에 포함된 인접 픽셀 간 픽셀 값 차이 중에서 가장 큰 값이 될 수 있다. According to another example, the processor 120 may calculate the maximum gradient in the first patch and the maximum gradient in the second patch. Here, the maximum gradient in the first patch and the maximum gradient in the second patch are respectively
Figure 112018071598014-pat00007
and
Figure 112018071598014-pat00008
say Here, the gradient means a pixel value difference between adjacent pixels, and the maximum gradient may be the largest value among pixel value differences between adjacent pixels included in the first patch (or the second patch).

한편, 영상의 로컬 특성에 따라 상이한 메트릭에 기초하여 게인을 산출하는 것이 효과적일 수 있다. 예를 들어, 영상을 플랫(flat), 에지(edge), 텍스처(texture) 영역으로 구별하도록 한다. Meanwhile, it may be effective to calculate the gain based on different metrics according to the local characteristics of the image. For example, an image is divided into flat, edge, and texture regions.

이 경우, 에지 영역에서는 에지의 maximum gradient를 보존하는 것이 블러를 방지하는데 효과적으로, 패치와 같은 좁은 영역에서 에지보다 큰 maximum gradient를 가지는 픽셀은 존재하지 않기 때문에 overshoot과 같은 부작용이 발생하지 않게 된다. 텍스처 영역은 에지 영역과 달리 비슷한 크기를 가진 신호들이 복잡하게 분포하기 때문에 분산을 보존하는 것이 효과적일 수 있다. 다만, 플랫 영역은 별도의 복원 과정을 수행하지 않을 수 있다. In this case, preserving the maximum gradient of the edge is effective in preventing blur in the edge area, and since there is no pixel with a maximum gradient larger than the edge in a narrow area such as a patch, side effects such as overshoot do not occur. In the texture region, unlike the edge region, since signals having similar sizes are distributed in a complex manner, it may be effective to preserve dispersion. However, a separate restoration process may not be performed on the flat area.

이에 따라 텍스처 영역에서는 분산에 기초하여 게인을 획득하고, 에지 영역에서는 최대 그래디언트에 기초하여 게인을 획득할 수 있다. 이에 따라 에지 영역에서는

Figure 112018071598014-pat00009
가 선명도 복원을 위한 최적 게인이 되고, 텍스처 영역에서는
Figure 112018071598014-pat00010
가 선명도 복원을 위한 최적 게인이 된다.Accordingly, a gain may be obtained based on variance in the texture area, and a gain may be obtained based on the maximum gradient in the edge area. Accordingly, in the edge area
Figure 112018071598014-pat00009
becomes the optimal gain for sharpness restoration, and in the texture area
Figure 112018071598014-pat00010
is an optimum gain for sharpness restoration.

이 후, 프로세서(120)는 획득된 게인 값을 제2 픽셀 블럭에 적용하여 잡음이 제거된 영상에 대한 인핸스 처리를 수행한다. 이 경우, 프로세서(120)는 제2 픽셀 블럭에 포함된 대상 픽셀에 획득된 게인 값을 적용하여 대상 픽셀의 출력 픽셀 값을 획득할 수 있다. 프로세서(120)는 이와 같은 방식으로 입력 영상의 모든 픽셀 값에 대한 처리를 수행하여 출력 영상을 획득할 수 있다. Thereafter, the processor 120 applies the obtained gain value to the second pixel block to perform enhancement processing on the noise-removed image. In this case, the processor 120 may obtain an output pixel value of the target pixel by applying the acquired gain value to the target pixel included in the second pixel block. The processor 120 may obtain an output image by processing all pixel values of the input image in this way.

즉, 프로세서(120)는 기설정된 픽셀 블럭(예를 들어, 기설정된 패치) 단위로 게인을 획득하고, 획득된 게인을 제2 픽셀 블럭에 포함된 대상 픽셀의 픽셀 값에 적용하여 스트레칭된 대상 픽셀 값을 획득할 수 있다. That is, the processor 120 obtains a gain in units of a preset pixel block (eg, a preset patch), applies the obtained gain to pixel values of target pixels included in the second pixel block, and stretches the target pixel. value can be obtained.

구체적으로, 프로세서(120)는 제2 픽셀 블럭에 포함된 픽셀 값, 제1 픽셀 블럭에 포함된 픽셀 값에 대한 평균 값(이하 제1 평균 값이라 함), 제2 픽셀 블럭에 포함된 픽셀 값에 대한 평균 값(이하, 제2 평균 값이라 함) 및 획득된 게인 값에 기초하여 스트레칭된 대상 픽셀 값을 획득할 수 있다. Specifically, the processor 120 includes a pixel value included in the second pixel block, an average value of pixel values included in the first pixel block (hereinafter referred to as a first average value), and a pixel value included in the second pixel block. A stretched target pixel value may be obtained based on an average value (hereinafter, referred to as a second average value) and an obtained gain value for .

일 예에 따라, 프로세서(120)는 제2 픽셀 블럭 즉, 제2 패치에 포함된 픽셀 값에서 제1 평균 값을 차감하고 획득된 픽셀 값에 게인 값을 곱한 후 획득된 픽셀 값에 제2 평균 값을 가산하여 인핸스 처리된 대상 픽셀 값을 획득할 수 있다. 이에 따라, 해당 패치는 입력 픽셀 값으로 구성된 제1 픽셀 블럭의 평균을 유지하면서, 입력 영상에서의 특성 metric 또한 유지할 수 있게 된다. According to an example, the processor 120 subtracts the first average value from the pixel values included in the second pixel block, that is, the second patch, multiplies the obtained pixel value by the gain value, and then calculates the second average value for the obtained pixel value. Values may be added to obtain an enhanced target pixel value. Accordingly, the corresponding patch can maintain the average of the first pixel block composed of the input pixel values and also maintain the characteristic metric in the input image.

도 4a 내지 도 4c는 본 개시의 일 실시 예에 따른 픽셀 값 스트레칭 방법을 설명하기 위한 도면들이다. 4A to 4C are diagrams for explaining a pixel value stretching method according to an exemplary embodiment of the present disclosure.

예를 들어, 도 4a에 도시된 바와 같이 입력 영상(예를 들어 압축 영상)에서 대상 픽셀(411)을 기준으로 제1 픽셀 블럭(410)을 식별하고, 잡음이 제거된 영상에서 대상 픽셀(421)을 기준으로 제2 픽셀 블럭(420)을 식별한다. 여기서, 잡음이 제거된 영상의 대상 픽셀(421)은 입력 영상의 대상 픽셀(411)과 동일한 위치의 픽셀이 될 수 있다. For example, as shown in FIG. 4A , the first pixel block 410 is identified based on the target pixel 411 in the input image (eg, compressed image), and the target pixel 421 in the noise-removed image. ), the second pixel block 420 is identified. Here, the target pixel 421 of the noise-removed image may be a pixel at the same position as the target pixel 411 of the input image.

이어서, 제1 픽셀 블럭(410)에 포함된 픽셀 값에 대한 제1 평균 값(Pm) 및 제2 픽셀 블럭(420)에 포함된 픽셀 값에 대한 제2 평균 값(Pm')을 획득한다. Subsequently, a first average value Pm of pixel values included in the first pixel block 410 and a second average value Pm' of pixel values included in the second pixel block 420 are obtained.

이어서, 도 4b에 도시된 바와 같이 제2 픽셀 블럭(420)에 포함된 각 픽셀 값에서 제2 평균 값(Pm')을 차감하여 제3 픽셀 블럭(430)을 획득하고, 해당 픽셀 블럭(430)에 포함된 각 값에 본 개시의 일 실시 예에 따라 획득된 게인 값(g)을 곱하여 제4 픽셀 블럭(440)을 획득한다. Subsequently, as shown in FIG. 4B , a third pixel block 430 is obtained by subtracting the second average value Pm' from each pixel value included in the second pixel block 420, and the corresponding pixel block 430 The fourth pixel block 440 is obtained by multiplying each value included in ) by the gain value g obtained according to an embodiment of the present disclosure.

이 후 제4 픽셀 블럭(440)에 포함된 각 값에 제1 픽셀 블럭(410)에 포함된 픽셀 값에 대한 제1 평균 값(Pm)을 가산하여 출력 픽셀 블럭(450)을 획득할 수 있다.Thereafter, the output pixel block 450 may be obtained by adding the first average value Pm of the pixel values included in the first pixel block 410 to each value included in the fourth pixel block 440 . .

이러한 프로세싱은 도 4a 및 도 4b에 도시된 바와 같이 픽셀 블록에 포함된 각 픽셀 값에 대해 수행될 수도 있으나, 대상 픽셀의 픽셀 값 만을 출력 영상의 픽셀 값으로 이용하는 경우 대상 픽셀(411)에 대해서만 해당 프로세싱을 수행할 수 있다. 예를 들어, 제2 픽셀 블럭에 포함된 대상 픽셀 값 P0'(421)에서 제2 평균 값(Pm')을 차감하여 획득된 값(431)에 게인 값(g)을 곱한 후(441), 제2 평균 값(Pm)을 가산하여 대상 픽셀에 대한 출력 픽셀 값(451)을 산출할 수 있다. This processing may be performed for each pixel value included in the pixel block as shown in FIGS. 4A and 4B, but only for the target pixel 411 when only the pixel value of the target pixel is used as the pixel value of the output image. processing can be performed. For example, after subtracting the second average value (Pm') from the target pixel value P 0 '(421) included in the second pixel block and multiplying the gain value (g) by the value (431) (441) , the second average value Pm may be added to calculate the output pixel value 451 for the target pixel.

한편, 프로세서(120)는 입력 영상의 가장자리에 위치한 픽셀에 대해서는 미러링한 픽셀 값에 기초하여 영상 처리를 수행할 수 있다. 예를 들어, P1을 입력 영상의 모서리에 위치한 픽셀이라고 가정하는 경우, 제1 패치(410)의 경계 위치의 픽셀 값들을 미러링하여 P1을(451)을 중심으로 하는 가상의 패치(450)를 생성하여 대응되는 제2 패치(460)를 획득하고, 도 4a 및 도 4b에서 설명한 바와 동일한 형태로 처리를 수행할 수 있다. Meanwhile, the processor 120 may perform image processing on pixels located at the edges of the input image based on the mirrored pixel values. For example, assuming that P 1 is a pixel located at a corner of the input image, a virtual patch 450 having P 1 as the center of 451 is obtained by mirroring pixel values at the boundary of the first patch 410. The corresponding second patch 460 may be obtained by generating , and processing may be performed in the same form as described in FIGS. 4A and 4B.

한편, 압축 잡음는 zero-mean을 가진다고 가정하였기 때문에 게인 값이 잡음 성분에는 영향을 미치지 않게 되므로, 잡음 제거 측면에서의 성능 감소는 발생하지 않게 된다. On the other hand, since it is assumed that the compression noise has zero-mean, the gain value does not affect the noise component, so the performance reduction in terms of noise removal does not occur.

또한, 상술한 바와 같이 제2 패치에서 대상 픽셀 즉, 중심 픽셀 값만 출력 영상에 이용되므로 주변 픽셀들과의 불일치 또는 갑작스런 특성 변화 등이 발생하지 않게 된다.In addition, as described above, since only the value of the target pixel, that is, the center pixel, is used in the output image in the second patch, discrepancies with neighboring pixels or sudden characteristic changes do not occur.

경우에 따라서는 제1 픽셀 블럭(410) 및 제2 픽셀 블럭(420)에 가우시안 필터링 처리를 수행한 후, 도 4a 및 도 4b와 같은 처리를 수행하는 것도 가능하다. 예를 들어, 가우시안 필터는 도 5a에 도시된 바와 같이 x축의 0은 가중치가 크고, +/- 부분로 갈수록 가중치가 적어지는 형태가 될 수 있고, 이러한 가우시안 필터를 3*3 형태의 마스크(50)에 적용하면 마스크(50) 중심은 가중치가 크고, 마스크(50)의 가장자리로 갈수록 가중치가 적어지는 형태가 될 수 있다. 다만 도 5a에 도시된 수치는 예로 든 것이며, 필터링 수치는 가우시안 함수의 시그마 값에 따라 달라짐은 물론이다. In some cases, it is also possible to perform the Gaussian filtering process on the first pixel block 410 and the second pixel block 420, and then perform the process shown in FIGS. 4A and 4B. For example, as shown in FIG. 5A, the Gaussian filter may have a large weight at 0 on the x-axis and a smaller weight toward the +/- part. ), the center of the mask 50 may have a large weight, and the weight may decrease towards the edges of the mask 50. However, the numerical value shown in FIG. 5A is an example, and the filtering numerical value varies depending on the sigma value of the Gaussian function.

프로세서(120)는 도 5b 및 도 5c에 도시된 바와 같이 가우시안 마스크(50)를 제1 패치(410) 및 제2 패치(420)에 포함된 각 픽셀 값에 적용하여 필터링 처리한 후, 도 4a 및 도 4b와 같은 처리를 수행할 수도 있다.As shown in FIGS. 5B and 5C, the processor 120 performs filtering by applying the Gaussian mask 50 to each pixel value included in the first patch 410 and the second patch 420, and then, FIG. 4A And processing as shown in FIG. 4B may be performed.

도 6a 및 도 6b는 본 개시의 다양한 실시 예에 따른 영상 처리 방법을 개략적으로 설명하기 위한 블럭도이다. 6A and 6B are block diagrams schematically illustrating an image processing method according to various embodiments of the present disclosure.

도 6a에 도시된 바와 같이 입력 영상(In), 즉 압축 영상에 대한 잡음 제거 처리를 수행(S610)하여 잡음이 제거된 영상(Idn)을 획득한다. As shown in FIG. 6A , a noise-removed image Idn is obtained by performing noise removal processing on the input image In, that is, the compressed image (S610).

이어서, 입력 영상(In)에 기초하여 제1 metric(Min)을 획득하고(S620), 잡음이 제거된 영상(Idn)에 기초하여 기초하여 제2 metric(Mdn)을 획득한다(S630). 예를 들어, 입력 영상(In)에서 식별된 제1 픽셀 블럭에 포함된 픽셀 값에 대한 제1 분산(또는 그래디언트)을 획득하고, 잡음이 제거된 영상(Idn)에서 식별된 제2 픽셀 블럭에 포함된 픽셀 값에 대한 제2 분산(또는 그래디언트)을 획득할 수 있다. Next, a first metric (Min) is obtained based on the input image (In) (S620), and a second metric (Mdn) is obtained based on the noise-removed image (S630). For example, a first variance (or gradient) of a pixel value included in a first pixel block identified in the input image In is obtained, and a second pixel block identified in the noise-removed image Idn is obtained. A second variance (or gradient) for the included pixel values may be obtained.

이어서, 제1 metric(Min) 및 제2 metric(Mdn)에 기초하여 게인 값 Grst를 획득한다(S640). 일 예로, 제1 픽셀 블럭에서의 분산

Figure 112018071598014-pat00011
및 제2 픽셀 블럭에서의 분산
Figure 112018071598014-pat00012
에 기초하여 게인
Figure 112018071598014-pat00013
를 획득할 수 있다. 다른 예로, 제1 픽셀 블럭에서의 최대 그래디언트
Figure 112018071598014-pat00014
및 제2 픽셀 블럭에서의 최대 그래디언트를 각각
Figure 112018071598014-pat00015
에 기초하여 게인
Figure 112018071598014-pat00016
을 획득할 수 있다. Subsequently, a gain value Grst is obtained based on the first metric (Min) and the second metric (Mdn) (S640). As an example, the variance in the first pixel block
Figure 112018071598014-pat00011
and the variance in the second pixel block.
Figure 112018071598014-pat00012
gain based on
Figure 112018071598014-pat00013
can be obtained. As another example, the maximum gradient in the first pixel block
Figure 112018071598014-pat00014
and the maximum gradient in the second pixel block, respectively.
Figure 112018071598014-pat00015
gain based on
Figure 112018071598014-pat00016
can be obtained.

이 후, 획득된 게인 값 Grst을 잡음이 제거된 영상(Idn)에 적용하여 인핸스 처리를 수행한다(S650). 예를 들어, 텍스처 영역에는 게인

Figure 112018071598014-pat00017
을 적용하고, 에지 영역에는 게인
Figure 112018071598014-pat00018
을 적용하여 인핸스 처리를 수행할 수 있다. Thereafter, enhancement processing is performed by applying the acquired gain value Grst to the noise-removed image Idn (S650). For example, the texture area has gain
Figure 112018071598014-pat00017
, and gain in the edge region
Figure 112018071598014-pat00018
It is possible to perform enhancement processing by applying .

또는, 도 6b에 도시된 바와 같이 S640 단계에서 획득된 게인 값을 적용함에 따른 출력 영상(Iout)에 기초하여 메트릭을 재산출하고(S660)하고, 재산출된 메트릭에 기초하여 게인 값을 재산출하는 과정을 반복하여 최적화된 게인 값을 산출하는 것도 가능하다. Alternatively, as shown in FIG. 6B, the metric is recalculated (S660) based on the output image Iout according to the application of the gain value obtained in step S640, and the gain value is recalculated based on the recalculated metric. It is also possible to calculate an optimized gain value by repeating the process.

<다른 실시 예에 따른 게인 획득 및 인핸스 처리 > <Gain acquisition and enhancement processing according to another embodiment>

한편, 다른 실시 예에 따라 프로세서(120)는 영상의 압축 과정에서 블러된 에지의 선명도, 저하된 로컬 콘트라스트 등을 복원하기 위한 게인을 산출할 수 있다. 이 경우에는 원본 영상의 압축율에 따른 최적의 게인을 산출하여 테이블 형태로 저장하고 이를 이용하여 인핸스 처리를 수행할 수 있다. 이하에서는 최적의 게인을 산출하는 방법에 대해 설명하도록 한다.Meanwhile, according to another embodiment, the processor 120 may calculate a gain for restoring sharpness of a blurred edge or degraded local contrast in the process of compressing an image. In this case, an optimal gain according to the compression rate of the original video may be calculated and stored in a table form, and enhancement processing may be performed using the result. Hereinafter, a method of calculating an optimal gain will be described.

프로세서(120)는 maximum a posteriori(MAP) 기법에 기초하여 최적의 게인을 산출할 수 있다. The processor 120 may calculate an optimal gain based on a maximum a posteriori (MAP) technique.

일 실시 예에 따라, 잡음 제거 처리로서 compression artifact removal (CAR)가 적용되고, 인핸스 처리로서 edge sharpness restoration (ESR)가 적용된다고 가정하도록 한다. 이 경우, 원본 영상을 x, 압축 영상을 y, 노이즈가 제거된 영상을

Figure 112018071598014-pat00019
, 인핸스 처리된 영상을
Figure 112018071598014-pat00020
라고 할 수 있다. According to an embodiment, it is assumed that compression artifact removal (CAR) is applied as a noise removal process and edge sharpness restoration (ESR) is applied as an enhancement process. In this case, x is the original image, y is the compressed image, and the denoised image is
Figure 112018071598014-pat00019
, the enhanced image
Figure 112018071598014-pat00020
can be said

프로세서(120)는 maximum a posteriori(MAP) 기법 및 optimization 기법을 이용하여 최적의 게인을 획득할 수 있다. 여기서, MAP 기법은 주어진 관측결과와 사전지식을 결합해서 최적의 파라미터를 찾아내는 방법이다. 이러한 MAP 기법을 이용하여 본원에서는 원본 영상의 압축율에 따른 최적의 게인을 산출하여 테이블 형태로 저장하고 이를 이용하여 인핸스 처리를 수행할 수 있다. The processor 120 may obtain an optimal gain using a maximum a posteriori (MAP) technique and an optimization technique. Here, the MAP technique is a method of finding optimal parameters by combining given observation results and prior knowledge. Using this MAP technique, the optimal gain according to the compression rate of the original video is calculated and stored in the form of a table, and enhancement processing can be performed using this.

구체적으로 프로세서(120)는 MAP 기법에 기초하여 압축 잡음이 제거된 영상

Figure 112018071598014-pat00021
을 수학식 1과 같이 모델링할 수 있다. Specifically, the processor 120 generates an image from which compression noise has been removed based on the MAP technique.
Figure 112018071598014-pat00021
can be modeled as in Equation 1.

Figure 112018071598014-pat00022
Figure 112018071598014-pat00022

여기서, x는 원본 영상 즉, 압축이 수행되기 전 영상을 나타내며, eb는 압축 잡음이 제거된 영상에서의 에지 블러 잡음을 나타내며 가우시안(Gaussian) 분포를 가진다. 예를 들어, 도 7에 도시된 바와 같이 원본 영상 x를 압축하면, 압축 영상 y에는 압축에 의한 잡음이 발생하게 된다. 또한, 압축 영상 y에 대해 압축 잡음 제거를 수행하면, 압축 잡음 제거(Compressin Arifact Removal) 처리가 수행된 영상

Figure 112018071598014-pat00023
은 에지 블러 잡음이 발생하며, 이를 eb라고 할 수 있다. Here, x denotes an original image, that is, an image before compression is performed, and e b denotes edge blur noise in an image from which compression noise is removed and has a Gaussian distribution. For example, when an original image x is compressed as shown in FIG. 7 , noise due to the compression occurs in the compressed image y. In addition, when compression noise removal is performed on the compressed image y, the image on which the compression noise removal process has been performed
Figure 112018071598014-pat00023
causes edge blur noise, which can be referred to as e b .

MAP 기법에 따르면, 에지 선명도 복원(Edge Sharpness Restortion) 처리에 의해 에지가 복원된 영상

Figure 112018071598014-pat00024
은 하기와 같은 수학식 2로 모델링될 수 있다. According to the MAP technique, an image in which edges are restored by edge sharpness restoration processing
Figure 112018071598014-pat00024
may be modeled by Equation 2 as follows.

Figure 112018071598014-pat00025
Figure 112018071598014-pat00025

수학식 2를 Bayesian rule에 의해 하기와 같은 수학식 3으로 변형될 수 있다. Equation 2 may be transformed into Equation 3 as follows by the Bayesian rule.

Figure 112018071598014-pat00026
Figure 112018071598014-pat00026

에지 블러 잡음 eb는 가우시안 분포를 가지므로, 수학식 3의 첫번째 부분은하기와 같은 수학식 4로 나타내어질 수 있다. Since the edge blur noise e b has a Gaussian distribution, the first part of Equation 3 can be expressed as Equation 4 below.

Figure 112018071598014-pat00027
Figure 112018071598014-pat00027

여기서,

Figure 112018071598014-pat00028
는 가우시안 분포를 가지는 에지 블러 잡음의 variance이다. here,
Figure 112018071598014-pat00028
is the variance of edge blur noise having a Gaussian distribution.

Figure 112018071598014-pat00029
를 추정하기 위하여, 예를 들어 도 8a에 도시된 바와 같이 JEPG Qulity Factor를 변경함에 따른 σb값을 산출할 수 있다.
Figure 112018071598014-pat00029
In order to estimate , a value of σ b may be calculated by changing the JEPG Qulity Factor, for example, as shown in FIG. 8A.

한편, 낮은 비트 레이트로 압축된 영상에서 블러된 에지들은 더 넓은 에지 폭을 가지게 된다. 이에 따라 압축 전 에지들의 분산은 압축 후 에지들의 분산보다 크게 된다. 이에 따라

Figure 112018071598014-pat00030
는 도 8b에 도시된 바와 같이
Figure 112018071598014-pat00031
와 동일한 방식으로 산출될 수 있다. 즉, 수학식 3의 두번째 부분은 variance 차이가 클수록 작은 결과 값을 가지도록 하는 함수 fv를 이용하여 하기와 같은 수학식 5로 나타내어질 수 있다. Meanwhile, in an image compressed with a low bit rate, blurred edges have a wider edge width. Accordingly, the variance of the edges before compression becomes greater than the variance of the edges after compression. Accordingly
Figure 112018071598014-pat00030
As shown in Figure 8b
Figure 112018071598014-pat00031
can be calculated in the same way as That is, the second part of Equation 3 can be expressed as Equation 5 below using a function fv that has a smaller result value as the difference in variance increases.

Figure 112018071598014-pat00032
Figure 112018071598014-pat00032

여기서,

Figure 112018071598014-pat00033
는 가우시안 분포를 가지는 에지 분산 에러의 분산을 나타내는다. 도 9는 본 개시의 일 실시 예에 따른 함수 fv의 형태를 나타내는 도면이다. here,
Figure 112018071598014-pat00033
represents the variance of the edge variance error having a Gaussian distribution. 9 is a diagram illustrating a form of a function fv according to an embodiment of the present disclosure.

이에 따라 최적의 게인을 획득하기 위한 수학식은 하기 수학식 6과 같이 나타내어질 수 있다. Accordingly, an equation for obtaining an optimal gain may be expressed as Equation 6 below.

Figure 112018071598014-pat00034
Figure 112018071598014-pat00034

여기서, Ω는 영상에서 에지 영역에 해당하는 픽셀 집합을 나타낸다. Here, Ω denotes a set of pixels corresponding to an edge area in the image.

일 실시 예에 따라 프로세서(120)는 게인을 적용하여 unsharp masking(USM) 처리를 수행할 수 있다. According to an embodiment, the processor 120 may perform unsharp masking (USM) processing by applying a gain.

구체적으로, 프로세서(120)는 하기 수학식 7에 기초하여 USM 처리를 수행할 수 있다. Specifically, the processor 120 may perform USM processing based on Equation 7 below.

Figure 112018071598014-pat00035
Figure 112018071598014-pat00035

여기서, k는 샤프니스 증가량 즉, 게인을 나타내며, r은 xsmooth를 생성하는데 이용되는 블러 반경, t는 unsharp masking이 적용되는 최소 분산의 임계값, g(x)는 smoothing 필터를 적용하여 추출한 고주파 성분 이다. 여기서, r 및 t를 고정 값이지만, k는 가변되는 값이다. Here, k represents the amount of sharpness increase, i.e. gain, r is the blur radius used to create x smooth , t is the minimum variance threshold to which unsharp masking is applied, and g(x) is the high-frequency component extracted by applying the smoothing filter. am. Here, r and t are fixed values, but k is a variable value.

즉, 영상의 고주파 성분 g(x)를 추출하여 게인 k를 곱한 후 더하게 되면 에지 선명도가 향상될 수 있다. That is, if the high-frequency component g(x) of the image is extracted, multiplied by the gain k, and then added, edge sharpness can be improved.

한편, k는 상술한 방식으로 iterative하게 획득되므로 수학식 7은 하기 수학식 8과 같이 된다. Meanwhile, since k is obtained iteratively in the above-described manner, Equation 7 becomes the following Equation 8.

Figure 112018071598014-pat00036
Figure 112018071598014-pat00036

여기서, l은 이터레이션 횟수를 나타낸다. Here, l represents the number of iterations.

한편, 압축 영상에서 복잡한 텍스처 영역(complex texture region)으로 USM을 적용하게 되면 원치 않는 왜곡(distortion)이 발생될 수 있다. 낮은 비트 레이트로 압축을 수행하게 되면, 복잡하고 약한 텍스처(complex weak texture)는 유지되기가 어렵기 때문이다. 반대로, 단순한 구조(simple structure) 및 큰 그래디언트(large gradient)를 가지는 에지 영역은 좀더 신뢰성있게 샤프닝되고 복원될 수 있다. 이에 따라 Laplacian filter를 이용하여 복잡한 텍스처 영역이 검출될 수 있고 하기 수학식 9와 같이 에지 가중치 맵 we을 이용하여 약한 텍스처 영역을 제외한 에지 영역에만 unsharp masking을 적용할 수 있다. Meanwhile, when USM is applied to a complex texture region in a compressed image, unwanted distortion may occur. This is because it is difficult to maintain a complex weak texture when compression is performed at a low bit rate. Conversely, an edge region having a simple structure and a large gradient can be sharpened and restored more reliably. Accordingly, a complex texture region can be detected using the Laplacian filter, and unsharp masking can be applied only to the edge region excluding the weak texture region using the edge weight map w e as shown in Equation 9 below.

Figure 112018071598014-pat00037
Figure 112018071598014-pat00037

여기서, 에지 가중치 맵 we는 하기 수학식 10과 같이 나타내어질 수 있다. Here, the edge weight map w e can be expressed as in Equation 10 below.

Figure 112018071598014-pat00038
Figure 112018071598014-pat00038

여기서, Lsmooth

Figure 112018071598014-pat00039
영상에 Laplacian filter를 적용 후, smoothing필터를 적용한 결과이다. 즉, Lsmooth = │LaplacianFilter(
Figure 112018071598014-pat00040
)│*b 이고, b는 blur kernel이다. Here, L smooth is
Figure 112018071598014-pat00039
This is the result of applying the smoothing filter after applying the Laplacian filter to the image. That is, L smooth = │LaplacianFilter(
Figure 112018071598014-pat00040
)│*b, and b is the blur kernel.

도 10은 본 개시의 일 실시 예에 따른 에지 가중치 맵 we 을 나타낸다.10 illustrates an edge weight map w e according to an embodiment of the present disclosure.

한편, 수학식 10에서 EC(i,j)는 edge correlation 수치로, step kernel S를 입력 영상의 수직, 수평 방향에 적용하여 하기 수학식 11과 같이 구할 수 있다. Meanwhile, in Equation 10, EC(i,j) is an edge correlation value, and can be obtained as shown in Equation 11 below by applying step kernel S to the vertical and horizontal directions of the input image.

Figure 112018071598014-pat00041
Figure 112018071598014-pat00041

여기서, Thor 및 Tver 는 pixel(i,j)를 중심으로 하는 수직, 수평 방향의 n개의 pixel set을 의미한다. Here, T hor and T ver mean n pixel sets in vertical and horizontal directions centered on pixel (i, j).

도 11a는 본 개시의 일 실시 예에 따른 step kernel S의 예시를 도시하며, 도 11b는 압축 영상의 에지 그래디언트가 JEPG quality factor가 감소함에 따라 감소되는 것을 나타낸다. 11A shows an example of step kernel S according to an embodiment of the present disclosure, and FIG. 11B shows that the edge gradient of the compressed image decreases as the JEPG quality factor decreases.

한편, 에지에 unsharp masking을 적용한 영상

Figure 112018071598014-pat00042
는 undershoot과 overshoot의 부작용이 발생할 수 있다. 이에 따라 하기 수학식 12와 같이 현재 픽셀 주변의 최소 픽셀 값과 최대 픽셀 값을 획득하여, 픽셀 값이 해당 값들을 초과하거나, 미만이 되지 않도록 픽셀 값을 조정할 수 있다. Meanwhile, an image with unsharp masking applied to the edge
Figure 112018071598014-pat00042
can cause side effects of undershoot and overshoot. Accordingly, as shown in Equation 12 below, the minimum pixel value and the maximum pixel value around the current pixel may be obtained, and the pixel value may be adjusted so that the pixel value does not exceed or fall below the corresponding values.

Figure 112018071598014-pat00043
Figure 112018071598014-pat00043

도 12는 본 개시의 일 실시 예에 따라 overshoot과 undershoot 없이 에지 선명도를 향상시킨 예시이다. 12 is an example of improving edge sharpness without overshoot and undershoot according to an embodiment of the present disclosure.

예를 들어, 도 13a에 도시된 바와 같이 원본 영상(1310)을 압축하게 되면 압축 영상(1320)에서 ringing, mosquito, edge blur 현상이 발생하게 된다(1321). 도 13a 내지 도 13d에서는 설명의 편의를 위하여 좌측에 입력 영상(즉, 원본 영상(1310))을 도시하고, 우측에 각 단계에서 영상처리된 영상을 도시하였다. For example, as shown in FIG. 13A, when the original image 1310 is compressed, ringing, mosquito, and edge blur phenomena occur in the compressed image 1320 (1321). 13A to 13D show the input image (ie, the original image 1310) on the left side and the image processed in each step on the right side for convenience of description.

이어서, 압축 영상(1320)에서 잡음 제거 처리를 수행하면, 도 13b에 도시된 바와 같이 잡음 제거 처리가 수행된 영상(1330)에서는 ringing, mosquito 잡음은 사라지지만 edge blur 현상은 그대로 남아있게 된다(1331). Subsequently, when noise removal processing is performed on the compressed image 1320, as shown in FIG. ).

잡음 제거 처리가 수행된 영상(1330)에 본 개시의 최적화 기법을 통해 계산한 k를 단순히 적용하여 에지 선명도를 향상시키면, 도 13c에 도시된 바와 같이 해당 영상(1340)에서는 overshoot/undershoot가 발생하게 된다(1341).If edge sharpness is improved by simply applying k calculated through the optimization technique of the present disclosure to an image 1330 subjected to noise removal processing, overshoot/undershoot occurs in the corresponding image 1340 as shown in FIG. 13C becomes (1341).

이에 따라, 수학식 12에 따른 최소 픽셀 값과 최대 픽셀 값을 이용하면, 도 13d에 도시된 바와 같이 해당 영상(1350)에서는 overshoot/undershoot 없이 에지 선명도가 복원될 수 있게 된다(1351).Accordingly, if the minimum pixel value and the maximum pixel value according to Equation 12 are used, as shown in FIG. 13D , edge sharpness can be restored in the corresponding image 1350 without overshoot/undershoot (1351).

한편, 프로세서(120)는 수학식 6 및 수학식 12에 기초하여 최적화 기법을 적용하여 압축율에 따른 최적 게인을 획득할 수 있다. 여기서, 최적화 기법의 예로 gradient decent 기법이 이용될 수 있다. gradient decent 기법은 현재 위치에서 가장 경사가 급하게 하강하는 방향을 찾고, 그 방향으로 이동하여 새로운 위치를 잡는다. 이러한 방법을 반복하여, 최적화 지점을 찾는 방법이다. Meanwhile, the processor 120 may obtain an optimal gain according to the compression ratio by applying an optimization technique based on Equations 6 and 12. Here, as an example of an optimization technique, a gradient decent technique can be used. The gradient decent method finds the direction in which the gradient descends most steeply from the current position, moves in that direction, and takes a new position. This method is repeated to find an optimization point.

프로세서(120)는 각 압축율에 따른 최적 게인이 획득되면, 획득된 게인을 룩업 테이블 형태로 저장할 수 있다. 이후, 프로세서(120)는 입력 영상의 압축율에 기초하여 룩업 테이블에서 대응되는 게인을 획득하고, 획득된 게인에 기초하여 인핸스 처리를 수행할 수 있다. When the optimal gain according to each compression rate is obtained, the processor 120 may store the obtained gain in the form of a lookup table. Then, the processor 120 may obtain a corresponding gain from the lookup table based on the compression rate of the input image, and perform enhancement processing based on the obtained gain.

도 14는 본 개시의 다른 실시 예에 따른 정량적 효과를 설명하기 위한 테이블이다. 14 is a table for explaining quantitative effects according to another embodiment of the present disclosure.

8개 영상에 대하여 quality factor(QF)를 각각 10, 20으로 JPEG 압축 후, PSNR 변화를 표시하였다. QF가 10인 경우 CONCOLOR를 사용하여 잡음 제거 결과 PSNR(Peak Signal-to-noise ratio)이 최대 2.81dB 향상되었고, QF가 20인 경우 잡음 제거 결과 PSNR이 최대 2.95dB 향상되었다. 잡음 제거 후, 에지 선명도 복원 결과(CONCOLOR + edge sharpness restoration) QF 10일 때 PSNR이 최대 0.42dB, QF 20일 때 PSNR이 최대 0.46dB 향상되었다. After JPEG compression with the quality factor (QF) of 10 and 20 for 8 images, the PSNR change is displayed. When QF is 10, PSNR (Peak Signal-to-noise ratio) improves by up to 2.81dB as a result of noise cancellation using CONCOLOR, and when QF is 20, PSNR improves by up to 2.95dB as a result of noise cancellation. After noise removal, as a result of edge sharpness restoration (CONCOLOR + edge sharpness restoration), the PSNR improved by up to 0.42dB at QF 10 and by up to 0.46dB at QF 20.

도 15는 본 개시의 일 실시 예에 따른 영상 처리 방법을 설명하기 위한 흐름도이다. 15 is a flowchart illustrating an image processing method according to an exemplary embodiment of the present disclosure.

도 15에 따르면, 우선 입력된 영상에 대한 잡음 제거 처리를 수행한다(S1510).According to FIG. 15, first, a noise removal process is performed on an input image (S1510).

이어서, 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하고, 잡음이 제거된 영상에서 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별한다(S1520).Next, a first pixel block is identified based on the target pixel in the input image, and a second pixel block is identified based on the target pixel in the noise-removed image (S1520).

이어서, 제1 픽셀 블럭에 포함된 픽셀 값 및 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득한다(S1530).Subsequently, a gain value is obtained based on the pixel values included in the first pixel block and the pixel values included in the second pixel block (S1530).

이 후, 획득된 게인 값을 제2 픽셀 블럭에 적용하여 잡음이 제거된 영상에 대한 인핸스 처리를 수행한다(S1540).Thereafter, enhancement processing is performed on the noise-removed image by applying the obtained gain value to the second pixel block (S1540).

또한, S1530 단계에서는 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산 및 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산에 기초하여 게인 값을 획득할 수 있다. Also, in step S1530, a gain value may be obtained based on the variance of pixel values included in the first pixel block and the variance of pixel values included in the second pixel block.

또한, S1530 단계에서는, 제1 픽셀 블럭에 포함된 픽셀 값에 그래디언트 및 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트에 기초하여 게인 값을 획득할 수 있다. Also, in step S1530, a gain value may be obtained based on a gradient of pixel values included in the first pixel block and a gradient of pixel values included in the second pixel block.

또한, S1530 단계에서는, 제1 픽셀 블럭이 입력 영상의 텍스처 영역에 포함되는 경우, 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산 및 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산에 기초하여 게인 값을 획득할 수 있다. 또한, 제1 픽셀 블럭이 입력 영상의 에지 영역에 포함되는 경우, 제1 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트 및 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트에 기초하여 게인 값을 획득할 수 있다. Further, in step S1530, when the first pixel block is included in the texture region of the input image, a gain is obtained based on the variance of pixel values included in the first pixel block and the variance of pixel values included in the second pixel block. value can be obtained. Further, when the first pixel block is included in an edge region of the input image, a gain value may be obtained based on a gradient of pixel values included in the first pixel block and a gradient of pixel values included in the second pixel block. can

또한, S1540 단계에서는, 제2 픽셀 블럭에 포함된 픽셀 값, 제1 픽셀 블럭에 포함된 픽셀 값에 대한 제1 평균 값, 제2 픽셀 블럭에 포함된 픽셀 값에 대한 제2 평균 값 및 게인 값에 기초하여 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다. Further, in step S1540, the pixel values included in the second pixel block, the first average value of the pixel values included in the first pixel block, and the second average value and gain value of the pixel values included in the second pixel block Based on , enhancement processing may be performed on an image from which noise is removed.

또한, S1540 단계에서는, 제2 픽셀 블럭에 포함된 각 픽셀 값에서 제2 평균 값을 차감하고, 게인 값을 곱한 후 제1 평균 값을 가산하여 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다. Further, in step S1540, enhancement processing may be performed on the noise-removed image by subtracting the second average value from each pixel value included in the second pixel block, multiplying the gain value, and then adding the first average value. there is.

또한, S1540 단계에서는, 제2 픽셀 블럭에서 대상 픽셀의 픽셀 값을 획득하고, 획득된 픽셀 값에서 제2 평균 값을 차감하고, 게인 값을 곱한 후 제1 평균 값을 가산하여 잡음이 제거된 영상에 대한 인핸스 처리를 수행할 수 있다. Further, in step S1540, a pixel value of a target pixel in the second pixel block is obtained, a second average value is subtracted from the obtained pixel value, a gain value is multiplied, and the first average value is added to obtain a noise-removed image. Enhancement processing can be performed on .

또한, S1540 단계에서는, 언샤프 마스킹(unsharp masking) 및 픽셀 값 스트레칭(stretching) 중 적어도 하나를 적용하여 인핸스 처리를 수행할 수 있다. Also, in step S1540, enhancement processing may be performed by applying at least one of unsharp masking and pixel value stretching.

도 16은 본 개시의 다른 실시 예에 따른 영상 처리 장치의 구성을 나타내는 블럭도이다. 16 is a block diagram illustrating the configuration of an image processing device according to another embodiment of the present disclosure.

도 16에 따르면, 영상 처리 장치(100')는 입력부(110), 프로세서(120), 디스플레이(130) 및 메모리(140)를 포함한다. 도 16에 도시된 구성 중 도 2에 도시된 구성과 중복되는 구성에 대해서는 자세한 설명을 생략하도록 한다.According to FIG. 16 , the image processing device 100' includes an input unit 110, a processor 120, a display 130, and a memory 140. Among the components shown in FIG. 16 , detailed descriptions of components overlapping those shown in FIG. 2 will be omitted.

디스플레이(130)는 LCD(liquid crystal display), OLED(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing), QD(quantum dot) 디스플레이 패널 등과 같은 다양한 형태로 구현될 수 있다. The display 130 may be implemented in various forms such as a liquid crystal display (LCD), an organic light-emitting diode (OLED), a liquid crystal on silicon (LCoS), a digital light processing (DLP), a quantum dot (QD) display panel, and the like. can

프로세서(120)는 CPU, 영상 처리 장치(100')의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 또는 비 휘발성 메모리) 및 영상 처리 장치(100')의 외부에서부터 입력되는 데이터를 저장하거나 영상 처리 장치(100')에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 또는 휘발성 메모리)을 포함할 수 있다. The processor 120 stores a CPU, a ROM (or non-volatile memory) in which a control program for controlling the image processing device 100' is stored, and data input from the outside of the image processing device 100' or image processing It may include RAM (RAM, or volatile memory) used as a storage area corresponding to various tasks performed in the device 100'.

CPU는 적어도 하나의 메모리(140)에 액세스하여, 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The CPU accesses at least one memory 140 and performs various operations using stored various programs, contents, data, and the like.

여기서, 적어도 하나의 메모리(140)는 프로세서(120)에 포함된 롬(ROM), 램(RAM) 등의 내부 메모리로 구현되거나, 프로세서(120)와 별도의 메모리로 구현될 수도 있다. 이 경우, 적어도 하나의 메모리(140)는 데이터 저장 용도에 따라 영상 처리 장치(100')에 임베디드된 메모리 형태로 구현되거나, 영상 처리 장치(100')에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 영상 처리 장치(100')의 구동을 위한 데이터의 경우 영상 처리 장치(100')에 임베디드된 메모리에 저장되고, 영상 처리 장치(100')의 확장 기능을 위한 데이터의 경우 영상 처리 장치(100')에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 영상 처리 장치(100')에 임베디드된 메모리의 경우 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등과 같은 형태로 구현되고, 디스플레이 장치(200)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, micro SD 카드, USB 메모리 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다. 일 예에 따라 메모리(140)는 프로세서(120) 내부 메모리로 구현될 수 있으며 이 경우 프로세서(120)의 하드웨어적 메모리 용량 한계에 따른 N 라인 메모리로 구현될 수 있다. Here, the at least one memory 140 may be implemented as an internal memory such as a ROM or RAM included in the processor 120 or may be implemented as a separate memory from the processor 120 . In this case, the at least one memory 140 may be implemented in the form of a memory embedded in the image processing device 100' or in the form of a removable memory in the image processing device 100', depending on the purpose of storing data. . For example, data for driving the image processing device 100' is stored in a memory embedded in the image processing device 100', and data for an extended function of the image processing device 100' is image processed. It can be stored in a memory that can be attached to or detached from the device 100'. Meanwhile, in the case of memory embedded in the image processing device 100', it is implemented in the form of a non-volatile memory, volatile memory, hard disk drive (HDD) or solid state drive (SSD), etc., and is detachable from the display device 200. Possible memory may be implemented in the form of a memory card (eg, micro SD card, USB memory, etc.), an external memory (eg, USB memory) connectable to a USB port, and the like. According to an example, the memory 140 may be implemented as an internal memory of the processor 120, and in this case, it may be implemented as an N-line memory according to a hardware memory capacity limit of the processor 120.

그 밖에 영상 처리 장치(100')는 음향 신호를 출력하는 출력부(미도시), 사용자 명령을 입력받는 사용자 인터페이스(미도시)를 더 포함할 수 있다. In addition, the image processing device 100 ′ may further include an output unit (not shown) that outputs a sound signal and a user interface (not shown) that receives a user command.

상술한 다양한 실시 예들에 따르면, 영상 압축, 잡음 제거 처리 등으로 감소된 에지의 선명도 및/또는 로컬 콘트라스트를 향상시킬 수 있게 된다.According to various embodiments described above, it is possible to improve the sharpness and/or local contrast of an edge reduced by image compression, noise removal processing, and the like.

다만, 본 개시의 다양한 실시 예들은 영상 처리 장치 뿐 아니라, 셋탑 박스와 같은 영상 수신 장치, TV와 같은 디스플레이 장치 등 영상 처리가 가능한 모든 전자 장치에 적용될 수 있음은 물론이다. However, it goes without saying that various embodiments of the present disclosure can be applied to all electronic devices capable of image processing, such as image receiving devices such as set-top boxes and display devices such as TVs, as well as image processing devices.

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서(120) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.Meanwhile, various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof. In some cases, the embodiments described herein may be implemented by the processor 120 itself. According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 영상 처리 장치(100)의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 음향 출력 장치(100)에서의 처리 동작을 특정 기기가 수행하도록 한다. Meanwhile, computer instructions for performing the processing operation of the image processing device 100 according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium. can When the computer instructions stored in the non-transitory computer readable medium are executed by the processor of the specific device, the processing operation in the audio output device 100 according to various embodiments described above is performed by the specific device.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.A non-transitory computer readable medium refers to a medium that stores data semi-permanently and can be read by a device, not a medium that stores data for a short moment, such as a register, cache, or memory. Specific examples of the non-transitory computer readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and is commonly used in the technical field belonging to the present disclosure without departing from the gist of the present disclosure claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present disclosure.

100: 영상 처리 장치 110: 입력부
120: 프로세서
100: image processing device 110: input unit
120: processor

Claims (19)

입력부; 및
상기 입력부를 통해 입력된 영상에 대한 잡음 제거 처리를 수행하고,
상기 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하고,
상기 잡음이 제거된 영상에서 상기 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별하고,
상기 제1 픽셀 블럭에 포함된 픽셀 값 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득하고,
상기 획득된 게인 값을 상기 제2 픽셀 블럭에 적용하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 프로세서;를 포함하며,
상기 프로세서는,
상기 제1 픽셀 블럭이 상기 입력 영상의 텍스처 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산을 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산으로 나눈 값에 기초하여 상기 게인 값을 획득하고,
상기 제1 픽셀 블럭이 상기 입력 영상의 에지 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트를 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트로 나눈 값에 기초하여 상기 게인 값을 획득하는, 영상 처리 장치.
input unit; and
performing noise removal processing on an image input through the input unit;
Identifying a first pixel block based on a target pixel in the input image;
Identifying a second pixel block based on the target pixel in the noise-removed image;
obtaining a gain value based on a pixel value included in the first pixel block and a pixel value included in the second pixel block;
A processor performing enhancement processing on the noise-removed image by applying the obtained gain value to the second pixel block;
the processor,
When the first pixel block is included in the texture region of the input image, based on a value obtained by dividing the variance of pixel values included in the first pixel block by the variance of pixel values included in the second pixel block Obtaining the gain value;
When the first pixel block is included in the edge region of the input image, based on a value obtained by dividing a gradient for pixel values included in the first pixel block by a gradient for pixel values included in the second pixel block An image processing device that obtains the gain value.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 프로세서는,
상기 제2 픽셀 블럭에 포함된 픽셀 값, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 제1 평균 값, 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 제2 평균 값 및 상기 게인 값에 기초하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 영상 처리 장치.
According to claim 1,
the processor,
Based on a pixel value included in the second pixel block, a first average value of pixel values included in the first pixel block, a second average value of pixel values included in the second pixel block, and the gain value An image processing device that performs enhancement processing on the image from which the noise has been removed.
제5항에 있어서,
상기 프로세서는,
상기 제2 픽셀 블럭에 포함된 각 픽셀 값에서 상기 제2 평균 값을 차감하고, 상기 게인 값을 곱한 후 상기 제1 평균 값을 가산하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 영상 처리 장치.
According to claim 5,
the processor,
Image processing for performing enhancement processing on the noise-removed image by subtracting the second average value from each pixel value included in the second pixel block, multiplying the gain value, and then adding the first average value. Device.
제5항에 있어서,
상기 프로세서는,
상기 제2 픽셀 블럭에서 상기 대상 픽셀의 픽셀 값을 획득하고, 상기 획득된 픽셀 값에서 상기 제2 평균 값을 차감하고, 상기 게인 값을 곱한 후 상기 제1 평균 값을 가산하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 영상 처리 장치.
According to claim 5,
the processor,
The noise is removed by obtaining a pixel value of the target pixel in the second pixel block, subtracting the second average value from the obtained pixel value, multiplying the gain value, and then adding the first average value. An image processing device that performs enhancement processing on an image.
제1항에 있어서,
상기 프로세서는,
언샤프 마스킹(unsharp masking) 및 픽셀 값 스트레칭(stretching) 중 적어도 하나를 적용하여 상기 인핸스 처리를 수행하는, 영상 처리 장치.
According to claim 1,
the processor,
An image processing device that performs the enhancement processing by applying at least one of unsharp masking and pixel value stretching.
제1항에 있어서,
디스플레이;를 더 포함하며,
상기 프로세서는,
상기 인핸스 처리된 영상을 디스플레이하도록 상기 디스플레이를 제어하는, 영상 처리 장치.
According to claim 1,
It further includes a display;
the processor,
An image processing device that controls the display to display the enhanced image.
영상 처리 장치의 영상 처리 방법에 있어서,
입력된 영상에 대한 잡음 제거 처리를 수행하는 단계;
상기 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하는 단계;
상기 잡음이 제거된 영상에서 상기 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별하는 단계;
상기 제1 픽셀 블럭에 포함된 픽셀 값 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득하는 단계; 및
상기 획득된 게인 값을 상기 제2 픽셀 블럭에 적용하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 단계;를 포함하며,
상기 게인 값을 획득하는 단계는,
상기 제1 픽셀 블럭이 상기 입력 영상의 텍스처 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산을 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산으로 나눈 값에 기초하여 상기 게인 값을 획득하고,
상기 제1 픽셀 블럭이 상기 입력 영상의 에지 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트를 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트로 나눈 값에 기초하여 상기 게인 값을 획득하는, 영상 처리 방법.
In the image processing method of the image processing device,
performing noise removal processing on the input image;
identifying a first pixel block based on a target pixel in the input image;
identifying a second pixel block based on the target pixel in the noise-removed image;
obtaining a gain value based on a pixel value included in the first pixel block and a pixel value included in the second pixel block; and
Applying the obtained gain value to the second pixel block to perform enhancement processing on the noise-removed image;
The step of obtaining the gain value is,
When the first pixel block is included in the texture region of the input image, based on a value obtained by dividing the variance of pixel values included in the first pixel block by the variance of pixel values included in the second pixel block Obtaining the gain value;
When the first pixel block is included in an edge region of the input image, based on a value obtained by dividing a gradient for pixel values included in the first pixel block by a gradient for pixel values included in the second pixel block An image processing method of obtaining the gain value.
삭제delete 삭제delete 삭제delete 제10항에 있어서,
상기 인핸스 처리를 수행하는 단계는,
상기 제2 픽셀 블럭에 포함된 픽셀 값, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 제1 평균 값, 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 제2 평균 값 및 상기 게인 값에 기초하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 영상 처리 방법.
According to claim 10,
The step of performing the enhancement process,
Based on a pixel value included in the second pixel block, a first average value of pixel values included in the first pixel block, a second average value of pixel values included in the second pixel block, and the gain value An image processing method for performing enhancement processing on an image from which the noise has been removed.
제14항에 있어서,
상기 인핸스 처리를 수행하는 단계는,
상기 제2 픽셀 블럭에 포함된 각 픽셀 값에서 상기 제2 평균 값을 차감하고, 상기 게인 값을 곱한 후 상기 제1 평균 값을 가산하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 영상 처리 방법.
According to claim 14,
The step of performing the enhancement process,
Image processing for performing enhancement processing on the noise-removed image by subtracting the second average value from each pixel value included in the second pixel block, multiplying the gain value, and then adding the first average value. method.
◈청구항 16은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 16 was abandoned when the registration fee was paid.◈ 제14항에 있어서,
상기 인핸스 처리를 수행하는 단계는,
상기 제2 픽셀 블럭에서 상기 대상 픽셀의 픽셀 값을 획득하고, 상기 획득된 픽셀 값에서 상기 제2 평균 값을 차감하고, 상기 게인 값을 곱한 후 상기 제1 평균 값을 가산하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 영상 처리 방법.
According to claim 14,
The step of performing the enhancement process,
The noise is removed by obtaining a pixel value of the target pixel in the second pixel block, subtracting the second average value from the obtained pixel value, multiplying the gain value, and then adding the first average value. An image processing method for performing enhancement processing on an image.
◈청구항 17은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 17 was abandoned when the registration fee was paid.◈ 제10항에 있어서,
상기 인핸스 처리를 수행하는 단계는,
언샤프 마스킹(unsharp masking) 및 픽셀 값 스트레칭(stretching) 중 적어도 하나를 적용하여 상기 인핸스 처리를 수행하는, 영상 처리 방법.
According to claim 10,
The step of performing the enhancement process,
The image processing method of performing the enhancement processing by applying at least one of unsharp masking and pixel value stretching.
◈청구항 18은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 18 was abandoned when the registration fee was paid.◈ 제10항에 있어서,
상기 인핸스 처리된 영상을 디스플레이하는 단계;를 더 포함하는 영상 처리 방법.
According to claim 10,
The image processing method further comprising a; displaying the enhanced image.
전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 동작은,
입력된 영상에 대한 잡음 제거 처리를 수행하는 단계;
상기 입력 영상에서 대상 픽셀을 기준으로 제1 픽셀 블럭을 식별하는 단계;
상기 잡음이 제거된 영상에서 상기 대상 픽셀을 기준으로 제2 픽셀 블럭을 식별하는 단계;
상기 제1 픽셀 블럭에 포함된 픽셀 값 및 상기 제2 픽셀 블럭에 포함된 픽셀 값에 기초하여 게인 값을 획득하는 단계; 및
상기 획득된 게인 값을 상기 제2 픽셀 블럭에 적용하여 상기 잡음이 제거된 영상에 대한 인핸스 처리를 수행하는 단계;를 포함하며,
상기 게인 값을 획득하는 단계는,
상기 제1 픽셀 블럭이 상기 입력 영상의 텍스처 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 분산을 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 분산으로 나눈 값에 기초하여 상기 게인 값을 획득하고,
상기 제1 픽셀 블럭이 상기 입력 영상의 에지 영역에 포함되는 경우, 상기 제1 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트를 상기 제2 픽셀 블럭에 포함된 픽셀 값에 대한 그래디언트로 나눈 값에 기초하여 상기 게인 값을 획득하는, 비일시적 컴퓨터 판독 가능 매체.
A non-transitory computer-readable medium storing computer instructions that, when executed by a processor of an electronic device, cause the electronic device to perform an operation, the operation comprising:
performing noise removal processing on the input image;
identifying a first pixel block based on a target pixel in the input image;
identifying a second pixel block based on the target pixel in the noise-removed image;
obtaining a gain value based on a pixel value included in the first pixel block and a pixel value included in the second pixel block; and
Applying the obtained gain value to the second pixel block to perform enhancement processing on the noise-removed image;
The step of obtaining the gain value is,
When the first pixel block is included in the texture region of the input image, based on a value obtained by dividing the variance of pixel values included in the first pixel block by the variance of pixel values included in the second pixel block Obtaining the gain value;
When the first pixel block is included in the edge region of the input image, based on a value obtained by dividing a gradient for pixel values included in the first pixel block by a gradient for pixel values included in the second pixel block A non-transitory computer readable medium for obtaining the gain value.
KR1020180084294A 2018-02-12 2018-07-19 Image processing apparatus and image processing method thereof KR102507165B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/165,183 US10963995B2 (en) 2018-02-12 2018-10-19 Image processing apparatus and image processing method thereof
PCT/KR2019/001649 WO2019156524A1 (en) 2018-02-12 2019-02-12 Image processing apparatus and image processing method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862629276P 2018-02-12 2018-02-12
US62/629,276 2018-02-12

Publications (2)

Publication Number Publication Date
KR20190098018A KR20190098018A (en) 2019-08-21
KR102507165B1 true KR102507165B1 (en) 2023-03-08

Family

ID=67808272

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180084294A KR102507165B1 (en) 2018-02-12 2018-07-19 Image processing apparatus and image processing method thereof

Country Status (1)

Country Link
KR (1) KR102507165B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051449B (en) * 2022-08-11 2023-10-24 荣耀终端有限公司 Image noise estimation method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120224760A1 (en) 2009-10-22 2012-09-06 Koninklijke Philips Electronics N.V. Enhanced image data/dose reduction
US20140079319A1 (en) * 2012-09-20 2014-03-20 Htc Corporation Methods for enhancing images and apparatuses using the same
US20160119503A1 (en) 2014-10-28 2016-04-28 Brother Kogyo Kabushiki Kaisha Image processing device setting sharpness adjustment degrees for object regions and performing unsharp masking process
US20170372456A1 (en) * 2016-06-22 2017-12-28 Intel Corporation Adaptive sharpness enhancement control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120224760A1 (en) 2009-10-22 2012-09-06 Koninklijke Philips Electronics N.V. Enhanced image data/dose reduction
US20140079319A1 (en) * 2012-09-20 2014-03-20 Htc Corporation Methods for enhancing images and apparatuses using the same
US20160119503A1 (en) 2014-10-28 2016-04-28 Brother Kogyo Kabushiki Kaisha Image processing device setting sharpness adjustment degrees for object regions and performing unsharp masking process
US20170372456A1 (en) * 2016-06-22 2017-12-28 Intel Corporation Adaptive sharpness enhancement control

Also Published As

Publication number Publication date
KR20190098018A (en) 2019-08-21

Similar Documents

Publication Publication Date Title
US10963995B2 (en) Image processing apparatus and image processing method thereof
US8948253B2 (en) Networked image/video processing system
GB2544375B (en) Dehazing photos and videos using visual artifact suppression
US10003768B2 (en) Apparatus and methods for frame interpolation based on spatial considerations
US8472709B2 (en) Apparatus and method for reducing artifacts in images
US9842382B2 (en) Method and device for removing haze in single image
CN108027961B (en) Method and apparatus for providing extended dynamic range images from digital images
US20170084007A1 (en) Time-space methods and systems for the reduction of video noise
US8594449B2 (en) MPEG noise reduction
US8320700B2 (en) Apparatus and method of estimating scale ratio and noise strength of encoded image
US20130156092A1 (en) Networked image/video processing system and network site therefor
JP5367667B2 (en) Image processing device
US9224190B2 (en) Method and apparatus for processing image taken under low illumination environment
CN111445424B (en) Image processing method, device, equipment and medium for processing mobile terminal video
US8644636B2 (en) Method and apparatus for removing image blocking artifact by using transformation coefficient
US20120301012A1 (en) Image signal processing device and image signal processing method
KR20150127597A (en) creating details in an image with adaptive frequency strength controlled transform
KR20150129688A (en) creating details in an image with adaptive frequency lifting
US9838643B1 (en) Method and system for detection of inherent noise present within a video source prior to digital video compression
KR102507165B1 (en) Image processing apparatus and image processing method thereof
Zhang et al. Compression noise estimation and reduction via patch clustering
US8831354B1 (en) System and method for edge-adaptive and recursive non-linear filtering of ringing effect
JP6521278B2 (en) Efficient patch-based video denoising method
US8768089B2 (en) System and method for filtering an image
US8373801B1 (en) Video source resolution detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right