KR102189923B1 - Method and apparatus for removing artifact in demosaicked image - Google Patents

Method and apparatus for removing artifact in demosaicked image Download PDF

Info

Publication number
KR102189923B1
KR102189923B1 KR1020190044375A KR20190044375A KR102189923B1 KR 102189923 B1 KR102189923 B1 KR 102189923B1 KR 1020190044375 A KR1020190044375 A KR 1020190044375A KR 20190044375 A KR20190044375 A KR 20190044375A KR 102189923 B1 KR102189923 B1 KR 102189923B1
Authority
KR
South Korea
Prior art keywords
pixel
color component
image
component value
luminance
Prior art date
Application number
KR1020190044375A
Other languages
Korean (ko)
Other versions
KR20200121609A (en
Inventor
정제창
박대준
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020190044375A priority Critical patent/KR102189923B1/en
Publication of KR20200121609A publication Critical patent/KR20200121609A/en
Application granted granted Critical
Publication of KR102189923B1 publication Critical patent/KR102189923B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

디모자이크된 이미지로부터 휘도 이미지를 생성하는 단계, 휘도 이미지로부터 JND(Just Noticeable Difference) 맵을 생성하는 단계, 휘도 이미지에 LPF(Low-Pass Filter)를 적용한 이미지와 휘도 이미지 간의 차이 이미지를 생성하는 단계, JND 맵과 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하는 단계 및 클램핑 과정을 통해 픽셀에 발생한 아티팩트를 제거하는 단계를 포함하는 디모자이크된 이미지로부터 아티팩트를 제거하는 방법이 개시된다.Generating a luminance image from the demosaiced image, generating a JND (Just Noticeable Difference) map from the luminance image, and generating a difference image between an image to which a low-pass filter (LPF) is applied to the luminance image and a luminance image , A method of removing artifacts from a demosaiced image comprising detecting a pixel in which an artifact has occurred based on a JND map and a difference image, and removing the artifact generated in the pixel through a clamping process is disclosed.

Description

디모자이크된 이미지에서 아티팩트 제거 방법 및 장치{METHOD AND APPARATUS FOR REMOVING ARTIFACT IN DEMOSAICKED IMAGE}Method and apparatus for removing artifacts from demosaiced image {METHOD AND APPARATUS FOR REMOVING ARTIFACT IN DEMOSAICKED IMAGE}

본 발명은 디모자이크된 이미지에서 아티팩트 제거 방법 및 장치에 관한 것으로, 더욱 상세하게는 디모자이크된 이미지에서 아티팩트를 픽셀 별로 검출하고, 검출한 아티팩트를 제거하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for removing artifacts from a demosaiced image, and more particularly, to a method and apparatus for detecting artifacts for each pixel in a demosaiced image and removing the detected artifacts.

기술 발전에 따라 필름 카메라는 디지털 카메라로 대체되었으며, 이 기술은 스마트폰과 같은 스마트 기기에 탑재되어 활용도가 날로 높아지고 있는 실정이다. 여기서, 대부분의 디지털 카메라는 CMOS(Complementary Metal-Oxide Semiconductor 또는 CCD(Charge-Coupled Device)를 통해 외부의 빛을 디지털화하며, 이 과정에서 빛의 세기 정보만을 디지털화하므로, 색상 정보는 CFA(Color Filter Array)라는 별도의 수단을 통해 추출된다.With the development of technology, film cameras have been replaced by digital cameras, and this technology is installed in smart devices such as smartphones, and the use of this technology is increasing day by day. Here, most digital cameras digitize external light through CMOS (Complementary Metal-Oxide Semiconductor or CCD (Charge-Coupled Device)), and only digitize light intensity information during this process, so the color information is CFA (Color Filter Array). ) Is extracted through a separate means.

다만, 이러한 방법은 픽셀 별로 하나의 색상 정보만을 추출할 수 있으므로, 완전한 RGB(Red-Green-Blue) 값이 아닌 RGB 값이 불균형하게 추출된 베이어 영상(bayer image)만 획득할 수 있는 단점이 존재한다. 따라서, 디지털 카메라는 베이어 영상으로부터 적절한 RGB 값을 가지는 영상으로 복원하는 디모자이킹(demosaicking) 과정이 요구된다.However, since this method can only extract one color information for each pixel, there is a disadvantage that only a Bayer image from which RGB values are disproportionately extracted can be obtained, rather than a complete Red-Green-Blue (RGB) value. do. Therefore, the digital camera needs a demosaicking process to restore an image having an appropriate RGB value from a Bayer image.

이러한 디모자이킹 과정은 부족한 데이터을 이용하여 영상을 복원하는 점에서 디모자이킹 아티팩트(artifact) 또는 노이즈가 발생하게 되며, 양질의 이미지를 획득하기 위해 이를 원천적으로 발생하지 않기 위한 방법, 에지 방향을 효과적으로 예측하여 보간하는 방법 및 후처리로써 아티팩트를 효과적으로 제거하는 방법 등에 대한 연구가 계속되고 있다.This demosaicing process generates demosaicing artifacts or noise in that the image is reconstructed using insufficient data. In order to obtain a high-quality image, a method to prevent it from occurring, and the edge direction effectively Research on a predictive interpolation method and a method of effectively removing artifacts as post-processing are ongoing.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 디모자이크된 이미지에서 아티팩트 제거 방법을 제공하는 데 있다.An object of the present invention for solving the above problems is to provide a method for removing artifacts from a demosaiced image.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은 디모자이크된 이미지에서 아티팩트 제거 장치를 제공하는 데 있다.Another object of the present invention for solving the above problems is to provide an apparatus for removing artifacts from a demosaiced image.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 아티팩트 제거 방법은, 디모자이크된 이미지로부터 휘도 이미지를 생성하는 단계, 휘도 이미지로부터 JND(Just Noticeable Difference) 맵을 생성하는 단계, 휘도 이미지에 LPF(Low-Pass Filter)를 적용한 이미지와 휘도 이미지 간의 차이 이미지를 생성하는 단계, JND 맵과 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하는 단계 및 클램핑 과정을 통해 픽셀에 발생한 아티팩트를 제거하는 단계를 포함할 수 있다.The artifact removal method according to an embodiment of the present invention for achieving the above object includes: generating a luminance image from a demosaiced image, generating a JND (Just Noticeable Difference) map from the luminance image, and LPF on the luminance image. The steps of generating a difference image between the image to which the (Low-Pass Filter) is applied and the luminance image, detecting a pixel with artifacts based on the JND map and the difference image, and removing artifacts generated in the pixel through a clamping process Can include.

여기서, 휘도 이미지로부터 JND 맵을 생성하는 단계는, 휘도 이미지로부터 배경 휘도의 마스킹 효과에 대한 휘도 적응 정보를 생성하는 단계, 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성하는 단계 및 휘도 적응 정보 및 대비 마스킹 정보를 기초로 JND 맵을 생성하는 단계를 포함할 수 있다.Here, generating the JND map from the luminance image includes generating luminance adaptation information for a masking effect of background luminance from the luminance image, generating contrast masking information including edge masking information and texture masking information from the luminance image. And generating a JND map based on the luminance adaptation information and contrast masking information.

여기서, 휘도 적응 정보 및 대비 마스킹 정보를 기초로 JND 맵을 생성하는 단계는, 마스킹을 위한 비선형 가산 모델(Non-linear Additivity Model for Masking, NAMM)을 통해 휘도 적응 정보 및 대비 마스킹 정보로부터 JND 맵을 생성하는 단계를 포함할 수 있다.Here, in the step of generating the JND map based on the luminance adaptation information and the contrast masking information, the JND map is generated from the luminance adaptation information and the contrast masking information through a non-linear addition model for masking (NAMM). It may include the step of generating.

여기서, 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성하는 단계는, TV(Total Variation) 기반 분해 방법을 통해 휘도 이미지로부터 구조 이미지 및 텍스처 이미지를 생성하는 단계, 구조 이미지 및 텍스처 이미지의 4방향 최대 휘도차와 가중치를 기초로 에지 마스킹 정보 및 텍스처 마스킹 정보를 생성하는 단계 및 에지 마스킹 정보와 텍스처 마스킹 정보를 합산하여 대비 마스킹 정보를 생성하는 단계를 포함할 수 있다.Here, the step of generating contrast masking information including edge masking information and texture masking information from the luminance image includes generating a structure image and a texture image from a luminance image through a TV (Total Variation)-based decomposition method, a structure image, and It may include generating edge masking information and texture masking information based on a maximum luminance difference and a weight in the four directions of the texture image, and generating contrast masking information by summing the edge masking information and the texture masking information.

여기서, JND 맵과 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하는 단계는, 휘도 이미지 내의 적어도 하나의 픽셀에 대하여 적어도 하나의 픽셀에 대응하는 차이 이미지의 성분 값이 적어도 하나의 픽셀에 대응하는 JND 맵의 성분 값보다 큰 경우, 적어도 하나의 픽셀을 아티팩트가 발생한 픽셀로 검출하는 단계를 포함할 수 있다.Here, the step of detecting a pixel in which an artifact has occurred based on the JND map and the difference image includes, for at least one pixel in the luminance image, the component value of the difference image corresponding to at least one pixel is JND If it is larger than the component value of the map, the step of detecting at least one pixel as a pixel in which an artifact has occurred.

여기서, 클램핑 과정을 통해 픽셀에 발생한 아티팩트를 제거하는 단계는, 픽셀로부터 미리 설정된 범위 내에 위치하는 복수의 참조 픽셀을 이용하여 픽셀에 발생한 아티팩트를 제거하는 단계를 포함할 수 있다.Here, the step of removing the artifact generated in the pixel through the clamping process may include removing the artifact generated in the pixel using a plurality of reference pixels located within a preset range from the pixel.

여기서, 미리 설정된 범위는, 픽셀의 보간된 컬러 성분에 따라 다르게 설정될 수 있다.Here, the preset range may be set differently according to the interpolated color component of the pixel.

여기서, 픽셀로부터 미리 설정된 범위 내에 위치하는 복수의 참조 픽셀을 이용하여 픽셀에 발생한 아티팩트를 제거하는 단계는, 픽셀의 보간된 컬러 성분 값과 복수의 참조 픽셀의 최대 컬러 성분 값 및 최소 컬러 성분 값을 비교하여 픽셀의 최종 컬러 성분 값을 결정하는 단계를 포함할 수 있다.Here, the step of removing artifacts generated in a pixel by using a plurality of reference pixels located within a preset range from the pixel includes the interpolated color component values of the pixel and the maximum color component values and the minimum color component values of the plurality of reference pixels. The comparison may include determining a final color component value of the pixel.

여기서, 픽셀의 최종 컬러 성분 값을 결정하는 단계는, 픽셀의 보간된 컬러 성분 값이 최대 컬러 성분 값보다 큰 경우 픽셀의 최종 컬러 성분 값을 최대 컬러 성분 값으로 결정하는 단계 및 픽셀의 보간된 컬러 성분 값이 최소 컬러 성분 값보다 작은 경우 픽셀의 최종 컬러 성분 값을 최소 컬러 성분 값으로 결정하는 단계를 포함할 수 있다.Here, the determining of the final color component value of the pixel includes determining the final color component value of the pixel as the maximum color component value when the interpolated color component value of the pixel is greater than the maximum color component value, and the interpolated color of the pixel When the component value is less than the minimum color component value, determining the final color component value of the pixel as the minimum color component value.

여기서, 픽셀의 최종 컬러 성분 값을 결정하는 단계는, 픽셀의 보간된 컬러 성분 값이 최대 컬러 성분 값보다 작거나 같고, 최소 컬러 성분 값보다 크거나 같은 경우, 픽셀의 최종 컬러 성분 값을 보간된 컬러 성분 값으로 그대로 결정하는 단계를 포함할 수 있다.Here, the step of determining the final color component value of the pixel includes interpolating the final color component value of the pixel when the interpolated color component value of the pixel is less than or equal to the maximum color component value and greater than or equal to the minimum color component value. It may include determining the color component value as it is.

상기 다른 목적을 달성하기 위한 본 발명의 일 실시예에 따른 아티팩트 제거 장치는, 적어도 하나의 프로세서(processor) 및 적어도 하나의 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고, 적어도 하나의 명령은, 디모자이크된 이미지로부터 휘도 이미지를 생성하도록 실행되고, 휘도 이미지로부터 JND(Just Noticeable Difference) 맵을 생성하도록 실행되고, 휘도 이미지에 LPF(Low-Pass Filter)를 적용한 이미지와 휘도 이미지 간의 차이 이미지를 생성하도록 실행되고, JND 맵과 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하도록 실행되고, 클램핑 과정을 통해 픽셀에 발생한 아티팩트를 제거하도록 실행될 수 있다.An artifact removal apparatus according to an embodiment of the present invention for achieving the above other object includes at least one processor and a memory in which at least one instruction executed through the at least one processor is stored, At least one command is executed to generate a luminance image from the demosaiced image, and is executed to generate a JND (Just Noticeable Difference) map from the luminance image, and an image and luminance in which a Low-Pass Filter (LPF) is applied to the luminance image. It may be executed to generate a difference image between images, to detect a pixel in which an artifact has occurred based on a JND map and a difference image, and to remove an artifact generated in the pixel through a clamping process.

여기서, 적어도 하나의 명령은, 휘도 이미지로부터 배경 휘도의 마스킹 효과에 대한 휘도 적응 정보를 생성하도록 실행되고, 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성하도록 실행되고, 휘도 적응 정보 및 대비 마스킹 정보를 기초로 JND 맵을 생성하도록 실행될 수 있다.Here, at least one command is executed to generate luminance adaptation information for a masking effect of background luminance from a luminance image, and is executed to generate contrast masking information including edge masking information and texture masking information from the luminance image, and It may be executed to generate a JND map based on the adaptation information and the contrast masking information.

여기서, 적어도 하나의 명령은, 마스킹을 위한 비선형 가산 모델(Non-linear Additivity Model for Masking, NAMM)을 통해 휘도 적응 정보 및 대비 마스킹 정보로부터 JND 맵을 생성하도록 실행될 수 있다.Here, at least one command may be executed to generate a JND map from luminance adaptation information and contrast masking information through a non-linear addition model for masking (NAMM).

여기서, 적어도 하나의 명령은, TV(Total Variation) 기반 분해 방법을 통해 휘도 이미지로부터 구조 이미지 및 텍스처 이미지를 생성하도록 실행되고, 구조 이미지 및 텍스처 이미지의 4방향 최대 휘도차와 가중치를 기초로 에지 마스킹 정보 및 텍스처 마스킹 정보를 생성하도록 실행되고, 에지 마스킹 정보와 텍스처 마스킹 정보를 합산하여 대비 마스킹 정보를 생성하도록 실행될 수 있다.Here, at least one command is executed to generate a structure image and a texture image from a luminance image through a TV (Total Variation)-based decomposition method, and edge masking based on the maximum luminance difference and weight in four directions of the structure image and texture image. It may be executed to generate information and texture masking information, and may be executed to generate contrast masking information by summing edge masking information and texture masking information.

여기서, 적어도 하나의 명령은, 휘도 이미지 내의 적어도 하나의 픽셀에 대하여 적어도 하나의 픽셀에 대응하는 차이 이미지의 성분 값이 적어도 하나의 픽셀에 대응하는 JND 맵의 성분 값보다 큰 경우, 적어도 하나의 픽셀을 아티팩트가 발생한 픽셀로 검출하도록 실행될 수 있다.Here, the at least one command is at least one pixel when the component value of the difference image corresponding to at least one pixel is greater than the component value of the JND map corresponding to at least one pixel with respect to at least one pixel in the luminance image. May be executed to detect as a pixel in which an artifact has occurred.

여기서, 적어도 하나의 명령은, 픽셀로부터 미리 설정된 범위 내에 위치하는 복수의 참조 픽셀을 이용하여 픽셀에 발생한 아티팩트를 제거하도록 실행될 수 있다.Here, at least one command may be executed to remove artifacts generated in the pixel by using a plurality of reference pixels located within a preset range from the pixel.

여기서, 미리 설정된 범위는, 픽셀의 보간된 컬러 성분에 따라 다르게 설정될 수 있다.Here, the preset range may be set differently according to the interpolated color component of the pixel.

여기서, 적어도 하나의 명령은, 픽셀의 보간된 컬러 성분 값과 복수의 참조 픽셀의 최대 컬러 성분 값 및 최소 컬러 성분 값을 비교하여 픽셀의 최종 컬러 성분 값을 결정하도록 실행될 수 있다.Here, at least one command may be executed to determine a final color component value of the pixel by comparing the interpolated color component value of the pixel with the maximum and minimum color component values of the plurality of reference pixels.

여기서, 적어도 하나의 명령은, 픽셀의 보간된 컬러 성분 값이 최대 컬러 성분 값보다 큰 경우 픽셀의 최종 컬러 성분 값을 최대 컬러 성분 값으로 결정하도록 실행되고, 픽셀의 보간된 컬러 성분 값이 최소 컬러 성분 값보다 작은 경우 픽셀의 최종 컬러 성분 값을 최소 컬러 성분 값으로 결정하도록 실행될 수 있다.Here, at least one command is executed to determine the final color component value of the pixel as the maximum color component value when the interpolated color component value of the pixel is greater than the maximum color component value, and the interpolated color component value of the pixel is the minimum color component value. If it is less than the component value, it can be executed to determine the final color component value of the pixel as the minimum color component value.

여기서, 적어도 하나의 명령은, 픽셀의 보간된 컬러 성분 값이 최대 컬러 성분 값보다 작거나 같고, 최소 컬러 성분 값보다 크거나 같은 경우, 픽셀의 최종 컬러 성분 값을 보간된 컬러 성분 값으로 그대로 결정하도록 실행될 수 있다.Here, at least one command is to determine the final color component value of the pixel as the interpolated color component value when the interpolated color component value of the pixel is less than or equal to the maximum color component value and greater than or equal to the minimum color component value. Can be implemented to

본 발명에 따르면, 디모자이크된 이미지로부터 아티팩트를 픽셀 별로 검출하고 제거할 수 있다.According to the present invention, artifacts from a demosaiced image can be detected and removed for each pixel.

본 발명에 따르면, 디모자이크된 이미지로부터 효과적으로 아티팩트를 제거하여 이미지의 화질을 향상시킬 수 있다.According to the present invention, the image quality of an image can be improved by effectively removing artifacts from a demosaiced image.

도 1은 본 발명의 일 실시예에 따른 아티팩트 제거 방법의 개념도이다.
도 2는 본 발명의 일 실시예에 따른 배경 휘도에 대한 구별 임계값을 나타낸 그래프이다.
도 3은 본 발명의 일 실시예에 따른 배경 휘도를 산출하기 위한 필터를 나타낸 도면이다.
도 4a 내지 도 4d는 본 발명의 일 실시예에 따른 4방향에 대한 최대 휘도 차이를 산출하기 위한 연산자를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 각 단계 별 이미지를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 아티팩트를 검출한 이미지를 나타낸 도면이다.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 R/B 픽셀의 보간을 위한 참조 픽셀을 나타낸 도면이다.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 G 픽셀의 보간을 위한 참조 픽셀을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 아티팩트 제거 장치의 블록 구성도이다.
도 10은 본 발명의 일 실시예에 따른 아티팩트 제거 방법의 순서도이다.
1 is a conceptual diagram of a method for removing artifacts according to an embodiment of the present invention.
2 is a graph showing a discrimination threshold value for background luminance according to an embodiment of the present invention.
3 is a diagram illustrating a filter for calculating background luminance according to an embodiment of the present invention.
4A to 4D are diagrams showing an operator for calculating a maximum luminance difference in four directions according to an embodiment of the present invention.
5 is a diagram showing an image for each step according to an embodiment of the present invention.
6 is a diagram illustrating an image in which an artifact is detected according to an embodiment of the present invention.
7A and 7B are diagrams illustrating reference pixels for interpolation of R/B pixels according to an embodiment of the present invention.
8A and 8B are diagrams illustrating a reference pixel for interpolation of a G pixel according to an embodiment of the present invention.
9 is a block diagram of an apparatus for removing artifacts according to an embodiment of the present invention.
10 is a flowchart of a method for removing artifacts according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term "and/or" includes a combination of a plurality of related stated items or any of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. 이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate an overall understanding, the same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 아티팩트 제거 방법의 개념도이다.1 is a conceptual diagram of a method for removing artifacts according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 아티팩트 제거 방법은 디모자이크된 이미지로부터 아티팩트를 검출할 수 있고, 검출한 아티팩트를 인접한 참조 픽셀을 이용하여 처리함으로써 제거할 수 있다. 본 발명의 설명에서 아티팩트를 검출하는 방법을 우선적으로 설명하며, 검출한 아티팩트를 제거하는 방법은 도 7 및 도 8과 함께 후술하겠다.Referring to FIG. 1, the artifact removal method according to an embodiment of the present invention can detect an artifact from a demosaiced image, and can remove the detected artifact by processing it using an adjacent reference pixel. In the description of the present invention, a method of detecting artifacts will be first described, and a method of removing the detected artifacts will be described later with reference to FIGS. 7 and 8.

본 발명의 일 실시예는 디모자이크된 이미지로부터 아티팩트를 검출하기 위해 디모자이크된 이미지의 휘도 이미지에 대하여 다양한 과정을 수행할 수 있다. 다시 말해, 아티팩트를 검출하는 방법은 휘도 이미지를 기초로 수행되므로, 디모자이크된 이미지로부터 휘도 이미지를 생성하는 방법이 선행될 수 있다. 여기서, 휘도 이미지 L은 RGB 성분으로 구성된 디모자이크된 이미지에서 수학식 1과 같은 휘도 변환(luminance conversion)을 통해 생성될 수 있다.According to an exemplary embodiment of the present invention, various processes may be performed on a luminance image of a demosaiced image in order to detect artifacts from a demosaiced image. In other words, since the method of detecting artifacts is performed based on a luminance image, a method of generating a luminance image from a demosaiced image may precede. Here, the luminance image L may be generated through luminance conversion as shown in Equation 1 in a demosaiced image composed of RGB components.

Figure 112019039004987-pat00001
Figure 112019039004987-pat00001

수학식 1에서 L은 휘도(luminance) 성분 값을 의미할 수 있고, R, G 및 B는 각각 빨강(red), 초록(green) 및 파랑(blue) 성분 값을 의미할 수 있다.In Equation 1, L may denote a luminance component value, and R, G, and B may denote red, green, and blue component values, respectively.

이하에서는 본 발명의 일 실시예에 따라 휘도 이미지를 이용하여 아티팩트를 검출하는 방법에 대하여 설명하겠다.Hereinafter, a method of detecting artifacts using a luminance image according to an embodiment of the present invention will be described.

본 발명의 일 실시예는 휘도 이미지에 대한 JND(Just Noticeable Difference) 정보와 아티팩트를 강제로 제거한 이미지 및 휘도 이미지의 차이 Ldiff 정보를 이용하여 아티팩트를 검출할 수 있다. 여기서, JND 정보는 인간 시각 특성에 따라 차이를 인지할 수 있는 차이에 대한 정보를 의미할 수 있다.According to an embodiment of the present invention, the artifact may be detected using JND (Just Noticeable Difference) information for the luminance image and the difference L diff information between the image forcibly removing the artifact and the luminance image. Here, the JND information may mean information on a difference capable of recognizing a difference according to a human visual characteristic.

다시 말해, 본 발명의 일 실시예는 각 픽셀에 대하여 JND 값과 Ldiff 값을 비교하여 해당 픽셀에 인간의 시각에 의해 판별 가능한 아티팩트가 발생하였는지 판단할 수 있으며, 보다 상세하게는 Ldiff 값이 JDN 값보다 큰 픽셀을 아티팩트가 발생한 픽셀로 결정할 수 있다. In other words, according to an embodiment of the present invention, it is possible to compare the JND value and the L diff value for each pixel to determine whether an artifact that can be discriminated by human vision has occurred in the corresponding pixel, and in more detail, the L diff value is A pixel larger than the JDN value can be determined as a pixel with artifacts.

이하에서는 휘도 이미지에 대한 JND 정보를 생성하는 방법을 우선 설명하며, 이후, Ldiff 정보를 생성하는 방법을 이어서 설명하겠다.Hereinafter, a method of generating JND information for a luminance image will be first described, and then a method of generating L diff information will be described.

본 발명의 일 실시예에서 휘도 이미지에 대한 JND 정보는 휘도 이미지에 대한 휘도 적응(Luminance Adaptiation, LA) 정보와 대비 마스킹(Contrast Masking, CM) 정보를 기초로 생성될 수 있다. 다시 말해, 본 발명의 일 실시예는 수학식 2와 같은 마스킹을 위한 비선형 가산 모델(Non-linear Additivity Model for Masking, NAMM)을 통해 LA 정보 및 CM 정보로부터 JND 정보를 생성할 수 있다.In an embodiment of the present invention, the JND information for a luminance image may be generated based on luminance adaptation (LA) information and contrast masking (CM) information for a luminance image. In other words, according to an embodiment of the present invention, JND information may be generated from LA information and CM information through a non-linear addition model for masking (NAMM) as shown in Equation 2.

Figure 112019039004987-pat00002
Figure 112019039004987-pat00002

수학식 2에서

Figure 112019039004987-pat00003
는 NAMM에서 두 마스킹 요소가 겹치는 부분을 제거하기 위한 게인 감소 성분을 의미할 수 있으며, 0.3으로 설정될 수 있으나, 이에 한정되는 것은 아니다. In Equation 2
Figure 112019039004987-pat00003
May mean a gain reduction component for removing a portion where the two masking elements overlap in the NAMM, and may be set to 0.3, but is not limited thereto.

또한, i 및 j는 이미지를 매트릭스(matrix) 형태로 보았을 경우, 이미지 상에서 해당 픽셀의 위치를 나타내는 행 및 열의 번호를 의미할 수 있으며, 이는 본 발명의 설명에서 동일한 의미로 사용될 수 있다.In addition, when the image is viewed in the form of a matrix, i and j may refer to row and column numbers indicating the position of the corresponding pixel on the image, and these may be used with the same meaning in the description of the present invention.

도 2는 본 발명의 일 실시예에 따른 배경 휘도에 대한 구별 임계값을 나타낸 그래프이다.2 is a graph showing a discrimination threshold value for background luminance according to an embodiment of the present invention.

도 2를 참조하면, 인간의 컬러 민감도 측정 시 배경 휘도 값이 127인 경우가 구별 임계값이 가장 낮음을 확인할 수 있다. Referring to FIG. 2, when measuring human color sensitivity, it can be seen that when the background luminance value is 127, the discrimination threshold is the lowest.

본 발명의 일 실시예에서 LA 정보는 배경 휘도 값에 따라 인간이 구별할 수 있는 차이에 대한 정보, 다시 말해, 인간의 시각에서 배경 휘도의 마스킹 효과를 의미할 수 있으며, 수학식 3은 도 2를 수학식으로 나타낸 것으로, 픽셀 별 LA 정보는 수학식 3을 통해 휘도 이미지로부터 생성될 수 있다.In an embodiment of the present invention, the LA information may mean information on a difference that can be distinguished by a human according to a background luminance value, that is, a masking effect of the background luminance in the human's perspective, and Equation 3 is shown in FIG. As represented by Equation 3, LA information for each pixel may be generated from a luminance image through Equation 3.

Figure 112019039004987-pat00004
Figure 112019039004987-pat00004

수학식 3에서

Figure 112019039004987-pat00005
는 해당 픽셀에서 인접한 픽셀을 참조한 평균 휘도 값을 의미할 수 있으며, 이는 도 3과 함께 상세히 후술하겠다.In Equation 3
Figure 112019039004987-pat00005
May mean an average luminance value referring to adjacent pixels in the corresponding pixel, which will be described in detail later with reference to FIG. 3.

도 3은 본 발명의 일 실시예에 따른 배경 휘도를 산출하기 위한 필터를 나타낸 도면이다.3 is a diagram illustrating a filter for calculating background luminance according to an embodiment of the present invention.

본 발명의 일 실시예는 수학식 4과 같이 휘도 이미지 및 필터를 기초로 평균 휘도 값

Figure 112019039004987-pat00006
를 산출할 수 있다.An exemplary embodiment of the present invention is an average luminance value based on a luminance image and a filter as shown in Equation 4
Figure 112019039004987-pat00006
Can be calculated.

Figure 112019039004987-pat00007
Figure 112019039004987-pat00007

수학식 4에서 B는 도 3의 배경 휘도를 산출하기 위한 필터를 의미할 수 있다. 다시 말해, 특정 위치의 픽셀에 대하여 평균 휘도 값을 산출하는 경우, 특정 위치의 픽셀로부터 일정한 거리에 내의 픽셀들 각각에 대하여 도 3의 필터를 적용하여 산출될 수 있다.In Equation 4, B may mean a filter for calculating the background luminance of FIG. 3. In other words, when calculating an average luminance value for a pixel at a specific location, it may be calculated by applying the filter of FIG. 3 to each of the pixels within a certain distance from the pixel at a specific location.

본 발명의 일 실시예에서 CM 정보는 에지 마스킹(Edge Masking, EM) 정보와 텍스처 마스킹(Texture Masking, TM) 정보를 포함한 정보를 의미할 수 있다. In an embodiment of the present invention, the CM information may mean information including edge masking (EM) information and texture masking (TM) information.

보다 상세히 설명하면, CM 정보는 휘도 이미지의 구조 이미지 Ls에 대한 에지 마스킹 정보 EMs 및 휘도 이미지의 텍스쳐 이미지 Lt에 대한 텍스처 마스킹 정보 TMt를 기초로 산출될 수 있으며, 구조 이미지 Ls 및 텍스쳐 이미지 Lt는 휘도 이미지로부터 TV(Total Variation) 기반의 분해 방법을 통해 생성될 수 있고, TV 기반의 분해 방법은 수학식 5를 만족하는 방법으로 최적화를 수행할 수 있다.In more detail, the CM information may be calculated based on edge masking information EM s for the structure image L s of the luminance image and texture masking information TM t for the texture image L t of the luminance image, and the structure image L s and The texture image L t may be generated from a luminance image through a TV (Total Variation)-based decomposition method, and the TV-based decomposition method may be optimized in a manner that satisfies Equation (5).

Figure 112019039004987-pat00008
Figure 112019039004987-pat00008

수학식 5에서 Lf는 휘도 이미지 L을,

Figure 112019039004987-pat00009
는 노름(norm)을 의미할 수 있고, s(Ls) 및 t(Ls, Lf)은 각각 수학식 6 및 수학식 7과 같이 산출될 수 있다.In Equation 5, L f is the luminance image L,
Figure 112019039004987-pat00009
May mean a norm, and s(L s ) and t(L s , L f ) may be calculated as in Equations 6 and 7 respectively.

Figure 112019039004987-pat00010
Figure 112019039004987-pat00010

Figure 112019039004987-pat00011
Figure 112019039004987-pat00011

본 발명의 설명에서 에지 마스킹 정보 EMs 및 텍스처 마스킹 정보 TMt는 수학식 8과 같이 산출될 수 있다.In the description of the present invention, the edge masking information EM s and the texture masking information TM t may be calculated as in Equation 8.

Figure 112019039004987-pat00012
Figure 112019039004987-pat00012

수학식 8에서 Ws 및 Wt는 CM에 EMs 및 TMt가 기여하는 정보를 나타낸 가중치를 의미할 수 있고, 각각 1 및 3으로 설정될 수 있으나, 이에 한정되는 것은 아니다. 또한,

Figure 112019039004987-pat00013
는 감소 성분으로 0.117로 설정될 수 있으나, 이에 한정되는 것은 아니다. SCs 및 SCt는 각각 구조 이미지 Ls 및 텍스처 이미지 Lt의 4방향에 대한 최대 휘도차를 의미할 수 있으며, 이는 도 4a 내지 도 4d와 함께 후술하겠다.In Equation 8, W s and W t may mean weights representing information contributed by EM s and TM t to CM, and may be set to 1 and 3, respectively, but are not limited thereto. Also,
Figure 112019039004987-pat00013
May be set to 0.117 as a reduction component, but is not limited thereto. SC s and SC t may mean the maximum luminance difference in the four directions of the structure image L s and the texture image L t , respectively, which will be described later with reference to FIGS. 4A to 4D.

도 4a 내지 도 4d는 본 발명의 일 실시예에 따른 4방향에 대한 최대 휘도 차이를 산출하기 위한 연산자를 나타낸 도면이다.4A to 4D are diagrams showing an operator for calculating a maximum luminance difference in four directions according to an embodiment of the present invention.

본 발명의 일 실시예에서 SCs 및 SCt는 각각 구조 이미지 Ls 및 텍스처 이미지 Lt의 4방향에 대한 최대 휘도차를 의미할 수 있으며, 수학식 9와 같이 산출될 수 있다.In an embodiment of the present invention, SC s and SC t may mean the maximum luminance difference in the four directions of the structure image L s and the texture image L t , respectively, and may be calculated as shown in Equation 9.

Figure 112019039004987-pat00014
Figure 112019039004987-pat00014

수학식 9에서 r은 s 또는 t가 될 수 있으며, 이에 따라 SCs 및 SCt를 각각 산출할 수 있다. 또한, gradr,k는 방향에 따른 휘도 변화량을 의미할 수 있으며, 수학식 10과 같이 산출될 수 있다.In Equation 9, r may be s or t, and accordingly, SC s and SC t may be calculated. In addition, grad r,k may mean an amount of luminance change according to a direction, and may be calculated as in Equation 10.

Figure 112019039004987-pat00015
Figure 112019039004987-pat00015

수학식 10에서 Gk는 4방향에 따른 연산자를 의미할 수 있으며, k는 방향에 따라 1, 2, 3 및 4 중 어느 하나를 의미할 수 있고, 이에 따른 4개의 연산자는 도 4a 내지 도 4d와 같을 수 있다.In Equation 10, G k may mean an operator in four directions, and k may mean any one of 1, 2, 3, and 4 depending on the direction, and the four operators according to this are FIGS. 4A to 4D Can be the same as

본 발명의 일 실시예는 도 4a 내지 도 4d의 연산자를 이용하여 최대 변화를 보이는 방향의 gradr,k를 SCr로 산출할 수 있다.According to an embodiment of the present invention, grad r,k in the direction showing the maximum change may be calculated as SC r by using the operators of FIGS. 4A to 4D.

본 발명의 설명에서 CM 정보는 상술한 과정에 따라 각각 산출된 에지 마스킹 정보 EMs 및 텍스처 마스킹 정보 TMt를 수학식 11과 같이 합산하여 산출될 수 있다.In the description of the present invention, the CM information may be calculated by summing the edge masking information EM s and the texture masking information TM t respectively calculated according to the above-described process as shown in Equation 11.

Figure 112019039004987-pat00016
Figure 112019039004987-pat00016

이하에서는 휘도 이미지에 대한 Ldiff 정보를 생성하는 방법을 설명하겠다.Hereinafter, a method of generating L diff information for a luminance image will be described.

본 발명의 일 실시예에서 휘도 차이 이미지 Ldiff는 휘도 이미지 L과 휘도 이미지 L에 저역 통과 필터(Low-Pass Filter, LPF)를 적용하여 블러링된 LLPF를 기초로 생성될 수 있다. 여기서, 휘도 차이 이미지 LLPF는 디모자이킹 아티팩트를 강제로 제거한 이미지에 대한 정보를 의미할 수 있으며, Ldiff는 디모자이킹 아티팩트를 강제로 제거한 이미지와 휘도 이미지 간의 차이에 대한 정보를 의미할 수 있다.In an embodiment of the present invention, the luminance difference image L diff may be generated based on the blurred L LPF by applying a low-pass filter (LPF) to the luminance image L and the luminance image L. Here, the luminance difference image L LPF may mean information on an image forcibly removing demosaicing artifacts, and L diff may mean information on the difference between an image forcibly removing demosaicing artifacts and a luminance image. have.

다시 말해, 휘도 차이 이미지 Ldiff는 수학식 12와 같이 휘도 이미지 L과 블러링된 LLPF 간의 차이에 절대값을 취함으로써 산출될 수 있다.In other words, the luminance difference image L diff may be calculated by taking an absolute value of the difference between the luminance image L and the blurred L LPF as shown in Equation 12.

Figure 112019039004987-pat00017
Figure 112019039004987-pat00017

또한, 수학식 12에서 휘도 이미지 L에 저역 토과 필터를 적용하여 블러링된 LLPF는 수학식 13과 같이 산출될 수 있다.Further, in Equation 12, the L LPF blurred by applying the low-pass toe filter to the luminance image L may be calculated as in Equation 13.

Figure 112019039004987-pat00018
Figure 112019039004987-pat00018

수학식 13에서

Figure 112019039004987-pat00019
는 콘볼루션(convolution) 연산자를 의미할 수 있으며, hG는 가우시안(Gaussian) LPF를 의미할 수 있고, 가우시안 LPF에는 수학식 14를 이용할 수 있다.In Equation 13
Figure 112019039004987-pat00019
May denote a convolution operator, h G may denote a Gaussian LPF, and Equation 14 may be used for a Gaussian LPF.

Figure 112019039004987-pat00020
Figure 112019039004987-pat00020

수학식 14에서, x 및 y는 각각 중심으로부터 수평 거리 및 수직 거리를 의미할 수 있으며,

Figure 112019039004987-pat00021
는 표준편차를 의미할 수 있으나, 이에 한정되지 않으며, 통상의 가우시안 필터를 이용하는 방법이 참조될 수 있다.In Equation 14, x and y may each mean a horizontal distance and a vertical distance from the center,
Figure 112019039004987-pat00021
May mean a standard deviation, but is not limited thereto, and a method using a conventional Gaussian filter may be referred to.

정리하면, 본 발명의 일 실시예는 휘도 이미지에서 상술한 과정을 통해 생성한 Ldiff 값이 JND 값보다 큰 픽셀을 아티팩트가 발생한 픽셀로 결정할 수 있다.In summary, according to an embodiment of the present invention, a pixel in which an L diff value generated through the above-described process in a luminance image is greater than a JND value may be determined as a pixel in which an artifact occurs.

도 5는 본 발명의 일 실시예에 따른 각 단계 별 이미지를 나타낸 도면이다.5 is a diagram showing an image for each step according to an embodiment of the present invention.

도 5에서 좌상 이미지는 디모자이크된 이미지로부터 생성한 휘도 이미지를 나타낼 수 있고, 우상 이미지는 휘도 이미지에 LPF를 적용하여 블러링된 이미지를 나타낼 수 있다. 또한, 좌하 이미지는 블러링된 이미지와 휘도 이미지 간의 차이 이미지를 나타낼 수 있고, 우하 이미지는 휘도 이미지에 대한 JND 정보 또는 JND 맵(map)을 나타낼 수 있다.In FIG. 5, the upper left image may represent a luminance image generated from a demosaiced image, and the upper right image may represent a blurred image by applying LPF to the luminance image. In addition, the lower left image may represent a difference image between the blurred image and the luminance image, and the lower right image may represent JND information or a JND map for the luminance image.

도 6은 본 발명의 일 실시예에 따른 아티팩트를 검출한 이미지를 나타낸 도면이다.6 is a diagram illustrating an image in which an artifact is detected according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예는 도 5의 좌하 이미지 Ldiff와 우하 이미지 JND 정보를 기초로 픽셀 별로 아티팩트를 검출할 수 있으며, 도 6과 같이 디모자이킹 아티팩트 맵을 생성할 수 있다. 다시 말해, 디모자이킹 아티팩트 맵에 포함된 아티팩트들은 Ldiff 값이 JND 값보다 큰 픽셀들로 선별 또는 검출될 수 있다.Referring to FIG. 6, according to an embodiment of the present invention, an artifact may be detected for each pixel based on the lower left image L diff and the lower right image JND information of FIG. 5, and a demosaicing artifact map may be generated as shown in FIG. 6. have. In other words, artifacts included in the demosaicing artifact map may be selected or detected as pixels having an L diff value greater than a JND value.

이하에서는 본 발명의 일 실시예에 따라 검출한 아티팩트를 제거하는 방법에 대하여 설명하겠다.Hereinafter, a method of removing detected artifacts according to an embodiment of the present invention will be described.

본 발명의 일 실시예에 따른 아티팩트 제거 장치는 검출한 아티팩트가 발생한 픽셀에 대하여 인접한 픽셀을 참조하여 제거할 수 있다. 다시 말해, 아티팩트 제거 장치는 아티팩트가 발생한 픽셀에 인접한 참조 픽셀의 컬러 성분 값을 기초로 클램핑 과정을 통해 아티팩트가 발생한 픽셀의 보간된 컬러 성분에 대한 최종 컬러 성분을 결정할 수 있다.The artifact removal apparatus according to an embodiment of the present invention may remove a pixel in which the detected artifact has occurred by referring to an adjacent pixel. In other words, the apparatus for removing artifacts may determine a final color component for the interpolated color component of the pixel where the artifact has occurred through the clamping process based on the color component value of the reference pixel adjacent to the pixel where the artifact has occurred.

보다 상세히 설명하면, 아티팩트 제거 장치는 디모자이크된 이미지로부터 아티팩트가 발생한 픽셀을 검출할 수 있으며, 검출한 픽셀의 디모자이크 과정을 통해 보간된 컬러 성분 값과 검출한 픽셀의 인접한 참조 픽셀들의 최대 컬러 성분 값 및 최소 컬러 성분 값을 비교하여 검출한 픽셀의 최종 컬러 성분 값을 결정함으로서 아티팩트를 제거할 수 있다.In more detail, the artifact removal device may detect a pixel in which an artifact has occurred from a demosaiced image, and a color component value interpolated through a demosaic process of the detected pixel and a maximum color component of adjacent reference pixels of the detected pixel. Artifacts can be removed by comparing the value and the minimum color component value to determine the final color component value of the detected pixel.

다시 말해, 본 발명의 일 실시예는 검출한 픽셀의 보간된 컬러 성분 값이 인접한 참조 픽셀들의 최대 컬러 성분 값보다 큰 경우, 검출한 픽셀의 최종 컬러 성분 값을 최대 컬러 성분 값으로 결정할 수 있고, 인접한 참조 픽셀들의 최소 컬러 성분 값보다 작은 경우, 검출한 픽셀의 최종 컬러 성분 값을 최소 컬러 성분 값으로 결정할 수 있다. 또한, 본 발명의 일 실시예는 검출한 픽셀의 보간된 컬러 성분 값이 인접한 참조 픽셀들의 최대 컬러 성분 값보다 작거나 같고, 최소 컬러 성분 값보다 크거나 같은 경우, 검출한 픽셀의 최종 컬러 성분 값을 보간된 컬러 성분 값으로 그대로 결정할 수 있다. 이러한 클램핑 과정은 수학식 15와 같이 나타낼 수 있다.In other words, in an embodiment of the present invention, when the interpolated color component value of the detected pixel is greater than the maximum color component value of adjacent reference pixels, the final color component value of the detected pixel may be determined as the maximum color component value, If it is smaller than the minimum color component value of adjacent reference pixels, the final color component value of the detected pixel may be determined as the minimum color component value. Further, according to an embodiment of the present invention, when the interpolated color component value of the detected pixel is less than or equal to the maximum color component value of adjacent reference pixels, and is greater than or equal to the minimum color component value, the final color component value of the detected pixel Can be determined as it is as the interpolated color component value. This clamping process can be expressed as Equation 15.

Figure 112019039004987-pat00022
Figure 112019039004987-pat00022

수학식 15에서 X'는 검출한 픽셀의 최종 컬러 성분 값을 의미할 수 있으며, X는 검출한 픽셀의 보간된 컬러 성분 값을 의미할 수 있다. 또한, Xmin은 검출한 픽셀의 인접한 참조 픽셀들의 컬러 성분 중 최소 값을 의미할 수 있고, Xmax는 검출한 픽셀의 인접한 참조 픽셀들의 컬러 성분 중 최대 값을 의미할 수 있다.In Equation 15, X'may mean the final color component value of the detected pixel, and X may mean the interpolated color component value of the detected pixel. Also, X min may mean a minimum value among color components of adjacent reference pixels of the detected pixel, and X max may mean a maximum value among color components of adjacent reference pixels of the detected pixel.

여기서, 인접한 참조 픽셀들의 범위는 아티팩트를 검출한 픽셀의 보간된 컬러 성분에 따라 다르게 설정될 수 있으며, 이에 대한 설명은 도 7 내지 도 8과 함께 후술하겠다. Here, the range of adjacent reference pixels may be set differently according to the interpolated color component of the pixel detecting the artifact, and a description thereof will be described later with reference to FIGS. 7 to 8.

도 7a 및 도 7b는 본 발명의 일 실시예에 따른 R/B 픽셀의 보간을 위한 참조 픽셀을 나타낸 도면이다.7A and 7B are diagrams illustrating reference pixels for interpolation of R/B pixels according to an embodiment of the present invention.

도 7a를 참조하면, 본 발명의 일 실시예에 따라 검출한 아티팩트가 발생한 픽셀의 보간된 컬러 성분이 R인 경우, R을 중심으로 3x3의 범위에 위치한 픽셀들이 클램핑 과정을 위한 참조 픽셀로 설정될 수 있다.Referring to FIG. 7A, when an interpolated color component of a pixel in which an artifact detected according to an embodiment of the present invention is R is R, pixels located in a range of 3x3 around R will be set as reference pixels for the clamping process. I can.

도 7b를 참조하면, 본 발명의 일 실시예에 따라 검출한 아티팩트가 발생한 픽셀의 보간된 컬러 성분이 B인 경우, B를 중심으로 3x3의 범위에 위치한 픽셀들이 클램핑 과정을 위한 참조 픽셀로 설정될 수 있다.Referring to FIG. 7B, when the interpolated color component of a pixel in which an artifact detected according to an embodiment of the present invention is B is B, pixels located in a range of 3x3 around B will be set as reference pixels for the clamping process. I can.

도 8a 및 도 8b는 본 발명의 일 실시예에 따른 G 픽셀의 보간을 위한 참조 픽셀을 나타낸 도면이다.8A and 8B are diagrams illustrating a reference pixel for interpolation of a G pixel according to an embodiment of the present invention.

본 발명의 일 실시예에 따라 검출한 아티팩트가 발생한 픽셀의 보간된 컬러 성분이 G인 경우에는 베이어 패턴으로 인해 두 가지 케이스가 존재할 수 있다.According to an embodiment of the present invention, when the interpolated color component of a pixel in which the detected artifact has occurred is G, two cases may exist due to the Bayer pattern.

도 8a 및 도 8b는 이러한 두 가지 케이스에 따른 참조 픽셀을 나타낸 것으로, 이를 참조하면 본 발명의 일 실시예에 따라 검출한 아티팩트가 발생한 픽셀의 보간된 컬러 성분이 G인 경우, G를 중심으로 5x5의 범위에 위치한 R 및 B 성분의 픽셀들이 클램핑 과정을 위한 참조 픽셀로 설정될 수 있다.8A and 8B show reference pixels according to these two cases. Referring to this, when the interpolated color component of the pixel where the artifact detected according to the embodiment of the present invention is G is G, 5x5 around G Pixels of R and B components located in the range of may be set as reference pixels for the clamping process.

도 9는 본 발명의 일 실시예에 따른 아티팩트 제거 장치의 블록 구성도이다.9 is a block diagram of an apparatus for removing artifacts according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 일 실시예에 따른 아티팩트 제거 장치(900)는 적어도 하나의 프로세서(910), 메모리(920) 및 저장 장치(930)를 포함할 수 있다.Referring to FIG. 9, the apparatus 900 for removing artifacts according to an embodiment of the present invention may include at least one processor 910, a memory 920, and a storage device 930.

프로세서(910)는 메모리(920) 및/또는 저장 장치(930)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(910)는 중앙 처리 장치(CPU, Central Processing Unit), 그래픽 처리 장치(GPU, Graphics Processing Unit) 또는 본 발명에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(920)와 저장 장치(930)는 휘발성 저장 매체 및/또는 비휘발성 저장 매체로 구성될 수 있다. 예를 들어, 메모리(920)는 읽기 전용 메모리(ROM, Read Only Memory) 및/또는 랜덤 액세스 메모리(RAM, Random Access Memory)로 구성될 수 있다.The processor 910 may execute a program command stored in the memory 920 and/or the storage device 930. The processor 910 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor in which the methods according to the present invention are performed. The memory 920 and the storage device 930 may be formed of a volatile storage medium and/or a nonvolatile storage medium. For example, the memory 920 may be composed of a read-only memory (ROM) and/or a random access memory (RAM).

메모리(920)는 프로세서(910)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 디모자이크된 이미지로부터 휘도 이미지를 생성하는 명령, 휘도 이미지로부터 JND(Just Noticeable Difference) 맵을 생성하는 명령, 휘도 이미지에 LPF(Low-Pass Filter)를 적용한 이미지와 휘도 이미지 간의 차이 이미지를 생성하는 명령, JND 맵과 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하는 명령 및 클램핑 과정을 통해 픽셀에 발생한 아티팩트를 제거하는 명령을 포함할 수 있다.The memory 920 may store at least one instruction executed through the processor 910. At least one command is a command that generates a luminance image from a demosaiced image, a command that creates a JND (Just Noticeable Difference) map from a luminance image, and the difference between the luminance image and the image to which the LPF (Low-Pass Filter) is applied A command for generating an image, a command for detecting a pixel in which an artifact has occurred based on a JND map and a difference image, and a command for removing an artifact generated in the pixel through a clamping process may be included.

여기서, 휘도 이미지로부터 JND 맵을 생성하는 명령은, 휘도 이미지로부터 배경 휘도의 마스킹 효과에 대한 휘도 적응 정보를 생성하는 명령, 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성하는 명령 및 휘도 적응 정보 및 대비 마스킹 정보를 기초로 JND 맵을 생성하는 명령을 포함할 수 있다.Here, the command for generating the JND map from the luminance image is a command for generating luminance adaptation information for the masking effect of background luminance from the luminance image, and generating contrast masking information including edge masking information and texture masking information from the luminance image. It may include an instruction for generating a JND map based on the instruction and luminance adaptation information and contrast masking information.

여기서, 휘도 적응 정보 및 대비 마스킹 정보를 기초로 JND 맵을 생성하는 명령은, 마스킹을 위한 비선형 가산 모델(Non-linear Additivity Model for Masking, NAMM)을 통해 휘도 적응 정보 및 대비 마스킹 정보로부터 JND 맵을 생성하는 명령을 포함할 수 있다.Here, the command for generating the JND map based on the luminance adaptation information and the contrast masking information is a JND map from the luminance adaptation information and the contrast masking information through a non-linear addition model for masking (NAMM). It may contain commands to generate.

여기서, 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성하는 명령은, TV(Total Variation) 기반 분해 방법을 통해 휘도 이미지로부터 구조 이미지 및 텍스처 이미지를 생성하는 명령, 구조 이미지 및 텍스처 이미지의 4방향 최대 휘도차와 가중치를 기초로 에지 마스킹 정보 및 텍스처 마스킹 정보를 생성하는 명령 및 에지 마스킹 정보와 텍스처 마스킹 정보를 합산하여 대비 마스킹 정보를 생성하는 명령을 포함할 수 있다.Here, the command for generating contrast masking information including edge masking information and texture masking information from the luminance image is a command for generating a structure image and a texture image from a luminance image through a TV (Total Variation)-based decomposition method, a structure image, and A command for generating edge masking information and texture masking information based on the maximum luminance difference and weight in the four directions of the texture image, and a command for generating contrast masking information by summing the edge masking information and the texture masking information may be included.

여기서, JND 맵과 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하는 명령은, 휘도 이미지 내의 적어도 하나의 픽셀에 대하여 적어도 하나의 픽셀에 대응하는 차이 이미지의 성분 값이 적어도 하나의 픽셀에 대응하는 JND 맵의 성분 값보다 큰 경우, 적어도 하나의 픽셀을 아티팩트가 발생한 픽셀로 검출하는 명령을 포함할 수 있다.Here, the command for detecting a pixel in which an artifact has occurred based on the JND map and the difference image is JND in which the component value of the difference image corresponding to at least one pixel with respect to at least one pixel in the luminance image corresponds to at least one pixel. If it is larger than the component value of the map, a command for detecting at least one pixel as a pixel in which an artifact has occurred may be included.

여기서, 클램핑 과정을 통해 픽셀에 발생한 아티팩트를 제거하는 명령은, 픽셀로부터 미리 설정된 범위 내에 위치하는 복수의 참조 픽셀을 이용하여 픽셀에 발생한 아티팩트를 제거하는 명령을 포함할 수 있다.Here, the command for removing the artifact generated in the pixel through the clamping process may include a command for removing the artifact generated in the pixel by using a plurality of reference pixels located within a preset range from the pixel.

여기서, 미리 설정된 범위는, 픽셀의 보간된 컬러 성분에 따라 다르게 설정될 수 있다.Here, the preset range may be set differently according to the interpolated color component of the pixel.

여기서, 픽셀로부터 미리 설정된 범위 내에 위치하는 복수의 참조 픽셀을 이용하여 픽셀에 발생한 아티팩트를 제거하는 명령은, 픽셀의 보간된 컬러 성분 값과 복수의 참조 픽셀의 최대 컬러 성분 값 및 최소 컬러 성분 값을 비교하여 픽셀의 최종 컬러 성분 값을 결정하는 명령을 포함할 수 있다.Here, the command for removing artifacts generated in a pixel by using a plurality of reference pixels located within a preset range from the pixel is the interpolated color component value of the pixel, the maximum color component value and the minimum color component value of the plurality of reference pixels. It may include instructions to compare and determine the final color component value of the pixel.

여기서, 픽셀의 최종 컬러 성분 값을 결정하는 명령은, 픽셀의 보간된 컬러 성분 값이 최대 컬러 성분 값보다 큰 경우 픽셀의 최종 컬러 성분 값을 최대 컬러 성분 값으로 결정하는 명령 및 픽셀의 보간된 컬러 성분 값이 최소 컬러 성분 값보다 작은 경우 픽셀의 최종 컬러 성분 값을 최소 컬러 성분 값으로 결정하는 명령을 포함할 수 있다.Here, the instruction for determining the final color component value of the pixel includes an instruction for determining the final color component value of the pixel as the maximum color component value and the interpolated color of the pixel when the interpolated color component value of the pixel is greater than the maximum color component value. When the component value is less than the minimum color component value, an instruction for determining the final color component value of the pixel as the minimum color component value may be included.

여기서, 픽셀의 최종 컬러 성분 값을 결정하는 명령은, 픽셀의 보간된 컬러 성분 값이 최대 컬러 성분 값보다 작거나 같고, 최소 컬러 성분 값보다 크거나 같은 경우, 픽셀의 최종 컬러 성분 값을 보간된 컬러 성분 값으로 그대로 결정하는 명령을 포함할 수 있다.Here, the command for determining the final color component value of the pixel is, when the interpolated color component value of the pixel is less than or equal to the maximum color component value and greater than or equal to the minimum color component value, the final color component value of the pixel is interpolated. It may include an instruction to determine the color component value as it is.

도 10은 본 발명의 일 실시예에 따른 아티팩트 제거 방법의 순서도이다.10 is a flowchart of a method for removing artifacts according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 일 실시예에 따른 아티팩트 제거 장치는 디모자이킹의 후처리 과정으로서, 디모자이크된 이미지로부터 휘도 이미지를 생성할 수 있다(S1010). 다시 말해, 아티팩트 제거 장치는 RGB 성분의 디모자이크된 이미지를 휘도 변환(luminance conversion)하여 휘도 이미지를 생성할 수 있다.Referring to FIG. 10, the apparatus for removing artifacts according to an embodiment of the present invention may generate a luminance image from a demosaiced image as a post-processing of demosaicing (S1010). In other words, the artifact removal apparatus may generate a luminance image by performing luminance conversion on a demosaiced image of an RGB component.

본 발명의 일 실시예에 따른 아티팩트 제거 장치는 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성할 수 있다(S1020). 여기서, 에지 마스킹 정보는 구조 이미지에 에지 마스킹 프리딕터(predictor)를 적용하여 생성될 수 있고, 텍스처 마스킹 정보는 텍스처 이미지에 텍스처 마스킹 프리딕터를 적용하여 생성될 수 있다. 또한, 구조 이미지 및 텍스처 이미지는 휘도 이미지로부터 TV(Total Variation) 기반의 분해 방법을 통해 생성될 수 있다. 또한, 대비 마스킹(CM) 정보는 에지 마스킹(EM) 정보 및 텍스처 마스킹(TM) 정보에 가중치를 설정하여 합산됨으로서 생성될 수 있다.The apparatus for removing artifacts according to an embodiment of the present invention may generate contrast masking information including edge masking information and texture masking information from a luminance image (S1020). Here, the edge masking information may be generated by applying an edge masking predictor to the structure image, and the texture masking information may be generated by applying a texture masking predictor to the texture image. In addition, a structure image and a texture image may be generated from a luminance image through a TV (Total Variation) based decomposition method. In addition, the contrast masking (CM) information may be generated by setting a weight on the edge masking (EM) information and the texture masking (TM) information and adding them.

본 발명의 일 실시예에 따른 아티팩트 제거 장치는 휘도 이미지로부터 휘도 적응 정보를 생성할 수 있다(S1030). 여기서, 휘도 적응(LA) 정보는 배경 휘도 값에 따라 인간이 구별할 수 있는 차이에 대한 정보, 다시 말해, 인간의 시각에서 배경 휘도의 마스킹 효과를 의미할 수 있으며, 인접한 픽셀을 참조하여 산출될 수 있다. 본 발명의 일 실시예에 따른 아티팩트 제거 방법에서 S1020 단계와 S1030 단계는 순서가 서로 변경되어도 무관할 수 있다.The apparatus for removing artifacts according to an embodiment of the present invention may generate luminance adaptation information from a luminance image (S1030). Here, the luminance adaptation (LA) information may refer to information on a difference that can be distinguished by a human according to a background luminance value, that is, a masking effect of the background luminance in the human's perspective, and can be calculated by referring to adjacent pixels. I can. In the artifact removal method according to an embodiment of the present invention, steps S1020 and S1030 may be irrelevant even if the order is changed.

본 발명의 일 실시예에 따른 아티팩트 제거 장치는 NAMM(Non-linear Additivity Model for Masking)을 통해 대비 마스킹 정보 및 휘도 적응 정보를 기초로 JND 맵을 생성할 수 있다(S1040). 여기서, JND 맵(또는 JND 정보)는 인간 시각 특성에 따라 차이를 인지할 수 있는 차이에 대한 정보를 의미할 수 있다.The apparatus for removing artifacts according to an embodiment of the present invention may generate a JND map based on contrast masking information and luminance adaptation information through a Non-linear Additivity Model for Masking (NAMM) (S1040). Here, the JND map (or JND information) may mean information on a difference that can recognize a difference according to a human visual characteristic.

본 발명의 일 실시예에 따른 아티팩트 제거 장치는 휘도 이미지 및 LPF(Low-Pass Filter)를 통해 블러링된 이미지를 기초로 차이 이미지를 생성할 수 있다(S1050). 여기서, LPF는 가우시안 필터를 포함할 수 있으며, 블러링된 이미지(LLPF)는 디모자이킹 아티팩트를 강제로 제거한 이미지를 의미할 수 있고, 차이 이미지(Ldiff)는 디모자이킹 아티팩트를 강제로 제거한 이미지와 휘도 이미지 간의 차이에 대한 정보를 의미할 수 있다.The artifact removal apparatus according to an embodiment of the present invention may generate a difference image based on a luminance image and an image blurred through a low-pass filter (LPF) (S1050). Here, the LPF may include a Gaussian filter, the blurred image (L LPF ) may mean an image forcibly removing the demosaicing artifact, and the difference image (L diff ) may force the demosaicing artifact It may mean information on the difference between the removed image and the luminance image.

본 발명의 일 실시예에 따른 아티팩트 제거 장치는 JND(Just Noticeable Difference) 맵 및 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출할 수 있다(S1060). 다시 말해, 본 발명의 일 실시예는 휘도 이미지 내의 적어도 하나의 픽셀에 대하여 적어도 하나의 픽셀에 대응하는 차이 이미지의 성분 값이 적어도 하나의 픽셀에 대응하는 JND 맵의 성분 값보다 큰 경우, 적어도 하나의 픽셀을 아티팩트가 발생한 픽셀로 검출할 수 있다.The apparatus for removing artifacts according to an embodiment of the present invention may detect a pixel in which an artifact has occurred based on a Just Noticeable Difference (JND) map and a difference image (S1060). In other words, in an embodiment of the present invention, when a component value of a difference image corresponding to at least one pixel with respect to at least one pixel in a luminance image is greater than a component value of a JND map corresponding to at least one pixel, at least one The pixels of can be detected as pixels with artifacts.

본 발명의 일 실시예에 따른 아티팩트 제거 장치는 클램핑 과정을 통해 참조 픽셀의 성분 값을 기초로 아티팩트를 제거할 수 있다(S1070). 다시 말해, 본 발명의 일 실시예는 아티팩트가 검출된 픽셀의 보간된 컬러 성분 값이 참조 픽셀의 최대 컬러 성분 값보다 큰 경우 아티팩트가 검출된 픽셀의 최종 컬러 성분 값을 최대 컬러 성분 값으로 결정할 수 있고, 최소 컬러 성분 값보다 작은 경우 아티팩트가 검출된 픽셀의 최종 컬러 성분 값을 최소 컬러 성분 값으로 결정할 수 있다. 또한, 아티팩트가 검출된 픽셀의 보간된 컬러 성분 값이 참조 픽셀의 최대 컬러 성분 값보다 작거나 같고, 최소 컬러 성분 값보다 크거나 같은 경우, 보간된 컬러 성분 값을 최종 컬러 성분 값으로 그대로 결정할 수도 있다. 여기서, 참조 픽셀은 아티팩트가 검출된 픽셀의 보간된 컬러 성분에 따라 다르게 설정될 수 있다.The artifact removing apparatus according to an embodiment of the present invention may remove the artifact based on the component value of the reference pixel through a clamping process (S1070). In other words, in an embodiment of the present invention, when the interpolated color component value of the pixel in which the artifact is detected is greater than the maximum color component value of the reference pixel, the final color component value of the pixel in which the artifact is detected may be determined as the maximum color component value. In addition, when it is smaller than the minimum color component value, the final color component value of the pixel in which the artifact is detected may be determined as the minimum color component value. In addition, if the interpolated color component value of the pixel in which the artifact is detected is less than or equal to the maximum color component value of the reference pixel, and greater than or equal to the minimum color component value, the interpolated color component value may be determined as the final color component value. have. Here, the reference pixel may be set differently according to the interpolated color component of the pixel in which the artifact is detected.

본 발명의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. The operation according to an embodiment of the present invention can be implemented as a computer-readable program or code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. In addition, the computer-readable recording medium may be distributed over a computer system connected through a network to store and execute a computer-readable program or code in a distributed manner.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include a hardware device specially configured to store and execute program commands, such as ROM, RAM, and flash memory. The program instructions may include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. While some aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, where a block or apparatus corresponds to a method step or characteristic of a method step. Similarly, aspects described in the context of a method can also be represented by a corresponding block or item or a feature of a corresponding device. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, a programmable computer or electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functionality of the methods described herein. In embodiments, the field programmable gate array may work with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can do it.

Claims (20)

디모자이크된 이미지로부터 아티팩트를 제거하는 방법으로서,
상기 디모자이크된 이미지로부터 휘도 이미지를 생성하는 단계;
상기 휘도 이미지로부터 JND(Just Noticeable Difference) 맵을 생성하는 단계;
상기 휘도 이미지에 LPF(Low-Pass Filter)를 적용한 이미지와 상기 휘도 이미지 간의 차이 이미지를 생성하는 단계;
상기 JND 맵과 상기 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하는 단계; 및
클램핑 과정을 통해 상기 픽셀에 발생한 아티팩트를 제거하는 단계를 포함하되,
상기 클램핑 과정을 통해 상기 픽셀에 발생한 아티팩트를 제거하는 단계는,
상기 픽셀로부터 미리 설정된 범위 내에 위치하는 복수의 참조 픽셀을 이용하여 상기 픽셀에 발생한 아티팩트를 제거하는 단계를 포함하고,
상기 픽셀로부터 미리 설정된 범위 내에 위치하는 복수의 참조 픽셀을 이용하여 상기 픽셀에 발생한 아티팩트를 제거하는 단계는,
상기 픽셀의 보간된 컬러 성분 값과 상기 복수의 참조 픽셀의 최대 컬러 성분 값 및 최소 컬러 성분 값을 비교하여 상기 픽셀의 최종 컬러 성분 값을 결정하는 단계를 포함하는, 아티팩트 제거 방법.
As a method of removing artifacts from a demosaiced image,
Generating a luminance image from the demosaiced image;
Generating a Just Noticeable Difference (JND) map from the luminance image;
Generating a difference image between the luminance image and an image to which a LPF (Low-Pass Filter) is applied to the luminance image;
Detecting a pixel in which an artifact has occurred based on the JND map and the difference image; And
Including the step of removing the artifact generated in the pixel through a clamping process,
The step of removing the artifact generated in the pixel through the clamping process,
And removing an artifact generated in the pixel by using a plurality of reference pixels located within a preset range from the pixel,
The step of removing an artifact generated in the pixel by using a plurality of reference pixels located within a preset range from the pixel,
And determining a final color component value of the pixel by comparing the interpolated color component value of the pixel with a maximum color component value and a minimum color component value of the plurality of reference pixels.
청구항 1에 있어서,
상기 휘도 이미지로부터 JND 맵을 생성하는 단계는,
상기 휘도 이미지로부터 배경 휘도의 마스킹 효과에 대한 휘도 적응 정보를 생성하는 단계;
상기 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성하는 단계; 및
상기 휘도 적응 정보 및 상기 대비 마스킹 정보를 기초로 상기 JND 맵을 생성하는 단계를 포함하는, 아티팩트 제거 방법.
The method according to claim 1,
Generating a JND map from the luminance image,
Generating luminance adaptation information for a masking effect of background luminance from the luminance image;
Generating contrast masking information including edge masking information and texture masking information from the luminance image; And
And generating the JND map based on the luminance adaptation information and the contrast masking information.
청구항 2에 있어서,
상기 휘도 적응 정보 및 상기 대비 마스킹 정보를 기초로 상기 JND 맵을 생성하는 단계는,
마스킹을 위한 비선형 가산 모델(Non-linear Additivity Model for Masking, NAMM)을 통해 상기 휘도 적응 정보 및 상기 대비 마스킹 정보로부터 상기 JND 맵을 생성하는 단계를 포함하는, 아티팩트 제거 방법.
The method according to claim 2,
Generating the JND map based on the luminance adaptation information and the contrast masking information,
Generating the JND map from the luminance adaptation information and the contrast masking information through a non-linear addition model for masking (NAMM).
청구항 2에 있어서,
상기 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성하는 단계는,
TV(Total Variation) 기반 분해 방법을 통해 상기 휘도 이미지로부터 구조 이미지 및 텍스처 이미지를 생성하는 단계;
상기 구조 이미지 및 상기 텍스처 이미지의 4방향 최대 휘도차와 가중치를 기초로 상기 에지 마스킹 정보 및 상기 텍스처 마스킹 정보를 생성하는 단계; 및
상기 에지 마스킹 정보와 상기 텍스처 마스킹 정보를 합산하여 상기 대비 마스킹 정보를 생성하는 단계를 포함하는, 아티팩트 제거 방법.
The method according to claim 2,
Generating contrast masking information including edge masking information and texture masking information from the luminance image,
Generating a structure image and a texture image from the luminance image through a TV (Total Variation) based decomposition method;
Generating the edge masking information and the texture masking information based on a maximum luminance difference and a weight in four directions of the structure image and the texture image; And
And generating the contrast masking information by summing the edge masking information and the texture masking information.
청구항 1에 있어서,
상기 JND 맵과 상기 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하는 단계는,
상기 휘도 이미지 내의 적어도 하나의 픽셀에 대하여 상기 적어도 하나의 픽셀에 대응하는 상기 차이 이미지의 성분 값이 상기 적어도 하나의 픽셀에 대응하는 상기 JND 맵의 성분 값보다 큰 경우, 상기 적어도 하나의 픽셀을 상기 아티팩트가 발생한 픽셀로 검출하는 단계를 포함하는, 아티팩트 제거 방법.
The method according to claim 1,
The step of detecting a pixel in which an artifact has occurred based on the JND map and the difference image,
When a component value of the difference image corresponding to the at least one pixel with respect to at least one pixel in the luminance image is greater than a component value of the JND map corresponding to the at least one pixel, the at least one pixel is A method of removing artifacts comprising the step of detecting as a pixel in which the artifact has occurred.
삭제delete 청구항 1에 있어서,
상기 미리 설정된 범위는,
상기 픽셀의 보간된 컬러 성분에 따라 다르게 설정되는, 아티팩트 제거 방법.
The method according to claim 1,
The preset range is,
The artifact removal method that is set differently according to the interpolated color component of the pixel.
삭제delete 청구항 1에 있어서,
상기 픽셀의 최종 컬러 성분 값을 결정하는 단계는,
상기 픽셀의 보간된 컬러 성분 값이 상기 최대 컬러 성분 값보다 큰 경우 상기 픽셀의 최종 컬러 성분 값을 상기 최대 컬러 성분 값으로 결정하는 단계; 및
상기 픽셀의 보간된 컬러 성분 값이 상기 최소 컬러 성분 값보다 작은 경우 상기 픽셀의 최종 컬러 성분 값을 상기 최소 컬러 성분 값으로 결정하는 단계를 포함하는, 아티팩트 제거 방법.
The method according to claim 1,
The step of determining the final color component value of the pixel,
Determining a final color component value of the pixel as the maximum color component value when the interpolated color component value of the pixel is greater than the maximum color component value; And
And determining a final color component value of the pixel as the minimum color component value when the interpolated color component value of the pixel is less than the minimum color component value.
청구항 1에 있어서,
상기 픽셀의 최종 컬러 성분 값을 결정하는 단계는,
상기 픽셀의 보간된 컬러 성분 값이 상기 최대 컬러 성분 값보다 작거나 같고, 상기 최소 컬러 성분 값보다 크거나 같은 경우, 상기 픽셀의 최종 컬러 성분 값을 상기 보간된 컬러 성분 값으로 그대로 결정하는 단계를 포함하는, 아티팩트 제거 방법.
The method according to claim 1,
The step of determining the final color component value of the pixel,
When the interpolated color component value of the pixel is less than or equal to the maximum color component value and greater than or equal to the minimum color component value, determining a final color component value of the pixel as the interpolated color component value Including, artifact removal method.
디모자이크된 이미지로부터 아티팩트를 제거하는 장치로서,
적어도 하나의 프로세서(processor); 및
상기 적어도 하나의 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고,
상기 적어도 하나의 명령은,
상기 디모자이크된 이미지로부터 휘도 이미지를 생성하도록 실행되고,
상기 휘도 이미지로부터 JND(Just Noticeable Difference) 맵을 생성하도록 실행되고,
상기 휘도 이미지에 LPF(Low-Pass Filter)를 적용한 이미지와 상기 휘도 이미지 간의 차이 이미지를 생성하도록 실행되고,
상기 JND 맵과 상기 차이 이미지를 기초로 아티팩트가 발생한 픽셀을 검출하도록 실행되고,
클램핑 과정을 통해, 상기 픽셀의 보간된 컬러 성분 값, 상기 픽셀로부터 미리 설정된 범위 내에 위치하는 복수의 참조 픽셀의 최대 컬러 성분 값 및 최소 컬러 성분 값을 비교하여 상기 픽셀의 최종 컬러 성분 값을 결정함으로써, 상기 픽셀에 발생한 아티팩트를 제거하도록 실행되는, 아티팩트 제거 장치.
A device that removes artifacts from a demosaiced image,
At least one processor; And
A memory in which at least one instruction executed through the at least one processor is stored,
The at least one command,
Executed to generate a luminance image from the demosaiced image,
It is executed to generate a JND (Just Noticeable Difference) map from the luminance image,
It is executed to generate a difference image between the luminance image and an image to which LPF (Low-Pass Filter) is applied to the luminance image,
It is executed to detect a pixel in which an artifact has occurred based on the JND map and the difference image,
By comparing the interpolated color component value of the pixel, the maximum color component value and the minimum color component value of a plurality of reference pixels located within a preset range from the pixel through a clamping process, the final color component value of the pixel is determined. , The artifact removal apparatus executed to remove the artifact generated in the pixel.
청구항 11에 있어서,
상기 적어도 하나의 명령은,
상기 휘도 이미지로부터 배경 휘도의 마스킹 효과에 대한 휘도 적응 정보를 생성하도록 실행되고,
상기 휘도 이미지로부터 에지 마스킹 정보 및 텍스처 마스킹 정보를 포함하는 대비 마스킹 정보를 생성하도록 실행되고,
상기 휘도 적응 정보 및 상기 대비 마스킹 정보를 기초로 상기 JND 맵을 생성하도록 실행되는, 아티팩트 제거 장치.
The method of claim 11,
The at least one command,
It is executed to generate luminance adaptation information for a masking effect of background luminance from the luminance image,
It is executed to generate contrast masking information including edge masking information and texture masking information from the luminance image,
The artifact removal apparatus, which is executed to generate the JND map based on the luminance adaptation information and the contrast masking information.
청구항 12에 있어서,
상기 적어도 하나의 명령은,
마스킹을 위한 비선형 가산 모델(Non-linear Additivity Model for Masking, NAMM)을 통해 상기 휘도 적응 정보 및 상기 대비 마스킹 정보로부터 상기 JND 맵을 생성하도록 실행되는, 아티팩트 제거 장치.
The method of claim 12,
The at least one command,
The artifact removal apparatus, which is executed to generate the JND map from the luminance adaptation information and the contrast masking information through a non-linear addition model for masking (NAMM).
청구항 12에 있어서,
상기 적어도 하나의 명령은,
TV(Total Variation) 기반 분해 방법을 통해 상기 휘도 이미지로부터 구조 이미지 및 텍스처 이미지를 생성하도록 실행되고,
상기 구조 이미지 및 상기 텍스처 이미지의 4방향 최대 휘도차와 가중치를 기초로 상기 에지 마스킹 정보 및 상기 텍스처 마스킹 정보를 생성하도록 실행되고,
상기 에지 마스킹 정보와 상기 텍스처 마스킹 정보를 합산하여 상기 대비 마스킹 정보를 생성하도록 실행되는, 아티팩트 제거 장치.
The method of claim 12,
The at least one command,
It is executed to generate a structure image and a texture image from the luminance image through a TV (Total Variation)-based decomposition method,
It is executed to generate the edge masking information and the texture masking information based on the maximum luminance difference and weight in the four directions of the structure image and the texture image,
The artifact removal apparatus, which is executed to generate the contrast masking information by summing the edge masking information and the texture masking information.
청구항 11에 있어서,
상기 적어도 하나의 명령은,
상기 휘도 이미지 내의 적어도 하나의 픽셀에 대하여 상기 적어도 하나의 픽셀에 대응하는 상기 차이 이미지의 성분 값이 상기 적어도 하나의 픽셀에 대응하는 상기 JND 맵의 성분 값보다 큰 경우, 상기 적어도 하나의 픽셀을 상기 아티팩트가 발생한 픽셀로 검출하도록 실행되는, 아티팩트 제거 장치.
The method of claim 11,
The at least one command,
When a component value of the difference image corresponding to the at least one pixel with respect to at least one pixel in the luminance image is greater than a component value of the JND map corresponding to the at least one pixel, the at least one pixel is An artifact removal device that is executed to detect as a pixel in which an artifact has occurred.
삭제delete 청구항 11에 있어서,
상기 미리 설정된 범위는,
상기 픽셀의 보간된 컬러 성분에 따라 다르게 설정되는, 아티팩트 제거 장치.
The method of claim 11,
The preset range is,
An apparatus for removing artifacts that is set differently according to the interpolated color component of the pixel.
삭제delete 청구항 11에 있어서,
상기 적어도 하나의 명령은,
상기 픽셀의 보간된 컬러 성분 값이 상기 최대 컬러 성분 값보다 큰 경우 상기 픽셀의 최종 컬러 성분 값을 상기 최대 컬러 성분 값으로 결정하도록 실행되고,
상기 픽셀의 보간된 컬러 성분 값이 상기 최소 컬러 성분 값보다 작은 경우 상기 픽셀의 최종 컬러 성분 값을 상기 최소 컬러 성분 값으로 결정하도록 실행되는, 아티팩트 제거 장치.
The method of claim 11,
The at least one command,
When the interpolated color component value of the pixel is greater than the maximum color component value, it is executed to determine a final color component value of the pixel as the maximum color component value,
And determining the final color component value of the pixel as the minimum color component value when the interpolated color component value of the pixel is less than the minimum color component value.
청구항 11에 있어서,
상기 적어도 하나의 명령은,
상기 픽셀의 보간된 컬러 성분 값이 상기 최대 컬러 성분 값보다 작거나 같고, 상기 최소 컬러 성분 값보다 크거나 같은 경우, 상기 픽셀의 최종 컬러 성분 값을 상기 보간된 컬러 성분 값으로 그대로 결정하도록 실행되는, 아티팩트 제거 장치.
The method of claim 11,
The at least one command,
When the interpolated color component value of the pixel is less than or equal to the maximum color component value and greater than or equal to the minimum color component value, the final color component value of the pixel is determined as the interpolated color component value. , Artifact removal device.
KR1020190044375A 2019-04-16 2019-04-16 Method and apparatus for removing artifact in demosaicked image KR102189923B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190044375A KR102189923B1 (en) 2019-04-16 2019-04-16 Method and apparatus for removing artifact in demosaicked image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190044375A KR102189923B1 (en) 2019-04-16 2019-04-16 Method and apparatus for removing artifact in demosaicked image

Publications (2)

Publication Number Publication Date
KR20200121609A KR20200121609A (en) 2020-10-26
KR102189923B1 true KR102189923B1 (en) 2020-12-11

Family

ID=73006326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190044375A KR102189923B1 (en) 2019-04-16 2019-04-16 Method and apparatus for removing artifact in demosaicked image

Country Status (1)

Country Link
KR (1) KR102189923B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016814A (en) * 2008-07-03 2010-01-21 Seiko Epson Corp Image processing apparatus and method, and computer-readable medium
KR100975823B1 (en) * 2008-12-27 2010-08-16 경북대학교 산학협력단 Noise elimination and defect detecting method of image, and device thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016814A (en) * 2008-07-03 2010-01-21 Seiko Epson Corp Image processing apparatus and method, and computer-readable medium
KR100975823B1 (en) * 2008-12-27 2010-08-16 경북대학교 산학협력단 Noise elimination and defect detecting method of image, and device thereof

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Anmin Liu ET AL:"Just Noticeable Difference for Images With Decomposition Model for Separating Edge and Textured Regions", IEEE Transactions on Circuits and Systems for Video Tech.(2010.10.14.) 1부.*
Vinit Jakhetiya ET AL:"Just Noticeable Difference for natural images using RMS contrast and feed-back mechanism", Neurocomputing, Volume 275, Pages 366-376, 31 Jan. 2018(2018.01.31.) 1부.*
박대준, "Edge Adaptive Interpolation of Color Filter Array Images Using Taylor Series Approximation", Department of Electronics and Computer Engineering Graduate School of Hanyang Univ.(2019.02.28.) 1부.*

Also Published As

Publication number Publication date
KR20200121609A (en) 2020-10-26

Similar Documents

Publication Publication Date Title
JP5206851B2 (en) Image processing method
US7916940B2 (en) Processing of mosaic digital images
US7986352B2 (en) Image generation system including a plurality of light receiving elements and for correcting image data using a spatial high frequency component, image generation method for correcting image data using a spatial high frequency component, and computer-readable recording medium having a program for performing the same
TWI516132B (en) An image processing apparatus, an image processing method, and a program
US8594451B2 (en) Edge mapping incorporating panchromatic pixels
JP6352617B2 (en) Video processing apparatus and method
CN111784603B (en) RAW domain image denoising method, computer device and computer readable storage medium
CN111194458A (en) Image signal processor for processing image
CN111784605B (en) Image noise reduction method based on region guidance, computer device and computer readable storage medium
US9858644B2 (en) Bayer color filter array based high dynamic range video recording method and device
CN113632134B (en) Method, computer readable storage medium, and HDR camera for generating high dynamic range image
US20140002697A1 (en) Apparatus and method of reducing noise of image
KR100721338B1 (en) Color interpolation algorithm of digital camera
KR20210018136A (en) Method and apparatus for image processing
KR101600312B1 (en) Apparatus and method for processing image
TW201318418A (en) Method of noise reduction in image and device thereof
KR102189923B1 (en) Method and apparatus for removing artifact in demosaicked image
JP5738904B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US10863148B2 (en) Tile-selection based deep demosaicing acceleration
Paul et al. Maximum accurate medical image demosaicing using WRGB based Newton Gregory interpolation method
JP6143575B2 (en) Image processing apparatus, image processing method, and image processing program
US20140368701A1 (en) Cloning image data patch in hole of pixel array (patch and clone)
KR101327790B1 (en) Image interpolation method and apparatus
US10999541B2 (en) Image processing apparatus, image processing method and storage medium
KR20200121617A (en) Method and apparatus for predicting edge for image demosaicking

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant