KR102020464B1 - Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium - Google Patents

Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium Download PDF

Info

Publication number
KR102020464B1
KR102020464B1 KR1020180028725A KR20180028725A KR102020464B1 KR 102020464 B1 KR102020464 B1 KR 102020464B1 KR 1020180028725 A KR1020180028725 A KR 1020180028725A KR 20180028725 A KR20180028725 A KR 20180028725A KR 102020464 B1 KR102020464 B1 KR 102020464B1
Authority
KR
South Korea
Prior art keywords
color
image
mono
color information
parallax
Prior art date
Application number
KR1020180028725A
Other languages
Korean (ko)
Inventor
정용주
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020180028725A priority Critical patent/KR102020464B1/en
Application granted granted Critical
Publication of KR102020464B1 publication Critical patent/KR102020464B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N5/217
    • H04N5/23245

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a color-mono dual camera imaging image fusion method, and a system and a computer-readable medium thereof, and more specifically, to a color-mono dual camera imaging image fusion method which fuses a color image and a mono image photographed through two separated cameras so as to increase an image quality of low level light imaging, and to a system and a computer-readable medium thereof.

Description

칼라-모노 듀얼카메라 촬영 영상의 융합 방법, 시스템 및 컴퓨터-판독가능 매체{Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium}Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium}

본 발명은 칼라-모노 듀얼카메라 촬영 영상의 융합 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 두 개의 분리된 카메라를 통해 촬영된 칼라영상 및 모노영상을 융합함으로써 저조도 촬영의 화질을 향상시킬 수 있는 칼라-모노 듀얼카메라 촬영 영상의 융합 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, a system and a computer-readable medium for fusion of color-mono dual camera photographed images, and more particularly, to image quality of low light photographing by fusion of color images and mono images photographed through two separate cameras. A method, system, and computer-readable medium for fusion of color-mono dual-camera photographed images that can improve image quality.

최근까지 스마트폰 카메라를 위한 CMOS(Complementary metal-oxide-semiconductor) 이미지 센서(CIS, CMOS Image Sensor) 시장은 고해상도 이미지를 지원하면서도, 작은 크기의 센서를 만들기 위한 경쟁을 벌여 왔다. 최근에는 1.0㎛ 화소 크기까지 줄인 센서들이 시장에 출시되고 있다. 화소의 크기가 작아지면서 센서의 높이도 줄일 수 있게 됨으로써 스마트폰과 같은 디바이스에서 카메라부의 크기를 줄여 외관상 유려한 디자인의 제품의 제작이 가능해졌다.Until recently, the market for complementary metal-oxide-semiconductor (CMOS) image sensors (CIS) for smartphone cameras has been competing to make small sensors while supporting high resolution images. Recently, sensors that have been reduced to 1.0 μm pixel size are on the market. As the size of the pixel becomes smaller and the height of the sensor can be reduced, the size of the camera portion can be reduced in devices such as smartphones, making it possible to manufacture products with an elegant design.

다만, 작아진 화소의 크기로 인해 낮은 다이나믹 레인지(Low Dynamic Range)를 갖게 되고, 노이즈가 증가하는 상충관계로 인해, 화소 크기 경쟁에 정체가 발생하고 있다.However, due to the reduced size of the pixel has a low dynamic range (Low Dynamic Range), due to the trade-offs that increase the noise, congestion occurs in the pixel size competition.

한편, 스마트폰 시장에서는 작은 크기의 스마트폰 카메라에서 DSLR(Digital Single-Lens Reflex) 카메라 급의 고화질 사진을 얻고자 하는 사용자의 요구가 지속되는 상황이다. 특히, 저조도(Low-Light) 촬영에서의 화질 향상, 광학 줌을 한 것과 같은 고해상도 영상의 획득, 및 모션 블러 현상이 저감된 고화질 사진에 대한 사용자의 요구가 크다.On the other hand, in the smart phone market, users are demanding to obtain high-quality photos of DSLR (Digital Single-Lens Reflex) cameras from small size smartphone cameras. In particular, there is a great demand from users for improving image quality in low-light photography, acquiring high-resolution images such as optical zoom, and high-quality photographs with reduced motion blur.

이와 같은 요구 중, 작은 크기의 센서로 인해 저조도 촬영에서의 노이즈 과다 발생과, 어두운 환경으로 인한 자동 초점(Auto Focus)기능의 오 동작에 따른 선명도(Sharpness)의 저하를 가져오는 문제를 해결할 필요가 있다.Among these requirements, it is necessary to solve the problem that the small size sensor causes excessive noise in low light shooting and deterioration in sharpness due to malfunction of the auto focus function due to the dark environment. have.

최근에는 하나의 칼라 CIS 센서로는 한계가 있는 저조도 영상의 화질을 향상시키기 위하여 듀얼 렌즈 카메라(즉, 두 개의 이미지 센서와 렌즈가 수평으로 나란히 위치한 듀얼카메라)를 이용하는 방법이 제시되고 있다. 하지만, 촬영된 두 개의 영상을 융합하는 과정에서 어려움이 있다. 이는 두 개의 촬영된 스테레오 영상들 간에 픽셀 시차(Pixel Disparity)가 존재하기 때문에 시차 보상이 필연적이나, 이 과정에서 부정확한 시차 추정에 의한 융합 영상의 화질 저하를 방지하는 알고리즘의 부재에 의한 것이다. 따라서 이와 같은 단점을 보완하는 알고리즘의 개발의 필요성이 대두되었다.Recently, a method of using a dual lens camera (that is, a dual camera in which two image sensors and a lens are arranged side by side) has been proposed to improve the image quality of a low-light image, which is limited to one color CIS sensor. However, there is a difficulty in the process of fusing the two captured images. This is because parallax compensation is inevitable because there is pixel disparity between two captured stereo images, but in this process, there is an absence of an algorithm that prevents deterioration of the quality of the fused image due to incorrect disparity estimation. Therefore, there is a need to develop an algorithm that compensates for such drawbacks.

본 발명은 두 개의 분리된 카메라를 통해 촬영된 칼라영상 및 모노영상을 융합함으로써 저조도 촬영의 화질을 향상시킬 수 있는 칼라-모노 듀얼카메라 촬영 영상의 융합 방법, 시스템 및 컴퓨터-판독가능 매체를 제공하는 것을 그 목적으로 한다.The present invention provides a method, system and computer-readable medium for fusion of color-mono dual-camera photographed images that can improve the image quality of low-light imaging by fusing color images and mono images captured by two separate cameras. For that purpose.

상기와 같은 과제를 해결하기 위하여 본 발명은 칼라-모노 듀얼카메라 촬영 영상의 융합 방법으로서, 칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력단계; 입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리단계; 전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정단계; 전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징단계; 및 상기 디노이즈드칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달단계; 를 포함하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법을 제공한다.In order to solve the above problems, the present invention provides a fusion method of a color-mono dual camera photographed image, comprising: an image input step of receiving a mono image and a color image photographed through a color-mono dual camera; A preprocessing step of performing preprocessing on the input mono image and the color image; A parallax estimating step of estimating a parallax from the pre-processed color image and the pre-processed mono image; A joint denoising step of removing noise of the pre-processed color image based on the pre-processed mono image to generate a denoised color image; And a color information transfer step of transferring color information from the denoised color image to the mono image which has been preprocessed to generate an improved color image having improved image quality. It provides a, fusion method of the color-mono dual camera photographing image.

본 발명에서는, 상기 색상정보전달단계는, 전처리를 수행한 상기 칼라영상에 대한 전처리를 수행한 상기 모노영상의 부분영역별 상이도에 기초하여, 전처리를 수행한 상기 모노영상의 부분영역의 색상정보에 추정된 상기 시차를 고려하여 대응되는 상기 디노이즈드칼라영상의 부분영역의 색상정보를 입력하여 부분영역별 시차보상색상정보를 생성하는 시차보상색상정보생성단계; 상기 부분영역별 시차보상색상정보 중 색상정보가 입력되지 않은 부분영역인 칼라 홀에, 1 이상의 색상정보가 입력된 다른 부분영역의 시차보상색상정보에 기초하여 도출된 색상정보를 채워 넣는 칼라홀필링단계; 및 상기 칼라홀필링단계를 통해 색상정보가 채워진 부분영역별 시차보상색상정보를 전처리를 수행한 상기 모노영상에 병합하여 개선칼라영상을 생성하는 영상병합단계; 를 포함할 수 있다.In the present invention, the color information transferring step, based on the degree of difference for each partial region of the mono image that has been pre-processed for the color image that has been pre-processed, the color information of the partial region of the mono image has been pre-processed Disparity compensation color information generation step of generating disparity compensation color information for each partial region by inputting color information of the partial region of the denoised color image corresponding to the estimated parallax; Color hole filling that fills color information derived based on the disparity compensation color information of another partial area into which one or more color information is input, in a color hole in which the color information is not input among the disparity compensation color information for each partial area. step; And an image merging step of generating an improved color image by merging the disparity compensation color information for each partial region filled with the color information through the color hole filling step into the mono image which has been preprocessed. It may include.

본 발명에서는, 상기 시차보상색상정보생성단계는, 상기 디노이즈드칼라영상 및 상기 모노영상의 동일 좌표의 부분영역의 상이도가, 양안 영상의 차이 구별을 나타내는 BJND 모델의 BJND값 미만인 경우 상기 부분영역에 마스킹을 생성하는 마스킹생성단계; 및 상기 마스킹이 생성된 영역에 대해 추정된 상기 시차를 고려하여 상기 디노이즈드칼라영상의 색상정보를 입력하여 시차보상색상정보를 생성하는 시차보상색상정보전달단계; 를 포함할 수 있다.In the present invention, the step of generating the disparity compensation color information, wherein the difference between the partial region of the same coordinates of the denoised color image and the mono image is less than the BJND value of the BJND model representing the difference between the binocular image, the partial A masking generation step of generating masking in the area; And a disparity compensation color information transferring step of generating disparity compensation color information by inputting color information of the denoised color image in consideration of the disparity estimated for the masked area; It may include.

본 발명에서는, 상기 칼라홀필링단계는, 인공 신경망 알고리즘에 기초하여 상기 칼라 홀에 채워 넣을 색상정보를 도출할 수 있다.In the present invention, the color hole filling step may derive color information to be filled in the color hole based on an artificial neural network algorithm.

본 발명에서는, 상기 칼라홀필링단계는, 컨볼루션 신경망에 기초하여 칼라 홀에 채워 넣을 색상정보를 도출할 수 있다.In the present invention, the color hole filling step may derive color information to be filled in the color hole based on the convolution neural network.

본 발명에서는, 상기 컨볼루션 신경망은, 상기 시차보상색상정보를 컬러 힌트로 하는 크로스채널 오토인코더로 구성될 수 있다.In the present invention, the convolutional neural network may be configured as a cross-channel auto encoder that uses the color difference information as the color difference.

본 발명에서는, 상기 전처리단계는, 입력 받은 상기 모노영상 및 상기 칼라영상에 대한 선형변환을 통해 상기 모노영상 및 상기 칼라영상을 정렬하는 기하보정단계; 상기 기하보정단계를 수행한 상기 칼라영상의 밝기를 상기 모노영상의 밝기에 맞추어 조절하여 전처리칼라영상을 생성하는 정규화단계; 및 상기 전처리칼라영상의 색상정보를 제거하여 그레이스케일영상을 생성하는 단색화단계; 를 포함할 수 있다.In the present invention, the pre-processing step, the geometric correction step of aligning the mono image and the color image through a linear transformation of the input mono image and the color image; A normalization step of generating a pre-processed color image by adjusting the brightness of the color image in which the geometric correction step is performed according to the brightness of the mono image; And generating a grayscale image by removing color information of the preprocessed color image. It may include.

본 발명에서는, 상기 시차추정단계는 상기 그레이스케일영상 및 상기 모노영상의 시차를 추정하고, 상기 조인트디노이징단계는 전처리를 수행한 상기 모노영상에 기초하여 상기 전처리칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성할 수 있다.In the present invention, the parallax estimating step estimates the parallax of the grayscale image and the mono image, and the joint denoising step removes the noise of the preprocessed color image based on the mono image which has been preprocessed. Decal images can be generated.

본 발명에서는, 상기 조인트디노이징단계는, 상기 시차추정단계에서 추정된 시차가 기설정된 디노이즈기준값 미만인 경우 상기 모노영상 및 상기 전처리칼라영상에 기초하여 노이즈를 제거하고, 상기 시차추정단계에서 추정된 시차가 기설정된 디노이즈기준값 이상인 경우 상기 전처리칼라영상에 기초하여 노이즈를 제거할 수 있다.In the present invention, the joint de-noising step removes noise based on the mono image and the pre-processed color image when the parallax estimated in the parallax estimation step is less than a preset denoise reference value, and is estimated in the parallax estimating step. When the parallax is greater than or equal to a preset denoise reference value, the noise may be removed based on the preprocessed color image.

본 발명에서는, 상기 디노이즈기준값은, 양안 영상의 차이 구별을 나타내는 BJND 모델에 기반하여 결정될 수 있다.In the present invention, the denoise reference value may be determined based on a BJND model representing a difference discrimination between binocular images.

상기와 같은 과제를 해결하기 위하여 본 발명은, 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템으로서, 칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력부; 입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리부; 전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정부; 전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징부; 및 상기 디노이즈드칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달부; 를 포함하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템을 제공한다.In order to solve the above problems, the present invention is a fusion system of a color-mono dual camera photographed image, the image input unit for receiving a mono image and a color image photographed through a color-mono dual camera; A preprocessing unit performing preprocessing on the input mono image and the color image; A parallax estimator for estimating a parallax from the color image pre-processed and the mono image pre-processed; A joint denoising unit for generating a denoised color image by removing noise of the pre-processed color image based on the mono-image which has been preprocessed; And a color information transfer unit configured to transfer color information from the denoised color image to the mono image which has been preprocessed to generate an improved color image having improved image quality. It provides a, fusion system of color-mono dual camera photographing image.

본 발명에서는, 상기 색상정보전달부는, 전처리를 수행한 상기 칼라영상에 대한 전처리를 수행한 상기 모노영상의 부분영역별 상이도에 기초하여, 전처리를 수행한 상기 모노영상의 부분영역의 색상정보에 추정된 상기 시차를 고려하여 대응되는 상기 디노이즈드칼라영상의 부분영역의 색상정보를 입력하여 부분영역별 시차보상색상정보를 생성하는 시차보상색상정보생성부; 상기 부분영역별 시차보상색상정보 중 색상정보가 입력되지 않은 부분영역인 칼라 홀에, 1 이상의 색상정보가 입력된 다른 부분영역의 시차보상색상정보에 기초하여 도출된 색상정보를 채워 넣는 칼라홀필링부; 및 상기 칼라홀필링부로부터 수신한 색상정보가 채워진 부분영역별 시차보상색상정보를 전처리를 수행한 상기 모노영상에 병합하여 개선칼라영상을 생성하는 영상병합부; 를 포함할 수 있다.In the present invention, the color information transfer unit is based on the color information of the partial region of the mono-image subjected to the pre-processing, based on the degree of difference for each partial region of the mono-image that has been pre-processed for the color image subjected to pre-processing A parallax compensation color information generation unit for generating parallax compensation color information for each subregion by inputting color information of a partial region of the denoised color image in consideration of the estimated parallax; Color hole filling that fills color information derived based on the disparity compensation color information of another partial area into which one or more color information is input, in a color hole in which the color information is not input among the disparity compensation color information for each partial area. part; And an image merger which merges the disparity compensation color information for each partial region filled with the color information received from the color hole filling unit into the mono image that has been preprocessed to generate an improved color image. It may include.

본 발명에서는, 상기 시차보상색상정보생성부는, 상기 디노이즈드칼라영상 및 상기 모노영상의 동일 좌표의 부분영역의 상이도가, 양안 영상의 차이 구별을 나타내는 BJND 모델의 BJND값 미만인 경우 상기 부분영역에 마스킹을 생성하는 마스킹생성부; 및 상기 마스킹이 생성된 영역에 대해 추정된 상기 시차를 고려하여 상기 디노이즈드칼라영상의 색상정보를 입력하여 시차보상색상정보를 생성하는 시차보상색상정보전달부; 를 포함할 수 있다.In the present invention, the disparity compensation color information generating unit is the partial region when the difference in the partial region of the same coordinates of the denoised color image and the mono image is less than the BJND value of the BJND model indicating the difference between the binocular image Masking generation unit for generating a masking on; And a parallax compensation color information transmitting unit configured to generate parallax compensation color information by inputting color information of the denoised color image in consideration of the parallax estimated for the masked area; It may include.

본 발명에서는, 상기 칼라홀필링부는, 인공 신경망 알고리즘에 기초하여 상기 칼라 홀에 채워 넣을 색상정보를 도출할 수 있다.In the present invention, the color hole filling unit may derive color information to be filled in the color hole based on an artificial neural network algorithm.

본 발명에서는, 상기 칼라홀필링부는, 컨볼루션 신경망에 기초하여 칼라 홀에 채워 넣을 색상정보를 도출할 수 있다.In the present invention, the color hole filling unit may derive color information to be filled in the color hole based on the convolutional neural network.

본 발명에서는, 상기 컨볼루션 신경망은, 상기 시차보상색상정보를 컬러 힌트로 하는 크로스채널 오토인코더로 구성될 수 있다.In the present invention, the convolutional neural network may be configured as a cross-channel auto encoder that uses the color difference information as the color difference.

본 발명에서는, 상기 전처리부는, 입력 받은 상기 모노영상 및 상기 칼라영상에 대한 선형변환을 통해 상기 모노영상 및 상기 칼라영상을 정렬하는 기하보정부; 상기 기하보정부로부터 수신한 상기 칼라영상의 밝기를 상기 모노영상의 밝기에 맞추어 조절하여 전처리칼라영상을 생성하는 정규화부; 및 상기 전처리칼라영상의 색상정보를 제거하여 그레이스케일영상을 생성하는 단색화부; 를 포함할 수 있다.In the present invention, the pre-processing unit, the geometric correction unit for aligning the mono image and the color image through a linear transformation of the input mono image and the color image; A normalizer for generating a pre-processed color image by adjusting the brightness of the color image received from the geometric correction unit according to the brightness of the mono image; And a monochrome unit which generates a grayscale image by removing color information of the preprocessed color image. It may include.

본 발명에서는, 상기 시차추정부는 상기 그레이스케일영상 및 상기 모노영상의 시차를 추정하고, 상기 조인트디노이징부는 전처리를 수행한 상기 모노영상에 기초하여 상기 전처리칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성할 수 있다.In the present invention, the parallax estimator estimates the parallax of the grayscale image and the mono image, and the joint denoising unit removes noise of the preprocessed color image based on the mono image which has been preprocessed to de-noise the color. An image can be generated.

본 발명에서는, 상기 조인트디노이징부는, 상기 시차추정부에서 추정된 시차가 기설정된 디노이즈기준값 미만인 경우 상기 모노영상 및 상기 전처리칼라영상에 기초하여 노이즈를 제거하고, 상기 시차추정부에서 추정된 시차가 기설정된 디노이즈기준값 이상인 경우 상기 전처리칼라영상에 기초하여 노이즈를 제거할 수 있다.In the present invention, the joint denoising unit removes noise based on the mono image and the pre-processed color image when the parallax estimated by the parallax estimating unit is less than a preset denoise reference value, and the parallax estimated by the parallax estimating unit. If is equal to or greater than a preset denoise reference value, the noise may be removed based on the preprocessed color image.

본 발명에서는, 상기 디노이즈기준값은, 양안 영상의 차이 구별을 나타내는 BJND 모델에 기반하여 결정될 수 있다.In the present invention, the denoise reference value may be determined based on a BJND model representing a difference discrimination between binocular images.

상기와 같은 과제를 해결하기 위하여 본 발명은, 칼라-모노 듀얼카메라 촬영 영상의 융합을 구현하기 위한, 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력단계; 입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리단계; 전처리를 수행한 상기 칼라영상 및 상기 모노영상으로부터 시차를 추정하는 시차추정단계; 전처리를 수행한 상기 칼라영상 및 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징단계; 및 상기 디노이즈드칼라영상으로부터 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달단계; 를 포함하는, 컴퓨터-판독가능 매체를 제공한다.In order to solve the above problems, the present invention is a computer-readable medium for realizing the fusion of color-mono dual camera photographed image, the computer-readable medium includes at least one processor and at least one memory Storing instructions for causing a computing device to perform the following steps, the steps comprising: an image input step of receiving a mono image and a color image captured by a color-mono dual camera; A preprocessing step of performing preprocessing on the input mono image and the color image; A parallax estimating step of estimating a parallax from the color image and the mono image subjected to preprocessing; A joint denizing step of generating a denoised color image by removing noise of the preprocessed color image based on the preprocessed color image and the mono image; And a color information transferring step of generating an improved color image having improved image quality by transferring color information from the de-noise color image to the mono image. It provides a computer-readable medium comprising a.

상기와 같은 과제를 해결하기 위하여 본 발명은, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법으로서, 칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력단계; 입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리단계; 전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정단계; 전처리를 수행한 상기 칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달단계; 를 포함하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법을 제공한다.In order to solve the above problems, the present invention provides a fusion method of a color-mono dual camera photographed image, comprising: an image input step of receiving a mono image and a color image photographed through a color-mono dual camera; A preprocessing step of performing preprocessing on the input mono image and the color image; A parallax estimating step of estimating a parallax from the pre-processed color image and the pre-processed mono image; A color information transferring step of transferring color information from the color image subjected to preprocessing to the mono image subjected to preprocessing to generate an improved color image with improved image quality; It provides a, fusion method of the color-mono dual camera photographing image.

본 발명에서는, 상기 색상정보전달단계는, 전처리를 수행한 상기 칼라영상에 대한 전처리를 수행한 상기 모노영상의 부분영역별 상이도에 기초하여, 전처리를 수행한 상기 모노영상의 부분영역의 색상정보에 추정된 상기 시차를 고려하여 대응되는 전처리를 수행한 상기 칼라영상의 부분영역의 색상정보를 입력하여 부분영역별 시차보상색상정보를 생성하는 시차보상색상정보생성단계; 상기 부분영역별 시차보상색상정보 중 색상정보가 입력되지 않은 부분영역인 칼라 홀에, 1 이상의 색상정보가 입력된 다른 부분영역의 시차보상색상정보에 기초하여 도출된 색상정보를 채워 넣는 칼라홀필링단계; 및 상기 칼라홀필링단계를 통해 색상정보가 채워진 부분영역별 시차보상색상정보를 전처리를 수행한 상기 모노영상에 병합하여 개선칼라영상을 생성하는 영상병합단계; 를 포함 할 수 있다.In the present invention, the color information transferring step, based on the degree of difference for each partial region of the mono image that has been pre-processed for the color image that has been pre-processed, the color information of the partial region of the mono image has been pre-processed Disparity compensation color information generation step of generating disparity compensation color information for each partial region by inputting color information of the partial region of the color image which has undergone a corresponding preprocessing in consideration of the estimated parallax; Color hole filling that fills color information derived based on the disparity compensation color information of another partial area into which one or more color information is input, in a color hole in which the color information is not input among the disparity compensation color information for each partial area. step; And an image merging step of generating an improved color image by merging the disparity compensation color information for each partial region filled with the color information through the color hole filling step into the mono image which has been preprocessed. It may include.

본 발명의 일 실시예에 따르면, 모노 센서를 통하여 획득한 모노영상과 칼라 센서를 통하여 획득한 칼라영상을 융합함으로써 우수한 화질의 영상을 획득하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to achieve an effect of obtaining an image having excellent image quality by fusing a mono image obtained through a mono sensor and a color image obtained through a color sensor.

본 발명의 일 실시예에 따르면 저조도 촬영 환경에서 더 높은 SNR(Signal-to-Noise Ratio)과 영상 디테일 정보를 갖는 모노영상에 칼라영상으로부터 색상정보를 전달함으로써, 우수한 화질의 영상을 획득하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the color information is transferred from a color image to a mono image having a higher signal-to-noise ratio (SNR) and image detail information in a low-light shooting environment, thereby obtaining an image having excellent image quality. Can be exercised.

본 발명의 일 실시예에 따르면 시차를 추정하고, 추정된 시차의 신뢰성에 기초하여 조인트디노이징을 함으로써, 우수한 디노이징의 효과를 발휘할 수 있다.According to an embodiment of the present invention, by estimating the parallax, and joint denoising based on the estimated reliability of the parallax, it is possible to exert an excellent denoising effect.

본 발명의 일 실시예에 따르면, 칼라영상과 모노영상의 상이도에 기초하여 마스킹을 생성하고, 상기 마스킹에 기초하여 색상정보를 전달함으로써, 색상정보 전달의 정확도를 높이는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the masking is generated based on the difference between the color image and the mono image, and the color information is transmitted based on the masking, thereby improving the accuracy of the color information transmission.

본 발명의 일 실시예에 따르면, 마스킹에 기초하여 색상정보를 전달받은 후, 딥 러닝을 통한 칼라 홀 채우기를 수행함으로써, 색 번짐을 최소화 하고, 색 재현율을 높이는 효과를 발휘할 수 있다.According to one embodiment of the present invention, after receiving color information based on masking, color hole filling through deep learning can be performed, thereby minimizing color bleeding and improving color reproducibility.

도 1은 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템을 개략적으로 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 방법의 단계를 개략적으로 도시하는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 전처리단계의 세부 단계를 개략적으로 도시하는 순서도이다.
도 4는 본 발명의 일 실시예에 따른 색상정보전달단계의 세부 단계를 개략적으로 도시하는 순서도이다.
도 5는 본 발명의 일 실시예에 따른 칼라홀필링단계에서 사용되는 컨볼루션 신경망의 구조를 개략적으로 도시하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 시차보상색상정보생성단계의 세부 단계를 개략적으로 도시하는 순서도이다.
도 7은 본 발명의 일 실시예에 따른 칼라영상 및 모노영상의 처리과정을 개략적으로 도시하는 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 장치의 내부 구성을 개략적으로 도시하는 블록도이다.
도 9는 본 발명의 일 실시예에 따른 전처리부의 내부 구성을 개략적으로 도시하는 블록도이다.
도 10은 본 발명의 일 실시예에 따른 색상정보전달부의 내부 구성을 개략적으로 도시하는 블록도이다.
도 11은 본 발명의 일 실시예에 있어서, 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 블록도이다.
1 is a diagram schematically illustrating a fusion system of color-mono dual camera captured images according to an embodiment of the present invention.
2 is a flowchart schematically illustrating steps of a fusion method of a color-mono dual camera captured image according to an exemplary embodiment of the present invention.
3 is a flowchart schematically showing the detailed steps of the preprocessing step according to an embodiment of the present invention.
4 is a flowchart schematically showing the detailed steps of the color information transfer step according to an embodiment of the present invention.
5 is a diagram schematically illustrating a structure of a convolutional neural network used in a color hole peeling step according to an embodiment of the present invention.
6 is a flowchart schematically showing the detailed steps of the parallax compensation color information generation step according to an embodiment of the present invention.
7 is a flowchart schematically illustrating a process of processing a color image and a mono image according to an embodiment of the present invention.
8 is a block diagram schematically illustrating an internal configuration of a fusion device of a color-mono dual camera captured image according to an embodiment of the present invention.
9 is a block diagram schematically illustrating an internal configuration of a preprocessor according to an embodiment of the present invention.
10 is a block diagram schematically showing an internal configuration of a color information transmitting unit according to an embodiment of the present invention.
11 is a block diagram illustrating an example of an internal configuration of a computing device according to an embodiment of the present disclosure.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and / or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. However, it will also be appreciated by one of ordinary skill in the art that this aspect (s) may be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of the one or more aspects. However, these aspects are exemplary and some of the various methods in the principles of the various aspects may be used and the descriptions described are intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Moreover, various aspects and features will be presented by a system that may include a number of devices, components, and / or modules, and the like. The various systems may include additional devices, components, and / or modules, etc., and / or may not include all of the devices, components, modules, etc. discussed in connection with the drawings. It must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “an embodiment”, “an example”, “aspect”, “an example”, etc., may not be construed as having any aspect or design described being better or advantageous than other aspects or designs. . The terms '~ part', 'component', 'module', 'system', 'interface', etc. used generally mean a computer-related entity, for example, hardware, hardware And a combination of software and software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.In addition, the terms "comprises" and / or "comprising" mean that such features and / or components are present, but exclude the presence or addition of one or more other features, components, and / or groups thereof. It should be understood that it does not.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein including technical or scientific terms are generally understood by those skilled in the art to which the present invention belongs. Has the same meaning as Terms such as those defined in the commonly used dictionaries should be interpreted as having meanings consistent with the meanings in the context of the related art, and ideally or excessively formal meanings, unless explicitly defined in the embodiments of the present invention. Not interpreted as

도 1은 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템을 개략적으로 도시하는 도면이다.1 is a diagram schematically illustrating a fusion system of color-mono dual camera captured images according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템은 두 개의 렌즈(110)(210)을 통해 촬영대상(300)을 각각 촬영하는 모노CIS(CMOS 이미지 센서, 100) 및 칼라CIS(CMOS 이미지 센서, 200)를 포함하고, 상기 모노CIS(100) 및 칼라CIS(200)가 촬영한 모노영상 및 칼라영상을 융합하여 화질을 향상시키는 영상융합장치(1000)로 구성될 수 있다.Referring to FIG. 1, a fusion system of a color-mono dual camera photographing image according to an exemplary embodiment of the present invention includes a mono-CIS (CMOS image sensor) photographing a photographing target 300 through two lenses 110 and 210, respectively. And a 100) and a color CIS (CMOS image sensor, 200), and the image fusion device 1000 to improve the image quality by fusing the mono image and the color image taken by the mono CIS 100 and the color CIS 200 It can be configured as.

칼라 필터 어레이가 없는 모노CIS(100)는 색상정보가 없는 모노영상을 획득하게 되지만, 일반적으로 칼라 필터 어레이를 통과하면서 광자가 소실되는 칼라CIS(200)보다 광효율이 뛰어나며, 이를 통해 저조도 촬영 환경에서 더 높은 선명도 및 SNR(Signal-to-Noise Ratio)과 많은 디테일 정보를 갖는 영상의 획득이 가능하다. 이와 같이 모노CIS(100) 및 칼라CIS(200)는 서로 상호보완적으로, 저조도 촬영 환경에서 우수한 화질을 나타내는 모노CIS(100)와 색상정보를 획득할 수 있는 칼라CIS(200)를 사용하여 촬영한 스테레오영상을 하나로 융합함으로써, 저조도 촬영 환경에서도 화질이 뛰어난 영상을 획득할 수 있게 된다.The mono CIS 100 without the color filter array acquires a mono image without color information, but generally has higher light efficiency than the color CIS 200 in which photons are lost while passing through the color filter array. It is possible to acquire images with higher sharpness and signal-to-noise ratio (SNR) and a lot of detail information. As described above, the mono CIS 100 and the color CIS 200 complement each other, and are photographed using the mono CIS 100 having excellent image quality in a low light shooting environment and the color CIS 200 capable of acquiring color information. By fusing a stereo image into one, it is possible to obtain an image having excellent image quality even in a low-light shooting environment.

본 발명에서는 촬영한 모노-칼라 영상들 간에 정보를 전달함으로써 하나의 결과영상으로 만드는 영상 융합 알고리즘을 도입함으로써 화질이 향상된 영상을 출력할 수 있다.In the present invention, the image quality is improved by introducing an image fusion algorithm that transfers information between the photographed mono-color images into one resultant image.

도 2는 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 방법의 단계를 개략적으로 도시하는 순서도이다.2 is a flowchart schematically illustrating steps of a fusion method of a color-mono dual camera captured image according to an exemplary embodiment of the present invention.

도 2를 참조하면 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 방법은 하기와 같은 단계를 거침으로써 수행된다.Referring to FIG. 2, the fusion method of the color-mono dual camera photographed image according to the exemplary embodiment of the present invention is performed by the following steps.

우선 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 방법은 칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력단계(S100)를 수행한다. 이와 같은 영상입력단계(S100)에서는 도 1에 도시된 것과 같은 모노CIS(100)가 촬영한 모노영상 및 칼라CIS(200)가 촬영한 칼라영상을 입력 받는다.First, the fusion method of the color-mono dual camera photographed image according to an embodiment of the present invention performs an image input step S100 of receiving a mono image and a color image photographed through the color-mono dual camera. In the image input step S100, the mono image captured by the mono CIS 100 as shown in FIG. 1 and the color image captured by the color CIS 200 are received.

이 후, 입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리단계(S200)를 수행한다. 상기 전처리단계(S200)에서는 상기 모노영상 및 상기 칼라영상에 대한 융합을 수행하기 위하여 필요한 전처리를 수행한다. 상기 전처리는 색공간 변환, 기하보정, 정규화, 단색화 등 차후의 처리 단계에 필요한 모든 전처리를 수행할 수 있다. 이와 같은 전처리를 통해 입력 받은 상기 모노영상 및 상기 칼라영상을 정규화 함으로써, 입력 받은 상기 모노영상 및 상기 칼라영상을 융합 처리하기 적합한 형태로 변환하게 된다.Thereafter, a preprocessing step (S200) of performing preprocessing on the input mono image and the color image is performed. In the preprocessing step (S200), preprocessing necessary to perform fusion on the mono image and the color image is performed. The preprocessing may perform all preprocessing necessary for subsequent processing steps such as color space conversion, geometric correction, normalization, and monochrome. By normalizing the mono image and the color image received through such a pre-processing, the mono image and the color image received are converted into a form suitable for fusion processing.

본 발명의 일 실시예에서는 상기 전처리단계(S200)에서 입력 받은 상기 모노영상 및 상기 칼라영상을 Lab 색공간으로 변환할 수 있다. 상기 Lab 색공간은 영상의 정보를 휘도(L)정보 및 색상(ab)정보로 분리하여 저장함으로써, 상기 모노영상 및 상기 칼라영상의 매칭 및 색상정보 전달에 있어서 용이하게 된다.In an embodiment of the present invention, the mono image and the color image received in the preprocessing step S200 may be converted into a lab color space. The Lab color space is divided into luminance (L) information and color (ab) information and stored, thereby facilitating matching and color information transfer of the mono image and the color image.

이 후, 전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정단계(S300)를 수행한다. 상기 시차추정단계(S300)는 상기 칼라영상 및 상기 모노영상을 비교함으로써 시차를 추정한다. 이와 같은 스테레오 영상으로부터 시차를 도출하는 과정에서는 오류가 생길 가능성이 높고, 이러한 오류가 영상 객체 경계 주변 픽셀에서 나타나는 경우 영상에 심각한 구조적 왜곡이 나타날 수 있고 영상의 전체적인 인지적 품질을 떨어뜨릴 수 있으므로, 도출된 시차는 단지 추정치로서의 역할만을 수행하게 된다.Thereafter, a parallax estimating step (S300) of estimating parallaxes from the pre-processed color image and the pre-processed mono image is performed. The parallax estimating step (S300) estimates parallax by comparing the color image and the mono image. In the process of deriving parallax from such stereoscopic images, there is a high possibility of error, and if such errors occur at pixels near the boundary of the image object, serious structural distortion may occur in the image and the overall cognitive quality of the image may be degraded. The derived parallax only serves as an estimate.

본 발명의 일 실시예에서는 상기 모노영상 및 상기 칼라영상을 부분영역으로 분할한 뒤, 상기 부분영역의 각 좌표에 대해 대응하는 부분영역의 시차를 추정하여 저장하는 방식으로 시차맵을 작성함으로써 시차를 추정할 수 있다. 바람직하게는 상기 부분영역은 하나의 픽셀로 구성될 수 있다.In an embodiment of the present invention, the disparity is obtained by dividing the mono image and the color image into partial regions and creating a disparity map by estimating and storing the disparity of the corresponding partial region for each coordinate of the partial region. It can be estimated. Preferably, the partial region may consist of one pixel.

이 때 상기 모노영상 및 상기 칼라영상의 시차를 추정하는 방법으로는 이미 알려진 여러 알고리즘 들이 사용될 수 있다.At this time, as a method for estimating the parallax between the mono image and the color image, various known algorithms may be used.

이 후, 전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징단계(S400)를 수행한다. 다만 본 발명의 다른 실시예에서는 이와 같은 조인트디노이징단계(S400)는 생략될 수 있다.Thereafter, a joint denoising step (S400) of generating a denoised color image by removing noise of the pre-processed color image based on the pre-processed mono image is performed. However, in another embodiment of the present invention, such a joint denizing step (S400) may be omitted.

본 발명의 일 실시예에서 상기 조인트디노이징단계(S400)는 전처리를 수행한 상기 칼라영상의 노이즈를 제거하기 위하여 상기 모노영상을 참조정보로 하여 디노이징을 수행하게 된다. 상기 모노영상은 상기 모노CIS(100)을 통해 획득된 영상으로서 더 높은 SNR과 많은 디테일 정보를 갖기 때문에, 상기 모노영상을 참조정보로 하여 디노이징을 수행함으로써 전처리를 수행한 상기 칼라영상의 노이즈를 효과적으로 제거할 수 있다.In an embodiment of the present invention, the joint denizing step (S400) performs denoising with reference to the mono image as reference information to remove noise of the pre-processed color image. Since the mono image is an image obtained through the mono CIS 100 and has a higher SNR and a lot of detail information, noise of the color image that has been preprocessed by performing denoising using the mono image as reference information is obtained. Can be removed effectively.

하지만 상기 모노영상의 경우 더 높은 SNR과 많은 디테일 정보를 갖지만, 상기 칼라영상과는 다른 위치에서 촬영된 영상이기 때문에 시차가 존재한다. 따라서 상기 시차를 고려하여 노이즈를 제거할 필요가 있다. However, although the mono image has a higher SNR and a lot of detail information, parallax exists because the image is photographed at a position different from that of the color image. Therefore, it is necessary to remove the noise in consideration of the parallax.

이 때, 상기 조인트디노이징단계(S400)는, 상기 시차추정단계(S300)에서 추정된 시차가 기설정된 디노이즈기준값 미만인 경우 상기 모노영상 및 상기 전처리칼라영상에 기초하여 노이즈를 제거하고, 상기 시차추정단계에서 추정된 시차가 기설정된 디노이즈기준값 이상인 경우 상기 전처리칼라영상에 기초하여 노이즈를 제거할 수 있다.In this case, in the joint denoising step S400, when the parallax estimated in the parallax estimating step S300 is less than a preset denoise reference value, noise is removed based on the mono image and the pre-processed color image. When the parallax estimated in the estimating step is equal to or greater than a preset denoise reference value, noise may be removed based on the preprocessed color image.

이와 같이 상기 전처리칼라영상과 상기 모노영상의 추정된 상기 시차가 기설정된 값 이상인 경우, 상기 모노영상의 정보가 상기 전처리칼라영상의 노이즈를 제거하기에 적합하지 않다고 판단하여 상기 전처리칼라영상 자체의 정보만으로 노이즈를 제거하고, 추정된 상기 시차가 기설정된 값 미만인 경우, 상기 모노영상의 정보를 참조하여 상기 전처리칼라영상의 노이즈를 제거하기에 적합하다고 판단하여 상기 모노영상을 참조정보로 하여 상기 전처리칼라영상의 노이즈를 제거함으로써, 추정된 시차를 고려한 디노이징을 수행하면서도, 시차추정에서의 오류 발생의 영향을 최소로 할 수 있다.As such, when the estimated disparity between the preprocessed color image and the mono image is equal to or greater than a predetermined value, it is determined that the information of the mono image is not suitable for removing noise of the preprocessed color image, and thus the information of the preprocessed color image itself. If only the noise is removed and the estimated parallax is less than a predetermined value, it is determined that the noise is suitable to remove the noise of the pre-processed color image by referring to the information of the mono-image. By removing the noise of the image, it is possible to minimize the influence of the occurrence of error in the parallax estimation while performing denoising considering the estimated parallax.

이 때, 상기 디노이즈기준값은, 양안 영상의 차이 구별을 나타내는 BJND 모델에 기반하여 결정될 수 있다. 상기 BJND(Binocular Just Noticeable Difference) 모델은 사람의 양 눈으로 인지할 수 있는 최소 식별 차이를 휘도에 따라 나타낸 것으로, 상기 BJND 모델에서 사람이 인지할 수 있는 식별 차이를 디노이즈기준값으로 삼을 수 있다. 이와 같이 사람이 인지할 수 있는 식별 차이를 디노이즈기준값으로 하여, 추정된 상기 시차가 사람이 인지할 수 있는 식별 차이 미만인 경우 모노영상을 참조정보로 하여 디노이징을 수행하고, 추정된 상기 시차가 사람이 인지할 수 있는 식별 차이 이상인 경우 상기 전처리칼라영상 자체의 정보만으로 노이즈를 제거하게 된다.In this case, the denoise reference value may be determined based on a BJND model representing the difference between the binocular images. The BJND (Binocular Just Noticeable Difference) model represents the minimum discrepancy that can be recognized by both eyes of the human being according to luminance, and the discrepancy discrepancy that can be recognized by a person in the BJND model may be used as a denoise reference value. . As described above, when the estimated difference is less than the discernible difference, it is possible to perform the denoising using the mono image as reference information. If the difference is more than a human perceptible identification, the noise is removed only by the information of the preprocessed color image itself.

이 후, 상기 디노이즈드칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달단계(S500)를 수행한다.Thereafter, the color information transfer step (S500) is performed to transfer the color information from the de-noise color image to the mono image which has been preprocessed to generate an improved color image with improved image quality.

상기 색상정보전달단계(S500)에서는 상기 모노영상의 색상정보에 상기 디노이즈드칼라영상의 색상정보를 전달함으로써 화질이 개선된 개선칼라영상을 생성하게 된다. 이 때, 상기 모노영상 및 상기 디노이즈드칼라영상은 시차를 갖고 있으므로, 상기 시차를 보상하여 색상정보를 전달할 필요가 있다.In the color information transferring step (S500), the color information of the denoised color image is transferred to the color information of the mono image to generate an improved color image with improved image quality. In this case, since the mono image and the denoised color image have parallaxes, it is necessary to compensate the parallax to transmit color information.

이 때, 추정된 상기 시차는 많은 오류를 가질 수 있고, 상기 오류에 의해 영상의 왜곡이 발생할 수 있다. 따라서 본 발명의 일 실시예에서는 상기 시차를 직접 반영하여 색상정보를 전달하지 않고, 시차의 오류의 가능성이 낮은 영역에 대해서만 색상정보를 전달하고, 오류의 가능성이 높은 영역에 대해서는 기 전달된 상기 색상정보에 기초하여 색상정보를 도출하는 방법으로 상기 색상정보전달단계(S500)을 수행할 수 있다.In this case, the estimated parallax may have a large number of errors, and distortion of an image may occur due to the errors. Therefore, in an embodiment of the present invention, the color information is not transmitted directly to reflect the parallax, the color information is transmitted only in an area of low probability of parallax, and the previously transmitted color of an area of high probability of error. The color information transmitting step S500 may be performed by deriving color information based on the information.

더욱 상세하게는 본 발명의 일 실시예에서는 상기 모노영상 및 상기 칼라영상의 대응되는 부분영역의 상이도를 도출하고, 상기 상이도가 기설정된 기준 미만인 영역에 대해 마스킹을 생성하고, 생성된 상기 마스킹 영역에 대해 추정된 상기 시차에 기초하여 상기 디노이즈드칼라영상의 색상정보를 전달하고, 상기 색상정보가 전달되지 않은 칼라 홀에 대해 전달된 상기 색상정보에 기초하여 색상정보를 도출하는 색상 채우기를 수행하여 생성된 색상정보를 상기 모노영상으로 전달할 수 있다.More specifically, in an embodiment of the present invention, the degree of difference between the corresponding partial region of the mono image and the color image is derived, the masking is generated for an area whose difference is less than a predetermined reference, and the generated masking A color fill for transmitting color information of the denoised color image based on the estimated parallax for an area, and deriving color information based on the color information transmitted for the color hole in which the color information is not transmitted; Color information generated by performing may be transferred to the mono image.

도 3은 본 발명의 일 실시예에 따른 전처리단계(S200)의 세부 단계를 개략적으로 도시하는 순서도이다.3 is a flowchart schematically showing the detailed steps of the preprocessing step (S200) according to an embodiment of the present invention.

도 3을 참조하면 본 발명의 일 실시예에 따른 전처리단계(S200)는 기하보정단계(S210), 정규화단계(S220) 및 단색화단계(S230)를 포함한다.Referring to FIG. 3, the preprocessing step (S200) according to an embodiment of the present invention includes a geometric correction step (S210), a normalization step (S220), and a monochrome step (S230).

상기 기하보정단계(S210)는 입력 받은 상기 모노영상 및 상기 칼라영상에 대한 선형변환을 통해 상기 모노영상 및 상기 칼라영상을 정렬한다. 상기 모노영상 및 상기 칼라영상은 별개의 렌즈 및 CIS를 통해 획득한 영상이기 때문에 촬영된 영상의 각도 및 배율 등이 정확히 일치하지 않을 수 있다. 상기 기하보정단계(S210)는 상기 모노영상 부분영역과 대응되는 상기 칼라영상의 부분영역을 매칭하여 매칭된 상기 부분영역들이 각 영상의 동일 좌표에 위치할 수 있도록 영상의 배향, 크기, 위치 중 1 이상을 변환함으로써 수행된다. 더욱 상세하게는 상기 모노영상 및 상기 칼라영상으로부터 에피폴라 라인을 도출하여 상기 에피폴라 라인을 일치시키는 방법으로 상기 기하보정단계(S210)를 수행할 수 있다.The geometric correction step (S210) aligns the mono image and the color image through a linear transformation of the input mono image and the color image. Since the mono image and the color image are images obtained through separate lenses and CIS, angles and magnifications of the captured images may not exactly match. The geometric correction step (S210) is performed by matching a partial region of the color image corresponding to the mono image partial region so that the matched partial regions may be located at the same coordinate of each image. This is done by converting the above. In more detail, the geometric correction step S210 may be performed by deriving an epipolar line from the mono image and the color image to match the epipolar line.

상기 기하보정단계(S210)에서는 상기 모노영상 및 상기 칼라영상을 모두 변환하여 정렬을 수행할 수도 있고, 혹은 상기 모노영상에 맞추어 상기 칼라영상을 변환하여 정렬을 수행할 수도 있다.In the geometric correction step (S210), both the mono image and the color image may be converted to be aligned, or the color image may be converted to be aligned with the mono image to perform alignment.

상기 정규화단계(S220)는 상기 기하보정단계(S210)를 수행한 상기 칼라영상의 밝기를 상기 모노영상의 밝기에 맞추어 조절하여 전처리칼라영상을 생성한다. 상기 정규화단계(S220)에서는 두 영상간의 밝기차이를 조정하여 두 영상의 매칭된 상기 부분영역에 대한 시차 추정 시 정확도를 높일 수 있도록 한다. 상기 정규화단계(S220)는 영상 히스토그램 매칭 또는 최소자승법 등에 의해 수행될 수 있다.The normalization step (S220) generates a pre-processed color image by adjusting the brightness of the color image in which the geometric correction step (S210) is performed according to the brightness of the mono image. In the normalization step (S220), the brightness difference between the two images is adjusted to increase the accuracy in estimating the parallax for the matched partial region of the two images. The normalization step S220 may be performed by image histogram matching or least squares method.

상기 단색화단계(S230)는 상기 전처리칼라영상의 색상정보를 제거하여 그레이스케일영상을 생성한다. 이와 같이 칼라영상의 색상정보를 제거한 그레이스케일영상을 생성함으로써 상기 모노영상과의 매칭을 통해 시차를 더욱 정확하게 추정할 수 있도록 한다.The monochrome step (S230) generates a grayscale image by removing color information of the preprocessed color image. As such, by generating a grayscale image from which color information of a color image is removed, parallax may be more accurately estimated through matching with the mono image.

이와 같은 전처리단계(S200)를 수행함에 있어서 상기 모노영상 및 상기 칼라영상은 Lab색공간으로 변환되어 수행됨으로써 상기 정규화단계(S220) 및 상기 단색화단계(S230)의 수행을 간소화할 수 있다.In performing the preprocessing step (S200), the mono image and the color image are converted into a lab color space and performed to simplify the normalization step (S220) and the monochrome step (S230).

이와 같은 전처리단계(S200)를 수행하는 실시예의 경우, 상기 시차추정단계(S300)에서는 상기 그레이스케일영상 및 상기 모노영상의 시차를 추정하고, 상기 조인트디노이징단계(S400)는 상기 전처리칼라영상 및 상기 모노영상에 기초하여 상기 전처리칼라영상의 노이즈를 제거할 수 있다.In the exemplary embodiment of performing the preprocessing step (S200), the parallax estimating step (S300) estimates the parallax of the grayscale image and the mono image, and the joint denoising step (S400) includes the preprocessing color image and The noise of the preprocessed color image may be removed based on the mono image.

상기 시차추정단계(S300)에서는 상기 그레이스케일영상 및 상기 모노영상의 시차를 추정할 수 있다. 이와 같이 상기 칼라영상을 전처리 하여 색상정보가 제거 된 그레이스케일영상을 상기 모노영상과 비교하여 시차를 추정함으로써, 더욱 정확한 시차의 추정이 가능하게 된다,In the parallax estimating step (S300), the parallaxes of the grayscale image and the mono image may be estimated. Thus, by comparing the grayscale image from which the color information has been removed by preprocessing the color image with the mono image, the parallax is estimated, thereby making it possible to estimate the parallax more accurately.

또한, 상기 조인트디노이징단계(S400)에서는 상기 전처리칼라영상의 노이즈를 상기 모노영상 및 상기 시차추정단계(S300)에서 추정 된 시차에 기초하여 제거함으로써 색상정보를 포함하는 디노이즈드칼라영상을 생성할 수 있다.In addition, in the joint denizing step (S400), a noise of the preprocessed color image is removed based on the disparity estimated in the mono image and the parallax estimating step (S300) to generate a denoised color image including color information. can do.

도 4는 본 발명의 일 실시예에 따른 색상정보전달단계(S500)의 세부 단계를 개략적으로 도시하는 순서도이다.4 is a flowchart schematically showing the detailed steps of the color information transfer step (S500) according to an embodiment of the present invention.

도 4를 참조하면 본 발명의 일 실시예에 따른 색상정보전달단계(S500)는 시차보상색상정보생성단계(S510), 칼라홀필링단계(S520) 및 영상병합단계(S530)를 포함할 수 있다.Referring to FIG. 4, the color information transfer step S500 may include a parallax compensation color information generation step S510, a color hole peeling step S520, and an image merge step S530. .

상기 시차보상색상정보생성단계(S510)는 전처리를 수행한 상기 칼라영상에 대한 전처리를 수행한 상기 모노영상의 부분영역별 상이도에 기초하여, 전처리를 수행한 상기 모노영상의 부분영역의 색상정보에 추정된 상기 시차를 고려하여 대응되는 상기 디노이즈드칼라영상의 부분영역의 색상정보를 입력하여 부분영역별 시차보상색상정보를 생성한다.The disparity compensation color information generation step (S510) is based on the degree of difference for each partial region of the mono image which has been preprocessed for the color image which has been preprocessed, and the color information of the partial region of the mono image which has been preprocessed. Disparity compensation color information for each subregion is generated by inputting color information of a partial region of the denoised color image corresponding to the estimated parallax.

더욱 상세하게는 본 발명의 일 실시예에서는 상기 디노이즈드칼라영상 및 상기 모노영상의 대응되는 부분영역의 상이도를 도출하고, 상기 상이도가 기설정된 기준 미만인 영역에 대해 마스킹을 생성하고, 생성된 상기 마스킹 영역에 대해 추정된 상기 시차에 기초하여 상기 디노이즈드칼라영상의 색상정보를 전달할 수 있다.More specifically, in an embodiment of the present invention, the degree of difference between the corresponding partial region of the denoised color image and the mono image is derived, and the masking is generated and generated for an area whose difference is less than a predetermined criterion. Color information of the denoised color image may be transmitted based on the disparity estimated for the masked area.

상기 칼라홀필링단계(S520)는 상기 부분영역별 시차보상색상정보 중 색상정보가 입력되지 않은 부분영역인 칼라 홀에, 1 이상의 색상정보가 입력된 다른 부분영역의 시차보상색상정보에 기초하여 도출된 색상정보를 채워 넣는다. 상기 시차보상색상정보생성단계(S510)에서 생성된 상기 시차보상색상정보는 시차를 고려한 상기 디노이즈드칼라영상의 색상정보가 입력되지만, 모든 영역에 대하여 색상정보가 입력되지는 않고, 색상정보가 입력되지 않은 칼라 홀이 존재하게 된다. 이와 같은 칼라 홀에 대해 색상정보를 채워 넣기 위한 방법은 많이 알려져 있다. 예를 들어 최소자승법에 의한 최적화에 기반한 색채화 기법 등이 있으나 이와 같은 방법에서는 객체의 경계 주위로 색번짐(Color Bleeding)왜곡이 심하게 나타나는 경우가 발생할 수 있다.The color hole peeling step (S520) is derived based on the disparity compensation color information of another partial region in which one or more color information is input to a color hole in which color information is not input among the disparity compensation color information of each partial region. Fill in the color information. The disparity compensation color information generated in the disparity compensation color information generation step (S510) is input color information of the denoised color image considering the parallax, but color information is not input to all areas, There is a color hole that is not input. There are many known methods for filling color information for such color holes. For example, there are colorization techniques based on the optimization by the least-squares method. However, in this method, color bleeding distortion may occur around the boundary of an object.

이와 같은 문제를 해결하기 위하여 본 발명의 일 실시예에서는 상기 칼라홀필링단계(S520)는 인공 신경망 알고리즘에 기초하여 칼라 홀에 채워 넣을 색상정보를 도출할 수 있다. 이 때, 상기 인공 신경망은 컨볼루션 신경망일 수 있다. 이와 같이 컨볼루션 신경망에 기초한 딥 러닝 방식을 통해, 상기 칼라 홀에 색상정보를 도출하여 채워 넣음으로써 발생할 수 있는 색번짐 현상을 억제하고, 정확한 색상정보를 채워 넣어 색 재현율을 높이는 효과를 발휘할 수 있다. 상기 컨볼루션 신경망에 대해서는 도 5에서 후술하도록 한다.In order to solve this problem, in the embodiment of the present invention, the color hole filling step S520 may derive color information to be filled in the color hole based on an artificial neural network algorithm. In this case, the artificial neural network may be a convolutional neural network. As described above, the deep learning method based on the convolutional neural network can suppress the color bleeding caused by deriving and filling the color information into the color hole, and enhance the color reproducibility by filling the accurate color information. The convolutional neural network will be described later with reference to FIG. 5.

상기 영상병합단계(S530)는 상기 칼라홀필링단계(S520)를 통해 색상정보가 채워진 부분영역별 시차보상색상정보를 전처리를 수행한 상기 모노영상에 병합하여 개선칼라영상을 생성한다.The image merging step S530 merges the disparity compensation color information for each partial region filled with the color information through the color hole filling step S520 into the mono image which has undergone preprocessing to generate an improved color image.

상기 영상병합단계(S530)에서는 상기 칼라홀필링단계(S520)을 통해 생성된 시차보상색상정보를 상기 모노영상의 색상정보에 병합함으로써, 상기 모노영상이 갖고 있는 밝기 정보에 색상정보가 더해져 개선칼라영상을 생성할 수 있다. 본 발명의 일 실시예에서는 상기 색상정보는 Lab 색공간에서의 ab 색상값이고, 상기 모노영상에 저장된 L 휘도값에 상기 ab 색상값이 병합됨으로써 Lab 색상정보를 갖는 개선칼라영상을 생성할 수 있다.In the image merging step (S530), color information is added to brightness information of the mono image by adding the disparity compensation color information generated through the color hole peeling step (S520) to the color information of the mono image. An image can be generated. In an embodiment of the present invention, the color information is an ab color value in a Lab color space, and the ab color value is merged with an L luminance value stored in the mono image to generate an improved color image having Lab color information. .

도 5는 본 발명의 일 실시예에 따른 칼라홀필링단계에서 사용되는 컨볼루션 신경망의 구조를 개략적으로 도시하는 도면이다.5 is a diagram schematically illustrating a structure of a convolutional neural network used in a color hole peeling step according to an embodiment of the present invention.

도 5를 참조하면 모노영상은 밝기정보만을 포함하는 1 채널 데이터이고, 시차보상색상정보는 색상정보만을 포함하는 2채널 데이터이다. 상기 모노영상 및 상기 시차보상색상정보가 각각 컨볼루션 신경망에 입력될 수 있다.Referring to FIG. 5, the mono image is one channel data including only brightness information, and the parallax compensation color information is two channel data including only color information. The mono image and the parallax compensation color information may be input to a convolutional neural network, respectively.

본 발명의 일 실시예에서 상기 컨볼루션 신경망은 상기 시차보상색상정보를 컬러 힌트로 하는 크로스채널 오토인코더로 구성될 수 있다.In one embodiment of the present invention, the convolutional neural network may be configured as a cross-channel auto encoder that uses the color difference information as the color difference.

더욱 상세하게는 도 5를 참조하면 상기 컨볼루션 신경망은, 제1컨볼루션블록 내지 제10컨볼루션블록까지 10개의 컨볼루션블록을 포함한다. 상기 컨볼루션블록 각각은 2 내지 3개의 컨볼루션 및 활성함수 쌍을 포함하고, 제1컨볼루션블록 및 제10컨볼루션블록은 높이 H, 폭 W에 64 채널의 크기를 갖고, 제2컨볼루션블록 및 제9컨볼루션블록은 높이 H/2, 폭 W/2에 128 채널의 크기를 갖고, 제3컨볼루션블록 및 제8컨볼루션블록은 높이 H/4, 폭 W/4에 256 채널의 크기를 갖고, 제4컨볼루션블록 내지 제7컨볼루션블록은 높이 H/8, 폭 W/8에 512 채널의 크기를 갖는다. 바람직하게는 상기 활성함수는 ReLU(Rectified Linear Unit)이다.More specifically, referring to FIG. 5, the convolutional neural network includes ten convolution blocks ranging from the first convolutional block to the tenth convolutional block. Each of the convolution blocks includes two to three convolution and active function pairs, wherein the first convolution block and the tenth convolution block have a size of 64 channels in height H and width W, and a second convolution block. And the 9th convolution block has a size of 128 channels in height H / 2 and a width W / 2, and the 3rd and 8th convolution blocks have a size of 256 channels in height H / 4 and a width W / 4. The fourth to seventh convolution blocks have a size of 512 channels at height H / 8 and width W / 8. Preferably, the activity function is ReLU (Rectified Linear Unit).

제1컨볼루션블록에서 제2컨볼루션블록으로, 제2컨볼루션블록에서 제3컨볼루션블록으로, 제3컨볼루션블록에서 제4컨볼루션블록으로에서와 같이 공간해상도가 줄어드는 경우 다운샘플링에 의해 공간해상도를 줄이고, 제7컨볼루션블록에서 제8컨볼루션블록으로, 제8컨볼루션블록에서 제9컨볼루션블록으로, 제9컨볼루션블록에서 제10컨볼루션블록으로에서와 같이 공간해상도가 증가하는 경우 업샘플링에 의해 공간해상도를 증가시킨다.When the spatial resolution decreases, such as from the first convolution block to the second convolution block, from the second convolution block to the third convolution block, and from the third convolution block to the fourth convolution block, by downsampling Reduce the spatial resolution, and increase the spatial resolution as in the seventh convolution block to the eighth convolution block, the eighth convolution block to the ninth convolution block, and the ninth convolution block to the tenth convolution block. In this case, the spatial resolution is increased by upsampling.

각각의 상기 컨볼루션블록 후 배치정규화가 수행된다.Batch normalization is performed after each of the convolution blocks.

시차보상색상정보의 제1컨볼루션블록의 출력은 모노영상의 제1컨볼루션블록으로 연결된다.The output of the first convolution block of the parallax compensation color information is connected to the first convolution block of the mono image.

또한, 상기 제1컨볼루션블록의 출력은 제10컨볼루션블록으로, 제2컨볼루션블록의 출력은 제9컨볼루션블록으로, 제3컨볼루션블록의 출력은 제8컨볼루션블록으로 연결된다.The output of the first convolution block is connected to the tenth convolution block, the output of the second convolution block to the ninth convolution block, and the output of the third convolution block to the eighth convolution block.

제10컨볼루션블록의 마지막 레이어는 1 x 1 커널로서 2 채널의 출력 색상을 생성한다. 본 발명의 일 실시예에서 상기 2채널의 출력 색상은 Lab 색공간의 ab 색상값일 수 있다.The last layer of the tenth convolution block is a 1 x 1 kernel to generate two channels of output colors. In one embodiment of the present invention, the output colors of the two channels may be ab color values of a Lab color space.

이와 같은 컨볼루션 신경망은 아래와 같은 방식을 통해 학습된다.This convolutional neural network is learned in the following way.

상기 컨볼루션 신경망의 매핑 함수는 아래와 같이 표현될 수 있다.The mapping function of the convolutional neural network may be expressed as follows.

Figure 112018024667097-pat00001
Figure 112018024667097-pat00001

이 때, X는 모노영상, H는 시차보상색상정보, θ는 상기 컨볼루션 신경망의 파라미터이다. X is a mono image, H is parallax compensation color information, and θ is a parameter of the convolutional neural network.

이 때, 출력값과 실제 데이터의 일치도를 나타내는 로스함수는 아래와 같이 표현될 수 있다.At this time, the loss function indicating the degree of agreement between the output value and the actual data can be expressed as follows.

Figure 112018024667097-pat00002
Figure 112018024667097-pat00002

이 때, 상기 컨볼루션 신경망은 다음 식을 만족시키는 상기 파라미터 θ를 도출함으로써 상기 컨볼루션 신경망의 학습을 수행한다.At this time, the convolutional neural network performs the learning of the convolutional neural network by deriving the parameter θ satisfying the following equation.

Figure 112018024667097-pat00003
Figure 112018024667097-pat00003

도 6은 본 발명의 일 실시예에 따른 시차보상색상정보생성단계(S510)의 세부 단계를 개략적으로 도시하는 순서도이다.6 is a flowchart schematically showing the detailed steps of the parallax compensation color information generation step (S510) according to an embodiment of the present invention.

도 6을 참조하면 본 발명의 일 실시예에 따른 시차보상색상정보생성단계(S510)는 마스킹생성단계(S511) 및 시차보상색상정보전달단계(S512)를 포함할 수 있다.Referring to FIG. 6, the disparity compensation color information generation step S510 according to an embodiment of the present invention may include a masking generation step S511 and a disparity compensation color information delivery step S512.

상기 마스킹생성단계(S511)는 상기 디노이즈드칼라영상 및 상기 모노영상의 동일 좌표의 부분영역의 상이도가, 양안 영상의 차이 구별을 나타내는 BJND 모델의 BJND값 미만인 경우 상기 부분영역에 마스킹을 생성한다.In the masking generation step S511, when the difference between the partial regions of the same coordinates of the denoised color image and the mono image is less than the BJND value of the BJND model representing the difference between the binocular images, the masking is generated in the partial region. do.

상기 BJND 모델은 앞서 설명한 바와 같이 사람의 양안으로 인지할 수 있는 최소 식별 차이를 휘도에 따라 나타낸 것으로, 상기 디노이즈드칼라영상 및 상기 모노영상의 상이도가 상기 BJND모델에서의 BJND값 미만인 경우, 사람의 눈으로는 상기 디노이즈드칼라영상 및 상기 모노영상의 차이를 인지할 수 없는 정도이다. 이와 같이 동일 좌표의 부분영역의 상이도가 사람이 인지할 수 없을 정도로 낮은 경우 해당 영역에 마스킹을 생성함으로써, 상이도가 낮은 영역과 상이도가 높은 영역을 구별하게 된다.As described above, the BJND model represents a minimum discrimination difference that can be recognized by both eyes according to luminance. When the difference between the denoised color image and the mono image is less than the BJND value of the BJND model, The human eye cannot recognize the difference between the denoised color image and the mono image. As such, when the degree of difference of the partial region of the same coordinate is too low to be perceived by a human, masking is generated in the corresponding region, thereby distinguishing the region of low difference from the region of high difference.

상기 마스킹생성단계(S511)의 수행 과정을 수식으로 나타내면 다음과 같다.The process of performing the masking generation step (S511) is expressed as a formula.

Figure 112018024667097-pat00004
Figure 112018024667097-pat00004

상기 H( x,y )는 (x,y) 좌표의 부분영역에서의 마스킹이고, S( x,y )는 (x,y) 좌표의 부분영역에서의 상이도이다. 상기 BJND(x,y)는 (x,y) 좌표의 부분영역에서의 BJND값이다. H ( x, y ) is masking in the subregion of (x, y) coordinates, and S ( x, y ) is the degree of difference in the subregion of (x, y) coordinates. The BJND (x, y) is a BJND value in the partial region of the (x, y) coordinate.

이와 같이 특정 좌표에서의 BJND값이 상이도 미만인 경우 마스킹을 생성하고, BJND값이 상이도 이상인 경우 마스킹을 생성하지 않게 된다.As such, masking is generated when the BJND value at a specific coordinate is less than the degree of difference, and masking is not generated when the BJND value is more than the degree of difference.

상기 시차보상색상정보전달단계(S512)는 상기 마스킹이 생성된 영역에 대해 추정된 상기 시차를 고려하여 상기 디노이즈드칼라영상의 색상정보를 입력하여 시차보상색상정보를 생성한다. 상기 마스킹이 생성된 영역은 상기 디노이즈드칼라영상 및 상기 모노영상의 상이도가 낮은 영역이기 때문에, 상기 마스킹이 생성된 영역에 상기 디노이즈드칼라영상의 색상정보를 추정된 상기 시차를 고려하여 입력하게 된다.The disparity compensation color information transferring step (S512) generates disparity compensation color information by inputting color information of the denoised color image in consideration of the disparity estimated for the masked area. Since the masked region is a region having a low difference between the denoised color image and the mono image, the masking is generated in consideration of the parallax in which color information of the denoised color image is estimated. Will be entered.

상기 시차보상색상정보전달단계(S510)의 수행 과정을 수식으로 나타내면 다음과 같다.The process of performing the parallax compensation color information transferring step (S510) is represented by the following equation.

Figure 112018024667097-pat00005
Figure 112018024667097-pat00005

상기

Figure 112018024667097-pat00006
( x,y )는 (x,y) 좌표의 부분영역에서의 시차보상색상정보 이고, a( x,y )는 (x,y) 좌표의 부분영역에서의 디노이즈드칼라영상의 색상정보이다. 상기 αβ는 상기 (x,y) 좌표의 부분영역에서의 시차이다.remind
Figure 112018024667097-pat00006
( x, y ) is the parallax compensation color information in the subregion of (x, y) coordinates, and a ( x, y ) is the color information of the denoised color image in the subregion of (x, y) coordinates. . Α and β are parallaxes in the partial region of the (x, y) coordinates.

이와 같이 마스킹이 생성된 영역(H( x,y )=1)의 경우 시차보상색상정보에 시차를 보상한 상기 디노이즈드칼라영상의 색상정보를 입력하고, 마스킹이 생성되지 않은 영역(H( x,y )=0)의 경우 색상정보를 0으로 지정하여 칼라 홀을 생성하게 된다. 이와 같이 생성된 칼라 홀은 칼라홀필링단계(S520)을 통해 색상정보를 입력 받게 된다.In the case where the masking is generated ( H ( x, y ) = 1), the color information of the denoised color image that compensates for the parallax is input to the parallax compensation color information, and an area ( H ( x, y ) = 0) creates color holes by specifying color information as 0. The color hole generated as described above receives color information through the color hole filling step (S520).

도 7은 본 발명의 일 실시예에 따른 칼라영상 및 모노영상의 처리과정을 개략적으로 도시하는 흐름도이다.7 is a flowchart schematically illustrating a process of processing a color image and a mono image according to an embodiment of the present invention.

도 7을 참조하면 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 방법은 모노영상(10) 및 칼라영상(20)을 입력 받는다.Referring to FIG. 7, a fusion method of a color-mono dual camera photographed image according to an embodiment of the present invention receives a mono image 10 and a color image 20.

이 후, 기하보정단계(S210)에서 입력 받은 상기 칼라영상(20)에 기초하여 상기 모노영상(10)과 정렬된 기하보정칼라영상(21)을 생성한다.Thereafter, the geometrically corrected color image 21 aligned with the mono image 10 is generated based on the color image 20 received in the geometric correction step S210.

이 후, 정규화단계(S220)에서 상기 기하보정칼라영상(21)의 밝기를 조절하여 전처리칼라영상(22)을 생성한다.Thereafter, in the normalization step (S220), the brightness of the geometrically corrected color image 21 is adjusted to generate a preprocessed color image 22.

이 후, 단색화단계(S230)에서 상기 전처리칼라영상(22)의 색상정보를 제거하여 그레이스케일영상(23)을 생성한다.Thereafter, in the monochrome step (S230), color information of the preprocessed color image 22 is removed to generate a grayscale image 23.

이 후, 시차추정단계(S300)에서는 상기 모노영상(10) 및 상기 그레이스케일영상(23)의 시차를 추정한다.Thereafter, in the parallax estimating step (S300), the parallax of the mono image 10 and the gray scale image 23 is estimated.

이 후, 조인트디노이징단계(S400)에서는 상기 모노영상(10) 및 상기 시차추정단계(S300)에서 추정한 시차에 기초하여 상기 전처리칼라영상(22)의 노이즈를 제거하여 디노이즈드칼라영상(24)을 생성한다.Subsequently, in the joint denoising step S400, the noise of the preprocessed color image 22 is removed based on the disparity estimated in the mono image 10 and the parallax estimation step S300. 24).

이 후, 시차보상색상정보생성단계(S510)에서는 상기 모노영상(10) 및 디노이즈드칼라영상(24)의 상이도에 기초하여 상기 모노영상의 색상정보에 추정된 상기 시차를 고려한 상기 디노이즈드칼라영상의 색상정보를 입력하여 시차보상색상정보(30)를 생성한다.Subsequently, in the generation of the parallax compensating color information (S510), the denoise considering the parallax estimated in the color information of the mono image based on the degree of difference between the mono image 10 and the denoised color image 24 is performed. Disparity compensation color information 30 is generated by inputting color information of the decolor image.

이 후, 칼라홀필링단계(S520)에서는 상기 시차보상색상정보(30) 중 색상정보가 입력되지 않은 칼라 홀에, 입력 된 상기 시차보상색상정보(30)에 기초하여 도출된 색상정보를 채워 넣어 색상정보가 채워진 시차보상색상정보(31)를 생성한다.Thereafter, in the color hole filling step (S520), color information derived based on the input parallax compensation color information 30 is filled into color holes in which color information is not input among the parallax compensation color information 30. The parallax compensation color information 31 filled with the color information is generated.

이 후, 영상병합단계(S530)에서는 상기 모노영상(10)에 상기 색상정보가 채워진 시차보상색상정보(31)를 병합하여 개선칼라영상(40)을 생성한다.Subsequently, in the image merging step S530, the monochromatic image 10 merges the parallax compensation color information 31 filled with the color information to generate an improved color image 40.

상기와 같은 과정을 통하여 칼라-모노 듀얼카메라로 촬영한 모노영상(10) 및 칼라영상(20)을 융합한 개선칼라영상(40)을 생성함으로써, 저조도 촬영 환경에서 우수한 화질의 영상을 획득하는 효과를 발휘할 수 있다.By generating an improved color image 40 in which the mono image 10 and the color image 20 are fused by the color-mono dual camera through the above process, an image of excellent image quality is obtained in a low-light shooting environment. Can exert.

도 8은 본 발명의 일 실시예에 따른 칼라-모노 듀얼카메라 촬영 영상의 융합 장치의 내부 구성을 개략적으로 도시하는 블록도이다.8 is a block diagram schematically illustrating an internal configuration of a fusion device of a color-mono dual camera captured image according to an embodiment of the present invention.

도 8을 참조하면 본 발명의 일 실시예에 따른 영상융합장치(1000)는 영상입력부(1100), 전처리부(1200), 시차추정부(1300), 조인트디노이징부(1400) 및 색상정보전달부(1500)를 포함한다.Referring to FIG. 8, the image fusion apparatus 1000 according to an embodiment of the present invention may include an image input unit 1100, a preprocessor 1200, a parallax estimator 1300, a joint denoising unit 1400, and color information transfer. Part 1500 is included.

상기 영상입력부(1100)는 칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는다. 이와 같은 영상입력부(1100)에서는 도 1에 도시된 것과 같은 모노CIS(100)가 촬영한 모노영상 및 칼라CIS(200)가 촬영한 칼라영상을 입력 받는다. 이는 상기 영상입력단계(S100)를 수행하는 것과 동일하다.The image input unit 1100 receives a mono image and a color image captured by the color-mono dual camera. The image input unit 1100 receives the mono image captured by the mono CIS 100 as shown in FIG. 1 and the color image captured by the color CIS 200. This is the same as performing the image input step (S100).

상기 전처리부(1200)는 입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행한다. 상기 전처리부(1200)에서는 상기 모노영상 및 상기 칼라영상에 대한 융합을 수행하기 위하여 필요한 전처리를 수행한다. 상기 전처리는 색공간 변환, 기하보정, 정규화, 단색화 등 차후의 처리 단계에 필요한 모든 전처리를 수행할 수 있다. 이와 같은 전처리를 통해 입력 받은 상기 모노영상 및 상기 칼라영상을 정규화 함으로써, 입력 받은 상기 모노영상 및 상기 칼라영상을 융합 처리하기 적합한 형태로 변환하게 된다. 이는 상기 전처리단계(S200)를 수행하는 것과 동일하다.The preprocessor 1200 performs preprocessing on the input mono image and the color image. The preprocessing unit 1200 performs preprocessing necessary to perform fusion on the mono image and the color image. The preprocessing may perform all preprocessing necessary for subsequent processing steps such as color space conversion, geometric correction, normalization, and monochrome. By normalizing the mono image and the color image received through such a pre-processing, the mono image and the color image received are converted into a form suitable for fusion processing. This is the same as performing the preprocessing step (S200).

상기 시차추정부(1300)는 전처리를 수행한 상기 칼라영상 및 전처릴르 수행한 상기 모노영상으로부터 시차를 추정한다. 상기 시차추정부(1300)는 상기 칼라영상 및 상기 모노영상을 비교함으로써 시차를 추정한다. 이와 같은 스테레오 영상으로부터 시차를 도출하는 과정에서는 오류가 생길 가능성이 높고, 이러한 오류가 영상 객체 경계 주변 픽셀에서 나타나는 경우 영상에 심각한 구조적 왜곡이 나타날 수 있고 영상의 전체적인 인지적 품질을 떨어뜨릴 수 있으므로, 도출된 시차는 단지 추정치로서의 역할만을 수행하게 된다.The parallax estimator 1300 estimates the parallax from the color image which has been preprocessed and the mono image which has been preprocessed. The parallax estimator 1300 estimates the parallax by comparing the color image and the mono image. In the process of deriving parallax from such stereoscopic images, there is a high possibility of error, and if such errors occur at pixels near the boundary of the image object, serious structural distortion may occur in the image and the overall cognitive quality of the image may be degraded. The derived parallax only serves as an estimate.

본 발명의 일 실시예에서는 상기 모노영상 및 상기 칼라영상을 부분영역으로 분할한 뒤, 상기 부분영역의 각 좌표에 대해 대응하는 부분영역의 시차를 추정하여 저장하는 방식으로 시차맵을 작성함으로써 시차를 추정할 수 있다. 바람직하게는 상기 부분영역은 하나의 픽셀로 구성될 수 있다.In an embodiment of the present invention, the disparity is obtained by dividing the mono image and the color image into partial regions and creating a disparity map by estimating and storing the disparity of the corresponding partial region for each coordinate of the partial region. It can be estimated. Preferably, the partial region may consist of one pixel.

이 때 상기 모노영상 및 상기 칼라영상의 시차를 추정하는 방법으로는 이미 알려진 여러 알고리즘 들이 사용될 수 있다.At this time, as a method for estimating the parallax between the mono image and the color image, various known algorithms may be used.

이와 같은 과정은 상기 시차추정단계(S300)를 수행하는 것과 동일하다.This process is the same as performing the parallax estimation step (S300).

상기 조인트디노이징부(1400)는 전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성한다.The joint denoising unit 1400 generates a de-noise color image by removing noise of the pre-processed color image based on the mono-image which has been preprocessed.

본 발명의 일 실시예에서 상기 조인트디노이징부(1400)는 전처리를 수행한 상기 칼라영상의 노이즈를 제거하기 위하여 상기 모노영상을 참조정보로 하여 디노이징을 수행하게 된다. 상기 모노영상은 상기 모노CIS(100)을 통해 획득된 영상으로서 더 높은 SNR과 많은 디테일 정보를 갖기 때문에, 상기 모노영상을 참조정보로 하여 디노이징을 수행함으로써 전처리를 수행한 상기 칼라영상의 노이즈를 효과적으로 제거할 수 있다.In an embodiment of the present invention, the joint denoising unit 1400 performs denoising using the mono image as reference information to remove noise of the pre-processed color image. Since the mono image is an image obtained through the mono CIS 100 and has a higher SNR and a lot of detail information, noise of the color image that has been preprocessed by performing denoising using the mono image as reference information is obtained. Can be removed effectively.

하지만 상기 모노영상의 경우 더 높은 SNR과 많은 디테일 정보를 갖지만, 상기 칼라영상과는 다른 위치에서 촬영된 영상이기 때문에 시차가 존재한다. 따라서 상기 시차를 고려하여 노이즈를 제거할 필요가 있다. However, although the mono image has a higher SNR and a lot of detail information, parallax exists because the image is photographed at a position different from that of the color image. Therefore, it is necessary to remove the noise in consideration of the parallax.

이 때, 상기 조인트디노이징부(1400)는, 상기 시차추정부(1300)에서 추정된 시차가 기설정된 디노이즈기준값 미만인 경우 상기 모노영상 및 상기 전처리칼라영상에 기초하여 노이즈를 제거하고, 상기 시차추정단계에서 추정된 시차가 기설정된 디노이즈기준값 이상인 경우 상기 전처리칼라영상에 기초하여 노이즈를 제거할 수 있다.In this case, when the disparity estimated by the disparity estimating unit 1300 is less than a preset denoise reference value, the joint denoising unit 1400 removes the noise based on the mono image and the pre-processed color image, When the parallax estimated in the estimating step is equal to or greater than a preset denoise reference value, noise may be removed based on the preprocessed color image.

이 때, 상기 디노이즈기준값은, 양안 영상의 차이 구별을 나타내는 BJND 모델에 기반하여 결정될 수 있다.In this case, the denoise reference value may be determined based on a BJND model representing the difference between the binocular images.

이와 같은 과정은 상기 조인트디노이징단계(S400)를 수행하는 것과 동일하다.This process is the same as performing the joint denizing step (S400).

상기 색상정보전달부(1500)는 상기 디노이즈드칼라영상으로부터 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성한다.The color information transmitting unit 1500 generates the improved color image with improved image quality by transferring color information from the denoised color image to the mono image.

상기 색상정보전달부(1500)에서는 상기 모노영상의 색상정보에 상기 디노이즈드칼라영상의 색상정보를 전달함으로써 화질이 개선된 개선칼라영상을 생성하게 된다. 이 때, 상기 모노영상 및 상기 디노이즈드칼라영상은 시차를 갖고 있으므로, 상기 시차를 보상하여 색상정보를 전달할 필요가 있다.The color information transmitting unit 1500 may generate an improved color image having improved image quality by transferring color information of the denoised color image to color information of the mono image. In this case, since the mono image and the denoised color image have parallaxes, it is necessary to compensate the parallax to transmit color information.

이 때, 추정된 상기 시차는 많은 오류를 가질 수 있고, 상기 오류에 의해 영상의 왜곡이 발생할 수 있다. 따라서 본 발명의 일 실시예에서는 상기 시차를 직접 반영하여 색상정보를 전달하지 않고, 시차의 오류의 가능성이 낮은 영역에 대해서만 색상정보를 전달하고, 오류의 가능성이 높은 영역에 대해서는 기 전달된 상기 색상정보에 기초하여 색상정보를 도출하는 방법으로 상기 개선칼라영상을 생성할 수 있다. 이는 상기 색상정보전달단계(S500)를 수행하는 것과 동일하다.In this case, the estimated parallax may have a large number of errors, and distortion of an image may occur due to the errors. Therefore, in an embodiment of the present invention, the color information is not transmitted directly to reflect the parallax, the color information is transmitted only in an area of low probability of parallax, and the previously transmitted color of an area of high probability of error. The improved color image may be generated by deriving color information based on the information. This is the same as performing the color information transfer step (S500).

도 9는 본 발명의 일 실시예에 따른 전처리부(1200)의 내부 구성을 개략적으로 도시하는 블록도이다.9 is a block diagram schematically illustrating an internal configuration of the preprocessor 1200 according to an embodiment of the present invention.

도 9를 참조하면 본 발명의 일 실시예에 따른 상기 전처리부(1200)는, 기하보정부(1210), 정규화부(1220) 및 단색화부(1230)를 포함한다.Referring to FIG. 9, the preprocessor 1200 according to an embodiment of the present invention includes a geometric correction unit 1210, a normalization unit 1220, and a monochrome unit 1230.

상기 기하보정부(1210)는 입력 받은 상기 모노영상 및 상기 칼라영상에 대한 선형변환을 통해 상기 모노영상 및 상기 칼라영상을 정렬한다. 상기 모노영상 및 상기 칼라영상은 별개의 렌즈 및 CIS를 통해 획득한 영상이기 때문에 촬영된 영상의 각도 및 배율 등이 정확히 일치하지 않을 수 있다. 상기 기하보정부(1210)는 상기 모노영상 부분영역과 대응되는 상기 칼라영상의 부분영역을 매칭하여 매칭된 상기 부분영역들이 각 영상의 동일 좌표에 위치할 수 있도록 영상의 배향, 크기, 위치 중 1 이상을 변환한다. 더욱 상세하게는 상기 모노영상 및 상기 칼라영상으로부터 에피폴라 라인을 도출하여 상기 에피폴라 라인을 일치시키는 방법으로 정렬을 수행할 수 있다.The geometric correction unit 1210 aligns the mono image and the color image through a linear transformation of the input mono image and the color image. Since the mono image and the color image are images obtained through separate lenses and CIS, angles and magnifications of the captured images may not exactly match. The geometric correction unit 1210 matches a partial region of the color image corresponding to the mono image partial region so that the matched partial regions may be located at the same coordinates of each image. Convert the above. More specifically, alignment may be performed by deriving epipolar lines from the mono image and the color image and matching the epipolar lines.

상기 기하보정부(1210)는 상기 모노영상 및 상기 칼라영상을 모두 변환하여 정렬을 수행할 수도 있고, 혹은 상기 모노영상에 맞추어 상기 칼라영상을 변환하여 정렬을 수행할 수도 있다. 이는 상기 기하보정단계(S210)를 수행하는 것과 동일하다.The geometric correction unit 1210 may perform alignment by converting both the mono image and the color image, or perform the alignment by converting the color image according to the mono image. This is the same as performing the geometric correction step (S210).

상기 정규화부(1220)는 상기 기하보정부(1210)로부터 수신한 상기 칼라영상의 밝기를 상기 모노영상의 밝기에 맞추어 조절하여 전처리칼라영상을 생성한다. 상기 정규화부(1220)는 두 영상간의 밝기차이를 조정하여 두 영상의 매칭된 상기 부분영역에 대한 시차 추정 시 정확도를 높일 수 있도록 한다. 상기 정규화부(1220)는 영상 히스토그램 매칭 또는 최소자승법 등의 방법을 이용할 수 있다. 이는 상기 정규화단계(S220)를 수행하는 것과 동일하다.The normalization unit 1220 generates a pre-processed color image by adjusting the brightness of the color image received from the geometric correction unit 1210 according to the brightness of the mono image. The normalizer 1220 adjusts the brightness difference between the two images to increase the accuracy in estimating the parallax for the matched partial region of the two images. The normalizer 1220 may use a method such as image histogram matching or least squares method. This is the same as performing the normalization step (S220).

상기 단색화부(1230)는 상기 전처리칼라영상의 색상정보를 제거하여 그레이스케일영상을 생성한다. 이와 같이 칼라영상의 색상정보를 제거한 그레이스케일영상을 생성함으로써 상기 모노영상과의 매칭을 통해 시차를 더욱 정확하게 추정할 수 있도록 한다. 이는 상기 단색화단계(S230)를 수행하는 것과 동일하다.The monochrome unit 1230 generates a grayscale image by removing color information of the preprocessed color image. As such, by generating a grayscale image from which color information of a color image is removed, parallax may be more accurately estimated through matching with the mono image. This is the same as performing the monochrome step (S230).

이와 같은 전처리부(1200)를 포함하는 실시예의 경우, 상기 시차추정부(1300)는 상기 그레이스케일영상 및 상기 모노영상의 시차를 추정하고, 상기 조인트디노이징부(1400)는 상기 전처리칼라영상 및 상기 모노영상에 기초하여 상기 전처리칼라영상의 노이즈를 제거할 수 있다.In an exemplary embodiment including the preprocessor 1200, the parallax estimator 1300 estimates the parallax between the grayscale image and the mono image, and the joint denizing unit 1400 performs the preprocessing color image. The noise of the preprocessed color image may be removed based on the mono image.

상기 시차추정부(1300)에서는 상기 그레이스케일영상 및 상기 모노영상의 시차를 추정할 수 있다. 이와 같이 상기 칼라영상을 전처리 하여 색상정보가 제거 된 그레이스케일영상을 상기 모노영상과 비교하여 시차를 추정함으로써, 더욱 정확한 시차의 추정이 가능하게 된다,The parallax estimator 1300 may estimate the parallax of the grayscale image and the mono image. Thus, by comparing the grayscale image from which the color information has been removed by preprocessing the color image with the mono image, the parallax is estimated, thereby making it possible to estimate the parallax more accurately.

또한, 상기 조인트디노이징부(1400)에서는 상기 전처리칼라영상의 노이즈를 상기 모노영상 및 상기 시차추정부(1300)에서 추정 된 시차에 기초하여 제거함으로써 색상정보를 포함하는 디노이즈드칼라영상을 생성할 수 있다.In addition, the joint denoising unit 1400 generates a denoised color image including color information by removing noise of the preprocessed color image based on the mono image and the parallax estimated by the parallax estimating unit 1300. can do.

도 10은 본 발명의 일 실시예에 따른 색상정보전달부(1500)의 내부 구성을 개략적으로 도시하는 블록도이다.10 is a block diagram schematically illustrating an internal configuration of a color information transmitting unit 1500 according to an embodiment of the present invention.

도 10을 참조하면 본 발명의 일 실시예에 따른 상기 색상정보전달부(1500)는 시차보상색상정보생성부(1510), 칼라홀필링부(1520) 및 영상병합부(1530)를 포함한다.Referring to FIG. 10, the color information transmitting unit 1500 includes a parallax compensating color information generating unit 1510, a color hole filling unit 1520, and an image merger 1530.

상기 시차보상색상정보생성부(1510)는 전처리를 수행한 상기 칼라영상에 대한 전처리를 수행한 상기 모노영상의 부분영역별 상이도에 기초하여, 전처리를 수행한 상기 모노영상의 부분영역의 색상정보에 추정된 상기 시차를 고려하여 대응되는 상기 디노이즈드칼라영상의 부분영역의 색상정보를 입력하여 부분영역별 시차보상색상정보를 생성한다.The parallax compensation color information generation unit 1510 may perform color information of the partial region of the mono image, which has been preprocessed, based on the degree of difference for each partial region of the mono image, which has been preprocessed. Disparity compensation color information for each subregion is generated by inputting color information of a partial region of the denoised color image corresponding to the estimated parallax.

더욱 상세하게는 본 발명의 일 실시예에서는 상기 디노이즈드칼라영상 및 상기 모노영상의 대응되는 부분영역의 상이도를 도출하고, 상기 상이도가 기설정된 기준 미만인 영역에 대해 마스킹을 생성하고, 생성된 상기 마스킹 영역에 대해 추정된 상기 시차에 기초하여 상기 디노이즈드칼라영상의 색상정보를 전달할 수 있다. 이는 상기 시차보상색상정보생성단계(S510)를 수행하는 것과 동일하다.More specifically, in an embodiment of the present invention, the degree of difference between the corresponding partial region of the denoised color image and the mono image is derived, and the masking is generated and generated for an area whose difference is less than a predetermined criterion. Color information of the denoised color image may be transmitted based on the disparity estimated for the masked area. This is the same as performing the parallax compensation color information generation step (S510).

본 발명의 일 실시예에서 상기 시차보상색상정보생성부(1510)는 마스킹생성부(1511) 및 시차보상색상정보전달부(1512)를 포함할 수 있다.In one embodiment of the present invention, the parallax compensation color information generation unit 1510 may include a masking generation unit 1511 and a parallax compensation color information transmission unit 1512.

상기 마스킹생성부(1511)는 상기 디노이즈드칼라영상 및 상기 모노영상의 동일 좌표의 부분영역의 상이도가, 양안 영상의 차이 구별을 나타내는 BJND 모델의 BJND값 미만인 경우 상기 부분영역에 마스킹을 생성한다. 이는 상기 마스킹생성단계(S511)를 수행하는 것과 동일하다.The masking generator 1511 generates masking in the partial region when the difference between the partial regions of the same coordinates of the denoised color image and the mono image is less than the BJND value of the BJND model representing the difference between the binocular images. do. This is the same as performing the masking generation step (S511).

상기 시차보상색상정보전달부(1512)는 상기 마스킹이 생성된 영역에 대해 추정된 상기 시차를 고려하여 상기 디노이즈드칼라영상의 색상정보를 입력하여 시차보상색상정보를 생성한다. 상기 마스킹이 생성된 영역은 상기 디노이즈드칼라영상 및 상기 모노영상의 상이도가 낮은 영역이기 때문에, 상기 마스킹이 생성된 영역에 상기 디노이즈드칼라영상의 색상정보를 추정된 상기 시차를 고려하여 입력하게 된다. 이는 상기 시차보상색상정보전달단계(S512)를 수행하는 것과 동일하다.The parallax compensation color information transmitting unit 1512 generates parallax compensation color information by inputting color information of the denoised color image in consideration of the parallax estimated for the region in which the masking is generated. Since the masked region is a region having a low difference between the denoised color image and the mono image, the masking is generated in consideration of the parallax in which color information of the denoised color image is estimated. Will be entered. This is the same as performing the parallax compensation color information transferring step (S512).

상기 칼라홀필링부(1520)는 상기 부분영역별 시차보상색상정보 중 색상정보가 입력되지 않은 부분영역인 칼라 홀에, 1 이상의 색상정보가 입력된 다른 부분영역의 시차보상색상정보에 기초하여 도출된 색상정보를 채워 넣는다. 본 발명의 일 실시예에서는 상기 칼라홀필링부(1520)는 인공 신경망 알고리즘에 기초하여 칼라 홀에 채워 넣을 색상정보를 도출할 수 있다. 이 때, 상기 인공 신경망은 컨볼루션 신경망일 수 있다. 이와 같이 컨볼루션 신경망에 기초한 딥 러닝 방식을 통해, 상기 칼라 홀에 색상정보를 도출하여 채워 넣음으로써 발생할 수 있는 색번짐 현상을 억제하고, 정확한 색상정보를 채워 넣어 색 재현율을 높이는 효과를 발휘할 수 있다. 이는 상기 칼라홀필링단계(S520)를 수행하는 것과 동일하다.The color hole peeling unit 1520 is derived based on the disparity compensation color information of another partial area in which one or more color information is input to a color hole in which the color information is not input among the disparity compensation color information for each partial area. Fill in the color information. In an embodiment of the present invention, the color hole filling unit 1520 may derive color information to be filled in the color hole based on an artificial neural network algorithm. In this case, the artificial neural network may be a convolutional neural network. As described above, the deep learning method based on the convolutional neural network can suppress the color bleeding caused by deriving and filling the color information into the color hole, and enhance the color reproducibility by filling the accurate color information. This is the same as performing the color hole filling step (S520).

상기 영상병합부(1530)는 상기 칼라홀필링부(1520)로부터 수신한 색상정보가 채워진 시차보상색상정보를 전처리를 수행한 상기 모노영상에 병합하여 개선칼라영상을 생성한다.The image merger 1530 merges the disparity compensation color information filled with the color information received from the color hole filling unit 1520 into the mono image that has been preprocessed to generate an improved color image.

상기 영상병합부(1530)에서는 상기 칼라홀필링부(1520)에서 생성된 시차보상색상정보를 상기 모노영상의 색상정보에 병합함으로써, 상기 모노영상이 갖고 있는 밝기 정보에 색상정보가 더해져 개선칼라영상을 생성할 수 있다. 본 발명의 일 실시예에서는 상기 색상정보는 Lab 색공간에서의 ab 색상값이고, 상기 모노영상에 저장된 L 휘도값에 상기 ab 색상값이 병합됨으로써 Lab 색상정보를 갖는 개선칼라영상을 생성할 수 있다. 이는 상기 영상병합단계(S530)를 수행하는 것과 동일하다.The image merger 1530 merges the disparity compensation color information generated by the color hole filling unit 1520 into the color information of the mono image, thereby adding color information to brightness information of the mono image and improving the color image. Can be generated. In an embodiment of the present invention, the color information is an ab color value in a Lab color space, and the ab color value is merged with an L luminance value stored in the mono image to generate an improved color image having Lab color information. . This is the same as performing the image merging step S530.

도 11은 본 발명의 일 실시예에 있어서, 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 블록도이다.11 is a block diagram illustrating an example of an internal configuration of a computing device according to an embodiment of the present disclosure.

상기 비정상이용탐지시스템 전체는 후술하는 컴퓨팅 장치에 의하여 구현이 될 수도 있고, 혹은 후술하는 컴퓨팅 장치의 2 이상이 상기 비정상이용탐지시스템을 구축할 수 있다.The entire abnormal usage detection system may be implemented by a computing device to be described later, or two or more of the computing devices to be described later may construct the abnormal usage detection system.

바람직하게는, 상기 상황정보분석모듈과 상기 비정상탐지모듈은 별도의 컴퓨팅 장치에 의하여 구현이 됨이 바람직하다. 한편, 상기 프로파일저장부 및 상기 정책저장부는 상기 비정상탐지모듈의 다른 구성요소와 달리 별도의 컴퓨팅장치로 구성될 수도 있다.Preferably, the situation information analysis module and the abnormality detection module is preferably implemented by a separate computing device. Meanwhile, the profile storage unit and the policy storage unit may be configured as separate computing devices, unlike other components of the abnormality detection module.

도 11에 도시한 바와 같이, 컴퓨팅 장치(11000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)는 네트워크를 통해 서비스서버(B)에 연결된 사용자단말기(A) 혹은 전술한 서비스서버(B)에 해당될 수 있다.As shown in FIG. 11, the computing device 11000 may include at least one processor 11100, a memory 11200, a peripheral interface 11300, and an input / output subsystem ( I / O subsystem 11400, power circuit 11500, and communication circuit 11600 at least. In this case, the computing device 11000 may correspond to the user terminal A connected to the service server B or the service server B described above.

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or nonvolatile memory. have. The memory 11200 may include a software module, an instruction set, or other various data necessary for the operation of the computing device 11000.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, accessing the memory 11200 from another component such as the processor 11100 or the peripheral device interface 11300 may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral interface 11300 may couple the input and / or output peripherals of the computing device 11000 to the processor 11100 and the memory 11200. The processor 11100 may execute a software module or an instruction set stored in the memory 11200 to perform various functions for the computing device 11000 and process data.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.Input / output subsystem 11400 may couple various input / output peripherals to peripheral interface 11300. For example, the input / output subsystem 11400 may include a controller for coupling a peripheral device such as a monitor or keyboard, a mouse, a printer, or a touch screen or a sensor, as necessary, to the peripheral interface 11300. According to another aspect, the input / output peripherals may be coupled to the peripheral interface 11300 without passing through the input / output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or part of the components of the terminal. For example, power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), charging systems, power failure detection circuits, power converters or inverters, power status indicators or power sources. It can include any other components for creation, management, distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the communication circuit 11600 may include an RF circuit to transmit and receive an RF signal, also known as an electromagnetic signal, to enable communication with other computing devices.

이러한 도 11의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)는 도 11에 도시된 일부 컴포넌트가 생략되거나, 도 11에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 11에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 11 is only one example of the computing device 11000, and the computing device 11000 may include some components shown in FIG. 11, or may further include additional components not shown in FIG. 11, or 2. It may have a configuration or arrangement that combines two or more components. For example, the computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor, in addition to the components illustrated in FIG. 11, and various communication schemes (WiFi, 3G, LTE) in the communication circuit 1160. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 11000 may be implemented in hardware, software, or a combination of both hardware and software, including integrated circuits specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that may be executed by various computing devices and may be recorded in a computer readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. An application to which the present invention is applied may be installed in a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmitter (not shown) for transmitting the file at the request of the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). May be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, and configure the processing device to operate as desired, or process it independently or in combination. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device for the purpose of interpreting or providing instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computing devices so that they are stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

본 발명의 일 실시예에 따르면, 모노 센서를 통하여 획득한 모노영상과 칼라 센서를 통하여 획득한 칼라영상을 융합함으로써 우수한 화질의 영상을 획득하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to achieve an effect of obtaining an image having excellent image quality by fusing a mono image obtained through a mono sensor and a color image obtained through a color sensor.

본 발명의 일 실시예에 따르면 저조도 촬영 환경에서 더 높은 SNR(Signal-to-Noise Ratio)과 영상 디테일 정보를 갖는 모노영상에 칼라영상으로부터 색상정보를 전달함으로써, 우수한 화질의 영상을 획득하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the color information is transferred from a color image to a mono image having a higher signal-to-noise ratio (SNR) and image detail information in a low-light shooting environment, thereby obtaining an image having excellent image quality. Can be exercised.

본 발명의 일 실시예에 따르면 시차를 추정하고, 추정된 시차의 신뢰성에 기초하여 조인트디노이징을 함으로써, 우수한 디노이징의 효과를 발휘할 수 있다.According to an embodiment of the present invention, by estimating the parallax, and joint denoising based on the estimated reliability of the parallax, it is possible to exert an excellent denoising effect.

본 발명의 일 실시예에 따르면, 칼라영상과 모노영상의 상이도에 기초하여 마스킹을 생성하고, 상기 마스킹에 기초하여 색상정보를 전달함으로써, 색상정보 전달의 정확도를 높이는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the masking is generated based on the difference between the color image and the mono image, and the color information is transmitted based on the masking, thereby improving the accuracy of the color information transmission.

본 발명의 일 실시예에 따르면, 마스킹에 기초하여 색상정보를 전달받은 후, 딥 러닝을 통한 칼라 홀 채우기를 수행함으로써, 색 번짐을 최소화 하고, 색 재현율을 높이는 효과를 발휘할 수 있다.According to one embodiment of the present invention, after receiving color information based on masking, color hole filling through deep learning can be performed, thereby minimizing color bleeding and improving color reproducibility.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved. Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (23)

칼라-모노 듀얼카메라 촬영 영상의 융합 방법으로서,
칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력단계;
입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리단계;
전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정단계;
전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징단계; 및
상기 디노이즈드칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달단계; 를 포함하고,
상기 색상정보전달단계는,
시차 오류의 가능성이 기설정된 기준 이하인 영역에 대해 상기 모노영상으로 색상정보를 전달하고, 시차 오류의 가능성이 기설정된 기준을 초과하는 영역에 대해 기 전달된 상기 색상정보에 기초하여 색상정보를 도출하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법.
As a fusion method of the color mono mono camera photography image,
An image input step of receiving a mono image and a color image captured by the color-mono dual camera;
A preprocessing step of performing preprocessing on the input mono image and the color image;
A parallax estimating step of estimating a parallax from the pre-processed color image and the pre-processed mono image;
A joint denoising step of removing noise of the pre-processed color image based on the pre-processed mono image to generate a denoised color image; And
A color information transfer step of transferring color information from the de-noise color image to the mono image which has been pre-processed to generate an improved color image having improved image quality; Including,
The color information transfer step,
Color information is transmitted to the mono image for an area where the possibility of parallax error is less than or equal to a predetermined criterion, and color information is derived based on the previously transmitted color information for an area where the possibility of parallax error exceeds a predetermined criterion. , Fusion method of color-mono dual cameras.
칼라-모노 듀얼카메라 촬영 영상의 융합 방법으로서,
칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력단계;
입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리단계;
전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정단계;
전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징단계; 및
상기 디노이즈드칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달단계; 를 포함하고,
상기 색상정보전달단계는,
전처리를 수행한 상기 칼라영상에 대한 전처리를 수행한 상기 모노영상의 부분영역별 상이도에 기초하여, 전처리를 수행한 상기 모노영상의 부분영역의 색상정보에 추정된 상기 시차를 고려하여 대응되는 상기 디노이즈드칼라영상의 부분영역의 색상정보를 입력하여 부분영역별 시차보상색상정보를 생성하는 시차보상색상정보생성단계;
상기 부분영역별 시차보상색상정보 중 색상정보가 입력되지 않은 부분영역인 칼라 홀에, 1 이상의 색상정보가 입력된 다른 부분영역의 시차보상색상정보에 기초하여 도출된 색상정보를 채워 넣는 칼라홀필링단계; 및
상기 칼라홀필링단계를 통해 색상정보가 채워진 부분영역별 시차보상색상정보를 전처리를 수행한 상기 모노영상에 병합하여 개선칼라영상을 생성하는 영상병합단계; 를 포함하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법.
As a fusion method of the color mono mono camera photography image,
An image input step of receiving a mono image and a color image captured by the color-mono dual camera;
A preprocessing step of performing preprocessing on the input mono image and the color image;
A parallax estimating step of estimating a parallax from the pre-processed color image and the pre-processed mono image;
A joint denoising step of removing noise of the pre-processed color image based on the pre-processed mono image to generate a denoised color image; And
A color information transfer step of transferring color information from the de-noise color image to the mono image which has been pre-processed to generate an improved color image having improved image quality; Including,
The color information transfer step,
Based on the degree of difference for each partial region of the mono image, which has been preprocessed, the color image corresponding to the color information of the partial region of the mono image having been preprocessed in consideration of the disparity estimated Disparity compensation color information generation step of generating disparity compensation color information for each partial region by inputting color information of the partial region of the denoised color image;
Color hole filling that fills color information derived based on the disparity compensation color information of another partial area into which one or more color information is input, in a color hole in which the color information is not input among the disparity compensation color information for each partial area. step; And
An image merging step of merging the disparity compensation color information for each partial region filled with the color information through the color hole filling step into the mono image which has been preprocessed to generate an improved color image; Including, the fusion method of the color-mono dual camera photographing image.
청구항 2에 있어서,
상기 시차보상색상정보생성단계는,
상기 디노이즈드칼라영상 및 상기 모노영상의 동일 좌표의 부분영역의 상이도가, 양안 영상의 차이 구별을 나타내는 BJND 모델의 BJND값 미만인 경우 상기 부분영역에 마스킹을 생성하는 마스킹생성단계; 및
상기 마스킹이 생성된 영역에 대해 추정된 상기 시차를 고려하여 상기 디노이즈드칼라영상의 색상정보를 입력하여 시차보상색상정보를 생성하는 시차보상색상정보전달단계; 를 포함하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법.
The method according to claim 2,
The disparity compensation color information generation step,
A masking generation step of generating masking in the partial region when the difference between the partial regions of the same coordinates of the de-nosed color image and the mono image is less than the BJND value of the BJND model indicating the difference between the binocular images; And
A parallax compensation color information transferring step of generating parallax compensation color information by inputting color information of the denoised color image in consideration of the parallax estimated for the masked area; Including, the fusion method of the color-mono dual camera photographing image.
청구항 2에 있어서,
상기 칼라홀필링단계는,
인공 신경망 알고리즘에 기초하여 상기 칼라 홀에 채워 넣을 색상정보를 도출하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법.
The method according to claim 2,
The color hole peeling step,
A color-mono dual camera photographing method for deriving color information to be filled in the color hole based on an artificial neural network algorithm.
청구항 4에 있어서,
상기 칼라홀필링단계는,
컨볼루션 신경망에 기초하여 칼라 홀에 채워 넣을 색상정보를 도출하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법.
The method according to claim 4,
The color hole peeling step,
A method of fusing color-mono dual camera images, which derives color information to be filled in a color hole based on a convolutional neural network.
청구항 5에 있어서,
상기 컨볼루션 신경망은,
상기 시차보상색상정보를 컬러 힌트로 하는 크로스채널 오토인코더로 구성되는, 칼라-모노 듀얼카메라 촬영 영상의 융합 방법.
The method according to claim 5,
The convolutional neural network,
And a cross-channel auto-encoder that uses the disparity compensation color information as a color hint.
삭제delete 삭제delete 삭제delete 삭제delete 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템으로서,
칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력부;
입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리부;
전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정부;
전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징부; 및
상기 디노이즈드칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달부; 를 포함하고,
상기 색상정보전달부는,
시차 오류의 가능성이 기설정된 기준 이하인 영역에 대해 상기 모노영상으로 색상정보를 전달하고, 시차 오류의 가능성이 기설정된 기준을 초과하는 영역에 대해 기 전달된 상기 색상정보에 기초하여 색상정보를 도출하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템.
As a fusion system of color mono mono camera photography images,
An image input unit configured to receive a mono image and a color image captured by the color-mono dual camera;
A preprocessing unit performing preprocessing on the input mono image and the color image;
A parallax estimator for estimating a parallax from the color image pre-processed and the mono image pre-processed;
A joint denoising unit for generating a denoised color image by removing noise of the pre-processed color image based on the mono-image which has been preprocessed; And
A color information transfer unit configured to transfer color information from the de-noise color image to the mono image which has been pre-processed to generate an improved color image with improved image quality; Including,
The color information transfer unit,
Color information is transmitted to the mono image for an area where the possibility of parallax error is less than or equal to a predetermined criterion, and color information is derived based on the previously transmitted color information for an area where the possibility of parallax error exceeds a predetermined criterion. , Fusion system of color-mono dual cameras.
칼라-모노 듀얼카메라 촬영 영상의 융합 시스템으로서,
칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력부;
입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리부;
전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정부;
전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징부; 및
상기 디노이즈드칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달부; 를 포함하고,
상기 색상정보전달부는,
전처리를 수행한 상기 칼라영상에 대한 전처리를 수행한 상기 모노영상의 부분영역별 상이도에 기초하여, 전처리를 수행한 상기 모노영상의 부분영역의 색상정보에 추정된 상기 시차를 고려하여 대응되는 상기 디노이즈드칼라영상의 부분영역의 색상정보를 입력하여 부분영역별 시차보상색상정보를 생성하는 시차보상색상정보생성부;
상기 부분영역별 시차보상색상정보 중 색상정보가 입력되지 않은 부분영역인 칼라 홀에, 1 이상의 색상정보가 입력된 다른 부분영역의 시차보상색상정보에 기초하여 도출된 색상정보를 채워 넣는 칼라홀필링부; 및
상기 칼라홀필링부로부터 수신한 색상정보가 채워진 부분영역별 시차보상색상정보를 전처리를 수행한 상기 모노영상에 병합하여 개선칼라영상을 생성하는 영상병합부; 를 포함하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템.
As a fusion system of color mono mono camera photography images,
An image input unit configured to receive a mono image and a color image captured by the color-mono dual camera;
A preprocessing unit performing preprocessing on the input mono image and the color image;
A parallax estimator for estimating a parallax from the color image pre-processed and the mono image pre-processed;
A joint denoising unit for generating a denoised color image by removing noise of the pre-processed color image based on the mono-image which has been preprocessed; And
A color information transfer unit configured to transfer color information from the de-noise color image to the mono image which has been pre-processed to generate an improved color image with improved image quality; Including,
The color information transfer unit,
Based on the degree of difference for each partial region of the mono image, which has been preprocessed, the color image corresponding to the color information of the partial region of the mono image having been preprocessed in consideration of the disparity estimated A disparity compensation color information generation unit for generating disparity compensation color information for each partial region by inputting color information of the partial region of the denoised color image;
Color hole filling that fills color information derived based on the disparity compensation color information of another partial area into which one or more color information is input, in a color hole in which the color information is not input among the disparity compensation color information for each partial area. part; And
An image merger which merges the disparity compensation color information for each partial region filled with the color information received from the color hole filling unit into the mono image that has been preprocessed to generate an improved color image; Containing, a fusion system of color-mono dual camera photographing image.
청구항 12에 있어서,
상기 시차보상색상정보생성부는,
상기 디노이즈드칼라영상 및 상기 모노영상의 동일 좌표의 부분영역의 상이도가, 양안 영상의 차이 구별을 나타내는 BJND 모델의 BJND값 미만인 경우 상기 부분영역에 마스킹을 생성하는 마스킹생성부; 및
상기 마스킹이 생성된 영역에 대해 추정된 상기 시차를 고려하여 상기 디노이즈드칼라영상의 색상정보를 입력하여 시차보상색상정보를 생성하는 시차보상색상정보전달부; 를 포함하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템.
The method according to claim 12,
The parallax compensation color information generation unit,
A masking generator for generating masking in the partial region when the difference between the partial regions of the same coordinates of the de-noised color image and the mono image is less than the BJND value of the BJND model indicating the difference between the binocular images; And
A parallax compensation color information transmitter configured to generate parallax compensation color information by inputting color information of the denoised color image in consideration of the parallax estimated for the masked area; Containing, a fusion system of color-mono dual camera photographing image.
청구항 12에 있어서,
상기 칼라홀필링부는,
인공 신경망 알고리즘에 기초하여 상기 칼라 홀에 채워 넣을 색상정보를 도출하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템.
The method according to claim 12,
The color hole filling unit,
A color-mono dual camera photographing image fusion system for deriving color information to be filled in the color hole based on an artificial neural network algorithm.
청구항 14에 있어서,
상기 칼라홀필링부는,
컨볼루션 신경망에 기초하여 칼라 홀에 채워 넣을 색상정보를 도출하는, 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템.
The method according to claim 14,
The color hole filling unit,
A fusion system of color-mono dual camera photographing images which derives color information to be filled in a color hole based on a convolutional neural network.
청구항 15에 있어서,
상기 컨볼루션 신경망은,
상기 시차보상색상정보를 컬러 힌트로 하는 크로스채널 오토인코더로 구성되는, 칼라-모노 듀얼카메라 촬영 영상의 융합 시스템.
The method according to claim 15,
The convolutional neural network,
A fusion system of color-mono dual camera photographing images, comprising a cross-channel auto encoder that uses the color difference information as color hints.
삭제delete 삭제delete 삭제delete 삭제delete 칼라-모노 듀얼카메라 촬영 영상의 융합을 구현하기 위한, 컴퓨터-판독가능 매체로서,
상기 컴퓨터-판독가능 매체는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은:
칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력단계;
입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리단계;
전처리를 수행한 상기 칼라영상 및 상기 모노영상으로부터 시차를 추정하는 시차추정단계;
전처리를 수행한 상기 칼라영상 및 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징단계; 및
상기 디노이즈드칼라영상으로부터 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달단계; 를 포함하고,
상기 색상정보전달단계는,
시차 오류의 가능성이 기설정된 기준 이하인 영역에 대해 상기 모노영상으로 색상정보를 전달하고, 시차 오류의 가능성이 기설정된 기준을 초과하는 영역에 대해 기 전달된 상기 색상정보에 기초하여 색상정보를 도출하는, 컴퓨터-판독가능 매체.
A computer-readable medium for implementing a fusion of color-mono dual camera photographed images,
The computer-readable medium stores instructions for causing a computing device including one or more processors and one or more memories to perform the following steps, the steps:
An image input step of receiving a mono image and a color image captured by the color-mono dual camera;
A preprocessing step of performing preprocessing on the input mono image and the color image;
A parallax estimating step of estimating a parallax from the color image and the mono image subjected to preprocessing;
A joint denizing step of generating a denoised color image by removing noise of the preprocessed color image based on the preprocessed color image and the mono image; And
A color information transfer step of generating an improved color image with improved image quality by transferring color information from the denoise color image to the mono image; Including,
The color information transfer step,
Color information is transmitted to the mono image for an area where the possibility of parallax error is less than or equal to a predetermined criterion, and color information is derived based on the previously transmitted color information for an area where the possibility of parallax error exceeds a predetermined criterion. , Computer-readable media.
칼라-모노 듀얼카메라 촬영 영상의 융합을 구현하기 위한, 컴퓨터-판독가능 매체로서,
상기 컴퓨터-판독가능 매체는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은:
칼라-모노 듀얼카메라를 통해 촬영된 모노영상 및 칼라영상을 입력 받는 영상입력단계;
입력 받은 상기 모노영상 및 상기 칼라영상에 대해 전처리를 수행하는 전처리단계;
전처리를 수행한 상기 칼라영상 및 전처리를 수행한 상기 모노영상으로부터 시차를 추정하는 시차추정단계;
전처리를 수행한 상기 모노영상에 기초하여 전처리를 수행한 상기 칼라영상의 노이즈를 제거하여 디노이즈드칼라영상을 생성하는 조인트디노이징단계; 및
상기 디노이즈드칼라영상으로부터 전처리를 수행한 상기 모노영상으로 색상정보를 전달하여 화질이 개선된 개선칼라영상을 생성하는 색상정보전달단계; 를 포함하고,
상기 색상정보전달단계는,
전처리를 수행한 상기 칼라영상에 대한 전처리를 수행한 상기 모노영상의 부분영역별 상이도에 기초하여, 전처리를 수행한 상기 모노영상의 부분영역의 색상정보에 추정된 상기 시차를 고려하여 대응되는 상기 디노이즈드칼라영상의 부분영역의 색상정보를 입력하여 부분영역별 시차보상색상정보를 생성하는 시차보상색상정보생성단계;
상기 부분영역별 시차보상색상정보 중 색상정보가 입력되지 않은 부분영역인 칼라 홀에, 1 이상의 색상정보가 입력된 다른 부분영역의 시차보상색상정보에 기초하여 도출된 색상정보를 채워 넣는 칼라홀필링단계; 및
상기 칼라홀필링단계를 통해 색상정보가 채워진 부분영역별 시차보상색상정보를 전처리를 수행한 상기 모노영상에 병합하여 개선칼라영상을 생성하는 영상병합단계; 를 포함하는, 컴퓨터-판독가능 매체.
A computer-readable medium for implementing a fusion of color-mono dual camera photographed images,
The computer-readable medium stores instructions for causing a computing device including one or more processors and one or more memories to perform the following steps, the steps:
An image input step of receiving a mono image and a color image captured by the color-mono dual camera;
A preprocessing step of performing preprocessing on the input mono image and the color image;
A parallax estimating step of estimating a parallax from the pre-processed color image and the pre-processed mono image;
A joint denoising step of removing noise of the pre-processed color image based on the pre-processed mono image to generate a denoised color image; And
A color information transfer step of transferring color information from the de-noise color image to the mono image which has been pre-processed to generate an improved color image having improved image quality; Including,
The color information transfer step,
Based on the degree of difference for each partial region of the mono image, which has been preprocessed, the color image corresponding to the color information of the partial region of the mono image having been preprocessed in consideration of the disparity estimated Disparity compensation color information generation step of generating disparity compensation color information for each partial region by inputting color information of the partial region of the denoised color image;
Color hole filling that fills color information derived based on the disparity compensation color information of another partial area into which one or more color information is input, in a color hole in which the color information is not input among the disparity compensation color information for each partial area. step; And
An image merging step of merging the disparity compensation color information for each partial region filled with the color information through the color hole filling step into the mono image which has been preprocessed to generate an improved color image; A computer-readable medium comprising a.
삭제delete
KR1020180028725A 2018-03-12 2018-03-12 Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium KR102020464B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180028725A KR102020464B1 (en) 2018-03-12 2018-03-12 Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180028725A KR102020464B1 (en) 2018-03-12 2018-03-12 Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium

Publications (1)

Publication Number Publication Date
KR102020464B1 true KR102020464B1 (en) 2019-09-10

Family

ID=67950958

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180028725A KR102020464B1 (en) 2018-03-12 2018-03-12 Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium

Country Status (1)

Country Link
KR (1) KR102020464B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112037142A (en) * 2020-08-24 2020-12-04 腾讯科技(深圳)有限公司 Image denoising method and device, computer and readable storage medium
CN114040089A (en) * 2020-07-21 2022-02-11 Oppo广东移动通信有限公司 Image processing method, device, equipment and computer readable storage medium
CN117934353A (en) * 2024-03-20 2024-04-26 上海玄戒技术有限公司 Image processing method, device, equipment, storage medium and chip

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Jeon, Hae-Gon, et al. "Stereo matching with color and monochrome cameras in low-light conditions." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.* *
Jung, Yong Ju. "Enhancement of low light level images using color-plus-mono dual camera." Optics Express 25.10 (2017): 12029-12051.* *
Wang, Zhijun, et al. "A comparative analysis of image fusion methods." IEEE transactions on geoscience and remote sensing 43.6 (2005): 1391-1402.* *
Zhao, Yin, et al. "Binocular just-noticeable-difference model for stereoscopic images." IEEE Signal Processing Letters 18.1 (2011): 19-22.* *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114040089A (en) * 2020-07-21 2022-02-11 Oppo广东移动通信有限公司 Image processing method, device, equipment and computer readable storage medium
CN112037142A (en) * 2020-08-24 2020-12-04 腾讯科技(深圳)有限公司 Image denoising method and device, computer and readable storage medium
CN112037142B (en) * 2020-08-24 2024-02-13 腾讯科技(深圳)有限公司 Image denoising method, device, computer and readable storage medium
CN117934353A (en) * 2024-03-20 2024-04-26 上海玄戒技术有限公司 Image processing method, device, equipment, storage medium and chip

Similar Documents

Publication Publication Date Title
US11790481B2 (en) Systems and methods for fusing images
US10997696B2 (en) Image processing method, apparatus and device
CN102227746B (en) Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus
US11526995B2 (en) Robust use of semantic segmentation for depth and disparity estimation
US9374571B2 (en) Image processing device, imaging device, and image processing method
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
KR102464523B1 (en) Method and apparatus for processing image property maps
JP2018084982A (en) Image processing apparatus, image processing method, and program
KR102020464B1 (en) Color-mono Dual Camera Image Fusion Method, System and Computer-readable Medium
US20130010073A1 (en) System and method for generating a depth map and fusing images from a camera array
US20180293745A1 (en) Method and apparatus for refining depth image
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
US10762664B2 (en) Multi-camera processor with feature matching
CN113518210B (en) Method and device for automatic white balance of image
US20220156954A1 (en) Stereo matching method, image processing chip and mobile vehicle
US9818199B2 (en) Method and apparatus for estimating depth of focused plenoptic data
US9483825B2 (en) Apparatus and method for estimating distance using dual off-axis color filter aperture
US8929685B2 (en) Device having image reconstructing function, method, and recording medium
JP6800650B2 (en) Reliability generator, reliability generator, and imaging device
WO2019105260A1 (en) Depth of field obtaining method, apparatus and device
JP5900017B2 (en) Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program
EP3224805B1 (en) Method and apparatus for estimating depth of unfocused plenoptic data
CN113177886B (en) Image processing method, device, computer equipment and readable storage medium
CN113781326A (en) Demosaicing method and device, electronic equipment and storage medium
US20170302868A1 (en) Image processing apparatus, image processing method, image capturing apparatus and image processing program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant