KR101629459B1 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
KR101629459B1
KR101629459B1 KR1020090106377A KR20090106377A KR101629459B1 KR 101629459 B1 KR101629459 B1 KR 101629459B1 KR 1020090106377 A KR1020090106377 A KR 1020090106377A KR 20090106377 A KR20090106377 A KR 20090106377A KR 101629459 B1 KR101629459 B1 KR 101629459B1
Authority
KR
South Korea
Prior art keywords
pixel
weight
image
depth
calculating
Prior art date
Application number
KR1020090106377A
Other languages
Korean (ko)
Other versions
KR20110049383A (en
Inventor
최욱
임화섭
강병민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090106377A priority Critical patent/KR101629459B1/en
Publication of KR20110049383A publication Critical patent/KR20110049383A/en
Application granted granted Critical
Publication of KR101629459B1 publication Critical patent/KR101629459B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

영상 처리 장치가 제공된다. 저해상도의 깊이 영상이 칼라 영상에 정합되고, 고해상도로 업샘플링 된다. 이 경우, 영상 처리 장치의, 가중치 계산부는 입력 깊이 영상의 제1 픽셀에 대해, 칼라 값의 차이, 깊이 값의 차이 및 픽셀 간 거리 중 적어도 하나에 기초하여, 상기 제1 픽셀의 주변의 적어도 하나의 픽셀의 각각에 대한 가중치를 계산한다.An image processing apparatus is provided. The low-resolution depth image is matched to the color image and upsampled to a high resolution. In this case, the weight calculation section of the image processing apparatus calculates, for the first pixel of the input depth image, at least one of the periphery of the first pixel based on at least one of a difference in color value, a difference in depth value, Of the pixel of interest.

깊이 영상, 영상 정합, 깊이 카메라, Depth image, Depth camera, Image matching Depth image, Image registration, Depth camera, Depth image, Depth camera, Image matching

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD}[0001] IMAGE PROCESSING APPARATUS AND METHOD [0002]

오브젝트에 대한 3차원 형상 정보를 얻기 위한 깊이 영상(depth image)을 이용한 영상 처리에 연관되며, 보다 특정하게는 깊이 영상의 해상도 조정, 정밀도 향상 등의 영상 처리에 연관된다.The present invention relates to image processing using a depth image for obtaining three-dimensional shape information on an object, and more particularly relates to image processing such as resolution adjustment and precision improvement of a depth image.

오브젝트(object)의 3D(3Dimensional) 정보는, 형상(geometry) 정보와 칼라(color) 정보로 이루어진다.The 3D (3D) information of the object is composed of geometry information and color information.

칼라 정보는 CCD(Charged Coupled Device)나 CMOS(Complementary Metal Oxide Semiconductor) 센서 기반의 카메라를 이용하여 생성된다.The color information is generated using a camera based on a CCD (Charged Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor.

한편, 형상 정보는 레이저를 이용한 3D 스캐너, 적외선 기반의 깊이 카메라(depth camera) 등을 이용하여 생성되며, 특히 간편한 이동성과 저렴한 비용 때문에 후자의 활용에 대한 관심이 높아지고 있다.On the other hand, the shape information is generated by using a 3D scanner using a laser, a depth camera based on an infrared ray, etc. Especially, the latter is getting more attention because of its simple mobility and low cost.

적외선(IR: Infra Red) 기반의 깊이 카메라는, 적외선을 오브젝트에 조사하여 되돌아 온 반사광을 감지하고, TOF(Time of Flight)를 측정함으로써 카메라와 상기 오브젝트까지의 거리(이것을 깊이(depth)라고 하여, 깊이 카메라, 깊이 영상이라는 용어를 사용한다)를 계산한다.An infrared (IR) -based depth camera measures the distance from the camera to the object by measuring the time of flight (TOF) by irradiating the object with infrared light and detecting the reflected light, , Depth camera, depth image) is calculated.

한편, 이러한 깊이 카메라의 해상도는 구현을 위한 기술적인 한계, 제조비용 상승 등의 이유 때문에, 상기한 CCD 또는 CMOS 센서 기반의 칼라 카메라의 해상도보다 현저히 낮다.On the other hand, the resolution of such a depth camera is significantly lower than the resolution of a CCD camera or a CMOS sensor based color camera due to technical limitations for implementation, increase in manufacturing cost, and the like.

저해상도의 깊이 영상을 고 해상도의 칼라 영상에 정합시키고 해상도를 높여서 고해상도의 깊이 영상을 생성하는 과정에서, 노이즈 특성을 개선하고 오류 발생을 줄인 영상 처리 장치 및 방법이 제공된다.There is provided an image processing apparatus and method that improves noise characteristics and reduces errors in a process of matching a low-resolution depth image with a high-resolution color image and increasing a resolution to generate a high-resolution depth image.

본 발명의 일측에 따르면, 입력 칼라 영상에 정합된 입력 깊이 영상의 제1 픽셀에 대해, 칼라 값의 차이, 깊이 값의 차이 및 픽셀 간 거리 중 적어도 하나에 기초하여, 상기 제1 픽셀의 주변의 적어도 하나의 픽셀의 각각에 대한 가중치를 계산하는 가중치 계산부, 및 상기 적어도 하나의 픽셀의 각각에 대한 가중치를 이용하여 상기 제1 픽셀의 보정된 깊이 값을 계산하는 가중치 적용부를 포함하는, 영상 처리 장치가 제공된다.According to an aspect of the present invention, there is provided a method for correcting an image of a first pixel of an input depth image matched to an input color image, based on at least one of a color value difference, And a weighting unit for calculating a corrected depth value of the first pixel using a weight for each of the at least one pixel, wherein the weighting unit calculates a weight for each of the at least one pixel, Device is provided.

여기서, 상기 가중치 계산부는, 상기 제1 픽셀의 칼라 값과 상기 적어도 하나의 픽셀의 각각의 칼라 값의 차이에 기초하여, 상기 적어도 하나의 픽셀의 각각의 제1 가중치를 계산하는 제1 계산부, 상기 제1 픽셀의 깊이 값과 상기 적어도 하나의 픽셀의 각각의 깊이 값의 차이에 기초하여, 상기 적어도 하나의 픽셀의 각각의 제2 가중치를 계산하는 제2 계산부, 상기 제1 픽셀과 상기 적어도 하나의 픽셀 의 각각의 거리를 비교하여, 상기 적어도 하나의 픽셀의 각각의 제3 가중치를 계산하는 제3 계산부, 및 상기 제1 가중치, 상기 제2 가중치, 및 상기 제3 가중치를 이용하여, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치를 계산하는 제4 계산부를 포함할 수 있다.The weight calculation unit may include a first calculation unit that calculates a first weight of each of the at least one pixel based on a difference between a color value of the first pixel and a color value of each of the at least one pixel, A second calculation unit for calculating a respective second weight of the at least one pixel based on a difference between a depth value of the first pixel and a depth value of each of the at least one pixel, A third calculation unit for comparing the respective distances of one pixel and calculating respective third weights of the at least one pixel, and a second calculation unit for calculating, using the first weight, the second weight, and the third weight, And a fourth calculation unit for calculating a final weight for each of the at least one pixel.

이 경우, 상기 제1 계산부는, 상기 제1 픽셀의 칼라 값과 상기 적어도 하나의 픽셀의 각각의 칼라 값의 차이가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제1 가중치는 지수적으로 감소되도록 상기 제1 가중치를 계산한다.In this case, as the difference between the color value of the first pixel and the color value of each of the at least one pixel increases, the first calculation unit determines that the first weight of each of the at least one pixel is exponentially decreasing The first weight is calculated.

그리고, 상기 제2 계산부는, 상기 제1 픽셀의 깊이 값과 상기 적어도 하나의 픽셀의 각각의 깊이 값의 차이가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제2 가중치는 지수적으로 감소되도록 상기 제2 가중치를 계산한다.The second calculation unit may calculate the second weight so that the second weight of each of the at least one pixel is exponentially decreased as the difference between the depth value of the first pixel and the depth value of each of the at least one pixel increases. And calculates the second weight.

한편, 상기 제3 계산부는, 상기 제1 픽셀과 상기 적어도 하나의 픽셀의 각각의 거리가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제3 가중치는 지수적으로 감소되도록 상기 제3 가중치를 계산한다.On the other hand, the third calculator calculates the third weight so that the third weight of each of the at least one pixel is exponentially decreased as the distance between the first pixel and the at least one pixel increases, do.

그러면, 상기 제4 계산부는, 상기 제1 가중치, 상기 제2 가중치, 및 상기 제3 가중치의 곱에 비례하도록, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치를 계산하며, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치의 합은 1이 되도록 상기 최종 가중치를 계산한다.The fourth calculator then calculates a final weight for each of the at least one pixel so as to be proportional to the product of the first weight, the second weight, and the third weight, The final weight is calculated such that the sum of the final weights for each is equal to one.

이 경우, 상기 가중치 적용부는, 상기 입력 깊이 영상의 제1 픽셀의 깊이 값에 대해, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치에 따른 마스크(Mask) 필터링을 수행하여, 상기 제1 픽셀의 보정된 깊이 값을 계산할 수 있다.In this case, the weight applying unit may perform mask filtering on the depth value of the first pixel of the input depth image according to the final weight of each of the at least one pixel, The depth value can be calculated.

한편, 상기 영상 처리 장치는, 상기 입력 깊이 영상이 상기 입력 칼라 영상에 정합된 것이 아닌 경우, 상기 입력 깊이 영상을 상기 입력 칼라 영상에 정합시키는 영상 정합부를 더 포함할 수 있다.The image processing apparatus may further include an image matching unit that matches the input depth image with the input color image when the input depth image is not matched with the input color image.

본 발명의 다른 일측에 따르면, 입력 칼라 영상에 정합된 입력 깊이 영상의 제1 픽셀에 대해, 칼라 값의 차이, 깊이 값의 차이 및 픽셀 간 거리 중 적어도 하나에 기초하여, 상기 제1 픽셀의 주변의 적어도 하나의 픽셀의 각각에 대한 가중치를 계산하는 단계, 및 상기 적어도 하나의 픽셀의 각각에 대한 가중치를 이용하여 상기 제1 픽셀의 보정된 깊이 값을 계산하는 단계를 포함하는, 영상 처리 방법이 제공된다.According to another aspect of the present invention, there is provided an image processing method including: a step of calculating, based on at least one of a color value difference, a depth value difference and an inter-pixel distance for a first pixel of an input depth image matched to an input color image, Calculating a weight for each of at least one pixel of the at least one pixel and calculating a corrected depth value of the first pixel using a weight for each of the at least one pixel, / RTI >

본 발명의 실시예들에 따르면, 저해상도의 깊이 영상을 고 해상도의 칼라 영상에 정합시키고 해상도를 높여서 고해상도의 깊이 영상을 생성하는 경우, 노이즈 특성을 개선되고 오류 발생을 줄어들어, 영상 처리 품질이 개선된다.According to embodiments of the present invention, when a low-resolution depth image is matched to a high-resolution color image and the resolution is increased to generate a high-resolution depth image, noise characteristics are improved, errors are reduced, and image processing quality is improved .

이하에서, 본 발명의 일부 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 영상 처리 장치(100)를 도시한다.FIG. 1 shows an image processing apparatus 100 according to an embodiment of the present invention.

영상 처리 장치(100)에 고해상도의 칼라 영상과 저해상도의 깊이 영상이 입력된다.A high-resolution color image and a low-resolution depth image are input to the image processing apparatus 100.

이 경우, 입력 깊이 영상이 상기 칼라 영상과 이미 정합된 것이 아닌 경우 에는, 영상 정합부(110)는 상기 입력 깊이 영상을 상기 입력 칼라 영상에 정합시킨다. 영상 정합 과정은 도 4를 참조하여 보다 상세히 후술한다.In this case, if the input depth image is not already matched with the color image, the image matching unit 110 matches the input depth image with the input color image. The image registration process will be described later in detail with reference to FIG.

그리고, 입력 칼라 영상에 정합된 입력 깊이 영상에 대한 업샘플링이 수행되며, 이 경우, 가중치 계산부(120)는 상기 입력 깊이 영상의 제1 픽셀에 대해 마스크 필터링을 위한 주변 픽셀들의 가중치들을 계산한다.Then, up-sampling is performed on the input depth image matched to the input color image. In this case, the weight calculation unit 120 calculates weights of peripheral pixels for mask filtering on the first pixel of the input depth image .

이러한 가중치 계산의 상세한 내용은 도 2, 도 6 내지 도 8을 참조하여 보다 상세히 후술한다.Details of this weight calculation will be described later in more detail with reference to FIG. 2, FIG. 6 to FIG. 8.

그러면, 가중치 적용부(130)는 계산된 가중치들을 이용하여 상기 제1 픽셀의 마스크 필터링을 수행하여, 상기 제1 픽셀의 깊이 값을 보정한다.Then, the weight applying unit 130 performs mask filtering of the first pixel using the calculated weights, and corrects the depth value of the first pixel.

이러한 과정은 도 8 및 도 12를 참조하여 보다 상세히 후술한다.This process will be described in more detail below with reference to FIGS. 8 and 12. FIG.

도 2는 본 발명의 일 실시예에 따른 영상 처리 장치(100)의 가중치 계산부(120)를 도시한다.2 shows a weight calculation unit 120 of the image processing apparatus 100 according to an embodiment of the present invention.

제1 계산부(210)는, 상기 업샘플링 된(upsampled) 깊이 영상의 제1 픽셀의 마스크 필터링을 위한 주변 픽셀들의 제1 가중치(이하에서는 칼라 레인지 가중치(color range weight)라고도 한다)를 계산한다. 칼라 레인지 가중치의 계산은 도 6을 참조하여 보다 상세히 후술한다.The first calculation unit 210 calculates a first weight (hereinafter, also referred to as a color range weight) of surrounding pixels for mask filtering of the first pixel of the upsampled depth image . Calculation of the color range weight is described in more detail below with reference to FIG.

그리고 제2 계산부(220)는, 상기 업샘플링 된 깊이 영상의 제1 픽셀의 마스크 필터링을 위한 주변 픽셀들의 제2 가중치(이하에서는 깊이 레인지 가중치(depth range weight)라고도 한다)를 계산한다. 깊이 레인지 가중치의 계산은 도 7을 참조하여 보다 상세히 후술한다.The second calculation unit 220 calculates a second weight (hereinafter, also referred to as a depth range weight) of surrounding pixels for mask filtering of the first pixel of the up-sampled depth image. The calculation of the depth range weight will be described in more detail below with reference to FIG.

그리고, 제3 계산부(230)는, 상기 업샘플링 된 깊이 영상의 제1 픽셀의 마스크 필터링을 위한 주변 픽셀들의 제3 가중치(이하에서는 거리 가중치(distance weight or position weight)라고도 한다)를 계산한다. 거리 가중치의 계산은 도 8을 참조하여 보다 상세히 후술한다.Then, the third calculator 230 calculates a third weight (hereinafter also referred to as a distance weight or position weight) of surrounding pixels for mask filtering of the first pixel of the up-sampled depth image . The calculation of the distance weight is described in more detail below with reference to FIG.

그리고, 제4 계산부(240)는, 상기 제1 가중치 내지 상기 제3 가중치를 이용하여, 상기 제1 픽셀의 주변 픽셀들에 적용될 최종 가중치를 계산한다. 상기 최종 가중치의 계산은 도 8 및 도 12를 참조하여 보다 상세히 후술한다.The fourth calculator 240 calculates a final weight to be applied to neighboring pixels of the first pixel using the first weight to the third weight. The calculation of the final weights will be described in more detail below with reference to Figures 8 and 12.

도 3은 본 발명의 일 실시예에 따라 입력되는 칼라 영상(300)을 도시한다.FIG. 3 illustrates an input color image 300 according to an embodiment of the present invention.

영상 처리 장치(100)로 입력된 입력 칼라 영상(300)은 해상도가 높다. 그리고 칼라 영상(300)의 픽셀들은 복수 개의 오브젝트들 중 어느 하나에 대응된다.The input color image 300 input to the image processing apparatus 100 has a high resolution. And the pixels of the color image 300 correspond to any one of the plurality of objects.

이를 테면, 일부 픽셀들은 인체(human body) 부분(310)에 대응되며, 다른 일부 픽셀들은 벽 부분(320) 그리고 또 다른 일부 픽셀들은 바닥 부분(330)에 대응된다.For example, some pixels correspond to the human body portion 310, some other pixels correspond to the wall portion 320, and some other pixels correspond to the bottom portion 330.

기존의 영상 세그먼테이션(segmentation)에 의하면, 칼라 영상(300)의 칼라 값 분석에 기초하여, 상기 칼라 영상(300)의 각 픽셀들을 복수 개로 분리할 수 있다.According to the conventional image segmentation, each pixel of the color image 300 can be divided into a plurality of pixels based on the color value analysis of the color image 300.

그리고, 이러한 칼라 영상(300)에 정합된 깊이 영상에 대해, 상기 칼라 영상(300)의 세그먼테이션 결과를 이용하여 깊이 값의 보정이 수행될 수 있다.Correction of the depth value can be performed using the segmentation result of the color image 300 with respect to the depth image matched to the color image 300.

그러나, 칼라 영상(300)과 깊이 영상이 정합된 경우에도, 깊이 카메라의 하드웨어적 성능 한계로 인해, 칼라 영상(300)과 깊이 영상에 있어서 각 영역의 테두 리(edge)는 정확히 일치하지 않을 수 있다.However, even if the color image 300 is matched with the depth image, due to the hardware performance limitation of the depth camera, the edge of each area in the color image 300 and the depth image may not be exactly the same have.

따라서, 칼라 영상(300)의 칼라 값 분석에 따라 깊이 영상을 보정하는 경우, 특히 영역의 테두리 부분에 있어서 부정확한 결과가 도출될 수 있다.Accordingly, in the case of correcting the depth image according to the color value analysis of the color image 300, in particular, an inaccurate result can be obtained at the edge portion of the region.

본 발명의 일 실시예에 따르면, 영상 처리 장치(100)는 상기 깊이 영상을 고해상도로 업샘플링하고, 이를 보정하여 높은 품질의 결과를 도출함에 있어서, 상기 칼라 영상(300)의 칼라 값뿐만 아니라, 업샘플된 깊이 영상의 깊이 값, 그리고 보정될 픽셀들 사이의 거리 차이에 기초하여 깊이 영상을 보정한다.According to an embodiment of the present invention, the image processing apparatus 100 upsamples the depth image to a high resolution and corrects the depth image to obtain a high quality result. In addition, the image processing apparatus 100 may not only calculate the color value of the color image 300, Corrects the depth image based on the depth value of the upsampled depth image and the distance difference between the pixels to be corrected.

보다 상세한 내용은 도 4 이하를 참조하여 후술한다.More details will be described later with reference to FIG. 4 and the following.

도 4는 본 발명의 일 실시예에 따라 입력되는 저해상도의 깊이 영상(400)을 도시한다.FIG. 4 illustrates a low-resolution depth image 400 input according to an embodiment of the present invention.

앞서 언급한 깊이 카메라의 하드웨어적 한계 때문에, 입력되는 깊이 영상(400)은 상기 칼라 영상(300)보다 해상도가 낮다.Due to the hardware limitations of the depth camera described above, the input depth image 400 has a lower resolution than the color image 300.

한편, 이하에서는 깊이 영상(400)이 칼라 영상(300)보다 해상도는 낮지만, 두 영상은 정합(matching)된 것임을 전제로 서술한다. 즉, 깊이 영상(400)의 촬영 시점(point of view)은 칼라 영상(300)의 촬영 시점과 동일하고, 깊이 카메라와 오브젝트들의 거리도 칼라 카메라의 경우와 동일한 것임을 전제로 서술한다.In the following description, it is assumed that the depth image 400 is lower in resolution than the color image 300, but the two images are matched. That is, it is assumed that the point of view of the depth image 400 is the same as that of the color image 300, and the distance between the depth camera and the object is the same as that of the color camera.

그러나, 만약 영상 처리 장치(100)에 입력되는 깊이 영상이 칼라 영상(300)에 정합되지 않은 것인 경우에는, 영상 처리 장치(100)의 영상 정합부(110)가 입력된 깊이 영상을 칼라 영상(300)에 정합시키는 과정이 요구된다.However, if the depth image input to the image processing apparatus 100 is not matched to the color image 300, the depth image input by the image matching unit 110 of the image processing apparatus 100 is converted into a color image (300) is required.

이러한 영상 정합 과정은, 칼라 영상(300)과 이에 정합되지 않은 체 입력된 깊이 영상(도시되지 않음)의 각각에 대하여, 특징점(feature point)들을 추출하고, 이들의 좌표 간의 변환 함수, 또는 변환 행렬을 구하고, 구해진 변환 함수(또는 변환 행렬)를 상기 입력 깊이 영상의 전체 픽셀에 적용함으로써 수행될 수 있다.In this image matching process, feature points are extracted for each of the color image 300 and a depth image (not shown) that is not matched with the color image 300, and a conversion function between the coordinates of the feature points or a conversion matrix , And applying the obtained transform function (or transformation matrix) to all the pixels of the input depth image.

그러나, 본 발명이 일부의 영상 정합 방법에 의한 것으로 한정되는 것은 아니며, 입력 깊이 영상과 칼라 영상 사이의 영상 정합은 다양한 방법에 의해 수행될 수도 있다. 따라서 상기한 바와 같이 이하에서는, 영상 처리 장치(100)에 칼라 영상(300)과 정합된 깊이 영상(400)이 입력된 경우를 전제한 실시예가 설명된다.However, the present invention is not limited to the partial image matching method, and the image matching between the input depth image and the color image may be performed by various methods. Therefore, as described above, an embodiment assuming that the depth image 400 matched with the color image 300 is input to the image processing apparatus 100 will be described below.

입력 깊이 영상(400)은 해상도가 상기 칼라 영상(300)보다 낮다. 그러나 두 영상은 서로 정합되어 있기 때문에, 상기 입력 깊이 영상(400)의 해상도를 상기 칼라 영상(300)의 해상도에 맞추어 업샘플링(upsampling)하더라도 이러한 정합은 유지된다.The input depth image 400 has a lower resolution than the color image 300. However, since the two images are matched with each other, even if the resolution of the input depth image 400 is upsampled to the resolution of the color image 300, such matching is maintained.

다만, 업샘플링 과정에 있어서, 별다른 영상 처리 과정이 수행되지 않으면, 업샘플 된 깊이 영상의 품질은 매우 낮다.However, if no image processing is performed in the upsampling process, the quality of the upsampled depth image is very low.

구체적으로, 인체 부분(410), 벽 부분(420) 및 바닥 부분(430)들의 테두리(edge)가 뭉개져 있으며(blurred), 노이즈로 인한 왜곡이 더 많이 관찰된다.Specifically, the edges of the body part 410, the wall part 420, and the bottom part 430 are blurred, and more distortion due to noise is observed.

도 5는 본 발명의 일 실시예에 따라, 도 4의 깊이 영상(400)을 업샘플링하여 도 3의 칼라 영상(300)과 동일한 해상도를 갖도록 생성된 깊이 영상(500)을 도시한다.FIG. 5 illustrates a depth image 500 generated by upsampling the depth image 400 of FIG. 4 and having the same resolution as the color image 300 of FIG. 3, according to an embodiment of the present invention.

깊이 영상(500)의 인체 부분(510), 벽 부분(520) 및 바닥 부분(530)들의 테두리는 뭉개져서 관찰되며, 노이즈로 인해 테두리가 매끄럽지 못하게 왜곡된 부 분(541)도 관찰된다.The edges of the human body portion 510, the wall portion 520 and the bottom portion 530 of the depth image 500 are observed to be crushed and a portion 541 which is not distorted smoothly due to noise is also observed.

본 발명의 일 실시예에 따르면, 업 샘플링 과정에서의 이러한 품질 열화가 마스크 필터링(Mask filtering)을 통하여 개선된다.According to an embodiment of the present invention, this quality deterioration in the up-sampling process is improved through mask filtering.

영상 처리 장치(100)의 가중치 계산부(120)는 상기 마스크 필터링을 위한 마스크의 엘리먼트들의 값, 즉 가중치를 계산한다.The weight calculation unit 120 of the image processing apparatus 100 calculates the values of the elements of the mask for mask filtering, that is, the weights.

마스크 필터링을 위한 마스크는, 이를테면 3x3 또는 5x5 크기의 행렬로 결정되는데, 이러한 행렬을 구성하는 각 엘리먼트들이 마스크 필터링을 위한 가중치들이 된다.The mask for mask filtering is determined, for example, as a matrix of 3x3 or 5x5 size, and each element constituting this matrix is a weight for mask filtering.

이를 테면, 3x3 크기의 마스크가, [0.1, 0.1, 0.1; 0.1, 0.2, 0.1; 0.1, 0.1, 0.1]이라면, 이 마스크를 적용한 결과는, 특정 픽셀을 둘러싸는 8개의 픽셀들의 픽셀 값에 각각 0.1의 가중치를 부여하고, 상기 특정 픽셀 스스로에는 0.2의 가중치를 부여한 다음, 상기 특정 픽셀의 보정된(필터링 된) 픽셀 값을 상기 가중치들이 곱해진 9 개의 픽셀 값의 합(weighted sum)으로서 계산한다.For example, a mask of size 3x3 is used [0.1, 0.1, 0.1; 0.1, 0.2, 0.1; 0.1, 0.1, 0.1], the result of applying this mask is that a pixel value of eight pixels surrounding a specific pixel is given a weight of 0.1, a specific pixel itself is given a weight of 0.2, As the weighted sum of the nine pixel values multiplied by the weights.

이러한 마스크 필터링의 기본적 내용은 영상 처리 분야의 통상의 지식을 가지는 자에게는 자명한 것이므로, 보다 상세한 기술은 생략한다.The basic contents of the mask filtering are obvious to those skilled in the art of image processing, so that detailed description is omitted.

본 발명의 일 실시예에 따르면, 깊이 영상(500)의 각 픽셀의 깊이 값을 보정하기 위한 마스크의 엘리먼트인 가중치들을 계산하기 위해, 깊이 영상(500)에 대응하는 칼라 영상(300)의 픽셀 값, 깊이 영상(500)의 깊이 값, 및 픽셀 간 거리를 고려하여 상기 마스크의 엘리먼트인 가중치들이 고려된다.According to an embodiment of the present invention, in order to calculate weights, which are elements of a mask for correcting the depth value of each pixel of the depth image 500, the pixel value of the color image 300 corresponding to the depth image 500 The depth value of the depth image 500, and the inter-pixel distance are taken into account.

도 6은 본 발명의 일 실시예에 따라, 픽셀 간 칼라 값의 차이와 제1 가중치 의 관계를 도시하는 그래프(600)이다.6 is a graph 600 illustrating the relationship between the difference in pixel color values and the first weight, in accordance with an embodiment of the present invention.

가중치 계산부(120)의 제1 계산부(210)는 깊이 영상(500) 내의 제1 픽셀에 대해, 상기 제1 픽셀과 동일한 인덱스를 갖는 칼라 영상(300)의 칼라 값과 주변 픽셀들의 칼라 값들의 차이에 기초하여, 칼라 레인지(color range) 가중치를 계산한다.The first calculation unit 210 of the weight calculation unit 120 calculates the color value of the color image 300 having the same index as the first pixel and the color value of the surrounding pixels The color range weight is calculated based on the difference of the color range.

만약 마스크의 크기가 5x5인 경우, 상기 제1 픽셀 스스로의 칼라 값과의 차이에 기초하여, 상기 제1 픽셀 주변의 24개 픽셀들에 적용될 칼라 레인지 가중치들이 계산된다.If the size of the mask is 5x5, the color range weights to be applied to the 24 pixels around the first pixel are calculated based on the difference from the color value of the first pixel itself.

본 발명의 일 실시예에 따르면, 좌표가 (i, j)인 제1 픽셀의 칼라 값을 C(i, j)이라 하고, 상기 제1 픽셀의 주변 픽셀인 좌표 (m, n) 픽셀의 칼라 값을 C(m, n)라 하면, C(i, j)와 C(m, n)의 차(difference)가 증가할수록 상기 주변 픽셀에 적용되는 제1 가중치는 지수적으로 감소한다.According to an embodiment of the present invention, a color value of a first pixel having coordinates (i, j) is referred to as C (i, j) (M, n), the first weight applied to the neighboring pixels decreases exponentially as the difference between C (i, j) and C (m, n) increases.

이를 테면, 칼라 값의 차이와 제1 가중치 Wc(m, n) 사이에는 다음 수학식이 성립한다.For example, the following equation holds between the difference in color value and the first weight Wc (m, n).

[수학식 1][Equation 1]

Figure 112009068044106-pat00001
Figure 112009068044106-pat00001

여기서

Figure 112009068044106-pat00002
는 칼라 값의 차이가 증가할수록 제1 가중치 Wc(m, n)가 지수적 으로 감소하는 정도를 조절하기 위한 상수이며, 실시예에 따라 다르게 설정될 수 있다.here
Figure 112009068044106-pat00002
Is a constant for adjusting the degree to which the first weight Wc (m, n) decreases exponentially as the difference in color values increases, and may be set differently according to the embodiment.

상기 실시예에서는 칼라 값의 칼라 스페이스(color space) 상의 거리 차이를 이용하는 방법 등에 의하여, 칼라 값이 단일의 값으로 표현되고, 서로 비교될 수 있는 경우를 설명하였다.In the above embodiment, the color values are represented by a single value and can be compared with each other by a method of using a distance difference on a color space of color values.

그러나, 본 발명의 다른 일 실시예에 의하면, 상기 칼라 값은 R(Red), G(Green), 및 B(Blue)의 각 채널 별로 비교될 수 있으며, 이 경우에는 칼라 레인지 가중치가 상기 세 개의 채널 별로 계산된 다음 이들의 산술 평균에 의해 최종 칼라 레인지 가중치가 계산될 수 있다.However, according to another embodiment of the present invention, the color value may be compared for each channel of R (Red), G (Green), and B (Blue). In this case, The final color range weight can be calculated by the arithmetic mean of each channel and then calculated.

이 경우는 다음 수학식에 의해 이해될 수 있다.This case can be understood by the following equation.

[수학식 2]&Quot; (2) "

Figure 112009068044106-pat00003
Figure 112009068044106-pat00003

도 7은 본 발명의 일 실시예에 따라, 픽셀 간 깊이 값의 차이와 제2 가중치의 관계를 도시하는 그래프(700)이다.Figure 7 is a graph 700 illustrating the relationship between the difference in pixel depth values and the second weight, in accordance with an embodiment of the present invention.

가중치 계산부(120)의 제2 계산부(220)는 깊이 영상(500) 내의 제1 픽셀에 대해, 상기 제1 픽셀과 주변 픽셀들의 깊이 값들의 차이에 기초하여, 깊이 레인 지(depth range) 가중치를 계산한다.The second calculation unit 220 of the weight calculation unit 120 calculates a depth range based on the difference between the depth values of the first pixel and the surrounding pixels for the first pixel in the depth image 500, Calculate the weights.

상기한 바와 같이, 만약 마스크의 크기가 5x5인 경우, 상기 제1 픽셀 스스로의 깊이 값과의 차이에 기초하여, 상기 제1 픽셀 주변의 24개 픽셀들에 적용될 깊이 레인지 가중치들이 계산된다.As described above, if the mask size is 5x5, the depth range weights to be applied to the 24 pixels around the first pixel are calculated based on the difference from the depth value of the first pixel itself.

본 발명의 일 실시예에 따르면, 좌표가 (i, j)인 제1 픽셀의 깊이 값을 D(i, j)이라 하고, 상기 제1 픽셀의 주변 픽셀인 좌표 (m, n) 픽셀의 깊이 값을 D(m, n)라 하면, D(i, j)와 D(m, n)의 차가 증가할수록 상기 주변 픽셀에 적용되는 제2 가중치는 지수적으로 감소한다.According to an embodiment of the present invention, a depth value of a first pixel having coordinates (i, j) is referred to as D (i, j) (M, n), the second weight applied to the neighboring pixels decreases exponentially as the difference between D (i, j) and D (m, n) increases.

이를 테면, 깊이 값의 차이와 제2 가중치 Wd(m, n) 사이에는 다음 수학식이 성립한다.For example, the following equation holds between the difference in depth value and the second weight Wd (m, n).

[수학식 3]&Quot; (3) "

Figure 112009068044106-pat00004
Figure 112009068044106-pat00004

여기서

Figure 112009068044106-pat00005
는 깊이 값의 차이가 증가할수록 제2 가중치 Wd(m, n)가 지수적으로 감소하는 정도를 조절하기 위한 상수이며, 실시예에 따라 다르게 설정될 수 있다.here
Figure 112009068044106-pat00005
Is a constant for adjusting the degree to which the second weight Wd (m, n) decreases exponentially as the difference in depth value increases, and may be set differently according to the embodiment.

도 8은 본 발명의 일 실시예에 따라, 픽셀 간 거리와 제3 가중치의 관계를 도시하는 그래프(800)이다.8 is a graph 800 illustrating the relationship between the inter-pixel distance and the third weight, in accordance with an embodiment of the present invention.

가중치 계산부(120)의 제3 계산부(230)는 깊이 영상(500) 내의 제1 픽셀에 대해, 상기 제1 픽셀과 주변 픽셀들 사이의 거리에 기초하여, 거리 가중치를 계산한다.The third calculation unit 230 of the weight calculation unit 120 calculates a distance weight for a first pixel in the depth image 500 based on the distance between the first pixel and the surrounding pixels.

상기한 바와 같이, 만약 마스크의 크기가 5x5인 경우, 상기 제1 픽셀 스스로의 위치와의 거리에 기초하여, 상기 제1 픽셀 주변의 24개 픽셀들에 적용될 거리 가중치들이 계산된다.As described above, if the size of the mask is 5x5, the distance weights to be applied to the 24 pixels around the first pixel are calculated based on the distance to the position of the first pixel itself.

본 발명의 일 실시예에 따르면, 좌표가 (i, j)인 제1 픽셀의 주변 픽셀인 좌표 (m, n) 픽셀의 경우, 좌표 값 (i, j)와 좌표 값(m, n)의 거리가 증가할수록 상기 주변 픽셀에 적용되는 제3 가중치는 지수적으로 감소한다.According to an embodiment of the present invention, the coordinate value (i, j) and the coordinate value (m, n) of the coordinate (m, n) As the distance increases, the third weight applied to the surrounding pixels exponentially decreases.

이를 테면, 픽셀 간 거리와 제3 가중치 Wp(m, n) 사이에는 다음 수학식이 성립한다.For example, the following equation holds between the pixel-to-pixel distance and the third weight Wp (m, n).

[수학식 4]&Quot; (4) "

Figure 112009068044106-pat00006
Figure 112009068044106-pat00006

여기서

Figure 112009068044106-pat00007
는 픽셀 간의 거리가 증가할수록 제3 가중치 Wp(m, n)가 지수적으로 감소하는 정도를 조절하기 위한 상수이며, 실시예에 따라 다르게 설정될 수 있다.here
Figure 112009068044106-pat00007
Is a constant for adjusting the degree to which the third weight Wp (m, n) decreases exponentially as the distance between the pixels increases, and may be set differently according to the embodiment.

이렇게 제1 가중치 Wc(m, n), 제2 가중치 Wd(m, n) 및 제3 가중치 Wp(m, n) 이 계산되면, 상기 가중치 계산부(120)의 제4 계산부(240)는 깊이 영상(500) 내의 제1 픽셀의 주변 픽셀들 각각에 적용될 최종 가중치를 계산한다.When the first weight Wc (m, n), the second weight Wd (m, n) and the third weight Wp (m, n) are calculated as described above, the fourth calculator 240 of the weight calculator 120 calculates A final weight to be applied to each of the peripheral pixels of the first pixel in the depth image 500 is calculated.

본 발명의 일 실시예에 따르면, 상기 최종 가중치는 제1 가중치 Wc(m, n), 제2 가중치 Wd(m, n) 및 제3 가중치 Wp(m, n)의 곱에 비례하도록 결정되며, 이 경우 마스크 필터링에 들어가는 전체 최종 가중치의 합은 1이 되도록 규준화 된다(normalized).According to one embodiment of the present invention, the final weight is determined to be proportional to the product of the first weight Wc (m, n), the second weight Wd (m, n) and the third weight Wp (m, n) In this case, the sum of the total final weights entering the mask filtering is normalized to be one.

상기 제4 계산부(240)의 최종 가중치 WCDP(m, n) 의 계산은, 이를테면 다음 수학식에 의한다.The calculation of the final weight W CDP (m, n) of the fourth calculator 240 is, for example, according to the following equation.

[수학식 5]&Quot; (5) "

Figure 112009068044106-pat00008
Figure 112009068044106-pat00008

이 최종 가중치 WCDP(m, n)를 간단히 w(m, n)으로 표현하면, 상기 영상 처리 장치(100)의 가중치 적용부(130)는, 깊이 영상(500)의 좌표 (i, j) 위치 제1 픽셀의 깊이 값을 다음과 같이 보정한다.If the final weight W CDP (m, n) is expressed simply as w (m, n), the weight applying unit 130 of the image processing apparatus 100 calculates the coordinates (i, j) The depth value of the position first pixel is corrected as follows.

[수학식 6]&Quot; (6) "

Figure 112009068044106-pat00009
Figure 112009068044106-pat00009

여기서,

Figure 112009068044106-pat00010
으로 규준화되어 있음은 상기한 바와 같다.here,
Figure 112009068044106-pat00010
As described above.

상기한 과정의 이해를 돕기 위해, 상기 깊이 영상(500)과 별개로, 1차원 인덱스로 표시되는 깊이 픽셀들 및 이와 매칭된 칼라 픽셀들에 대해, 상기한 과정을 적용하는 모습이 도 9 내지 도 11을 참조하여 서술된다.In order to facilitate the understanding of the above process, the process of applying the above process to the depth pixels indicated by the one-dimensional index and the matched color pixels separately from the depth image 500 is described with reference to FIGS. 11.

도 9는 본 발명의 일 실시예에 따라, 픽셀 인덱스에 따른 칼라 값의 변화를 도시하는 그래프(900)이다.9 is a graph 900 illustrating a change in color value according to a pixel index, in accordance with an embodiment of the present invention.

픽셀 인덱스에 따라 칼라 값이 약 100에서 약 0으로 변화되는 모습이 관찰된다. 이 경우, 칼라 값의 감소는 픽셀 인덱스가 약 11에서 약 15인 부분에서 두드러지는데, 이 사이에 서로 다른 부분(이를 테면, 도 3의 사람 부분과 벽 부분)의 경계가 위치하는 것으로 이해될 수 있다.The color value is changed from about 100 to about 0 according to the pixel index. In this case, the reduction of the color value is prominent in the portion where the pixel index is about 11 to about 15, and it can be understood that the boundary between the different portions (for example, the human portion and the wall portion in Fig. 3) have.

도 10은 본 발명의 일 실시예에 따라, 픽셀 인덱스에 따른 깊이 값의 변화를 도시하는 그래프(1000)이다.FIG. 10 is a graph 1000 illustrating a change in depth value according to a pixel index, in accordance with an embodiment of the present invention.

픽셀 인덱스에 따라 깊이 값이 약 3에서 약 5로 변화되는 모습이 관찰된다. 이 경우, 깊이 값의 증가는 픽셀 인덱스가 약 20에서 약 25인 부분에서 두드러지는 데, 이 사이에 서로 다른 부분의 경계가 위치하는 것으로 이해될 수 있다.A change in the depth value from about 3 to about 5 is observed according to the pixel index. In this case, the increase in the depth value is prominent in the portion where the pixel index is from about 20 to about 25, and it can be understood that the boundary of different portions is located therebetween.

앞선 도 9의 픽셀 인덱스와 도 10의 픽셀 인덱스는 매칭된 것이지만, 깊이 값 획득과 업샘플링 과정의 오류로 인하여 경계가 서로 일치하지 않는 것으로 이해될 수 있다.The pixel indices of FIG. 9 and FIG. 10 are matched, but it can be understood that the boundaries do not coincide with each other due to errors in the depth value acquisition and the upsampling process.

또한, 깊이 값의 증가하는 부분(1020) 외에도, 깊이 값이 계속 변화하는 부분(1010 및 1020)은 노이즈 때문에 깊이 값이 일정하지 않고 변화하는 것으로 이해될 수 있다.Further, in addition to the increasing portion 1020 of the depth value, it can be understood that the portions 1010 and 1020 where the depth value continuously changes are changed because the depth value is not constant due to noise.

도 11은 본 발명의 일 실시예에 따른 영상 처리 장치(100)에 의해, 도 10의 깊이 값이 보정된 결과를 도시하는 그래프(1100)이다.11 is a graph 1100 showing a result of correcting the depth value of FIG. 10 by the image processing apparatus 100 according to an embodiment of the present invention.

상기 영상 처리 장치(100)의 가중치 계산부(120)는 칼라 값의 차이, 깊이 값의 차이 및 픽셀 거리를 고려하여, 상기 수학식 1 내지 수학식 5를 참조하여 설명한 과정에 따라 최종 가중치를 구한다.The weight calculation unit 120 of the image processing apparatus 100 calculates a final weight according to the procedure described with reference to Equations 1 to 5 in consideration of a difference in color values, a difference in depth values, and a pixel distance .

그리고, 상기 영상 처리 장치(100)의 가중치 적용부(130)는 상기 최종 가중치에 따른 마스크 필터링을 수행하여, 깊이 값 그래프(1000)를 깊이 값 그래프(1100)의 형태로 보정한다.The weight applying unit 130 of the image processing apparatus 100 performs mask filtering according to the final weight to correct the depth value graph 1000 in the form of a depth value graph 1100.

부분 경계의 경우 큰 변화가 발생되지 않았으나, 전체적으로 픽셀의 깊이 값 노이즈가 많이 감소된 것을 관찰할 수 있다. 실제 깊이 영상에 적용되는 경우, 깊이 영상 내의 서로 다른 오브젝트를 나타내는 경계의 위치도 수정되어 전체적인 품질 향상이 기대된다.In the case of the partial boundary, no significant change has occurred, but it can be observed that the depth value noise of the pixel is greatly reduced as a whole. When applied to an actual depth image, the position of the boundary indicating different objects in the depth image is also modified, and the overall quality improvement is expected.

도 12는 본 발명의 일 실시예에 따른 영상 처리 장치(100)에 의해, 도 5의 깊이 영상(500)을 보정하여 생성되는 깊이 영상(1200)을 도시한다.FIG. 12 shows a depth image 1200 generated by correcting the depth image 500 of FIG. 5 by the image processing apparatus 100 according to an embodiment of the present invention.

상기 수학식 1 내지 수학식 5를 참조하여 설명한 바와 같이 가중치 계산부(120)가 깊이 영상(500)의 제1 픽셀에 대해, 마스크 필터의 각 엘리먼트들, 즉 주변 픽셀들에 적용될 가중치들을 구하고, 가중치 적용부(130)가 상기 마스크 필터를 깊이 영상(500)의 제1 픽셀에 적용한다.As described above with reference to Equations 1 to 5, the weight calculation unit 120 calculates weights to be applied to the respective elements of the mask filter, i.e., neighboring pixels, with respect to the first pixel of the depth image 500, The weighting unit 130 applies the mask filter to the first pixel of the depth image 500. [

이러한 마스크 필터의 계산과 마스크 필터의 적용을, 깊이 영상(500)의 전체 픽셀에 대해 적용하면, 보정된 깊이 영상(1200)이 생성된다.When the calculation of the mask filter and the application of the mask filter are applied to all the pixels of the depth image 500, the corrected depth image 1200 is generated.

깊이 영상(500)에서 테두리(edge)의 오류가 발견되었던 부분(541)이 개선된 부분(1241)이 관찰된다.The improved portion 1241 of the portion 541 where an error of the edge is found in the depth image 500 is observed.

이러한 테두리 오류의 개선에 더하여, 상기한 경계선의 뭉개짐(blurring)의 개선, 노이즈 감소 등의 효과가 있을 수 있다. 따라서, 각 오브젝트 부분들(1210 내지 1230)이 명확하고 정확하게 표현된다.In addition to the improvement of the border error, it is possible to improve the blurring of the border line and to reduce the noise. Thus, each object portion 1210 to 1230 is expressed clearly and accurately.

도 13은 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.13 illustrates an image processing method according to an embodiment of the present invention.

영상 처리 장치(100)에 고해상도의 칼라 영상(300)과 저해상도의 깊이 영상(400)이 입력된다.A high-resolution color image 300 and a low-resolution depth image 400 are input to the image processing apparatus 100.

이 경우, 상기 도 4의 입력 깊이 영상(400)과 같이, 상기 칼라 영상(300)과 이미 정합된 것이 입력되는 경우라면, 단계(1310)은 생략될 수 있다.In this case, as in the case of the input depth image 400 of FIG. 4, if the already matched color image 300 is input, step 1310 may be omitted.

그러나, 정합되지 않은 깊이 영상(도시되지 않음)이 입력되는 경우라면, 단계(1310)에서 깊이 영상이 칼라 영상(300)에 정합되어, 정합된 깊이 영상(400)이 가중치 계산부(120)에 제공된다.However, if an unmatched depth image (not shown) is input, the depth image is matched to the color image 300 in step 1310, and the matched depth image 400 is input to the weight calculation unit 120 / RTI >

그리고, 깊이 영상(400)에 대한 업샘플링이 수행되어 깊이 영상(500)이 생성되고, 가중치 계산부(120)는 단계(S1320)에서, 깊이 영상(500)의 제1 픽셀에 대해 마스크 필터링을 위한 주변 픽셀들의 가중치들을 계산한다.Then, up-sampling of the depth image 400 is performed to generate a depth image 500, and the weight calculation unit 120 performs mask filtering on the first pixel of the depth image 500 in step S1320 ≪ / RTI >

이러한 가중치 계산의 상세한 내용은 도 6 내지 도 8, 그리고 수학식 1 내지 수학식 5를 참조하여 상술한 바와 같다.Details of this weight calculation are as described above with reference to Figs. 6 to 8, and Equations 1 to 5.

그러면, 단계(S1330)에서, 가중치 적용부(130)는 계산된 가중치들을 이용하여 상기 제1 픽셀의 마스크 필터링을 수행하고, 따라서 상기 제1 픽셀의 깊이 값을 보정한다.Then, in step S1330, the weight applying unit 130 performs mask filtering of the first pixel using the calculated weights, thereby correcting the depth value of the first pixel.

이러한 과정은 수학식 6을 참조하여 상술한 바와 같다.This process is as described above with reference to Equation (6).

도 14는 본 발명의 일 실시예에 따른 영상 처리 방법의 가중치 계산 단계(S1320)를 도시한다.FIG. 14 shows a weight calculation step (S1320) of an image processing method according to an embodiment of the present invention.

단계(S1410)에서 깊이 영상(500)의 제1 픽셀의 마스크 필터링을 위한 주변 픽셀들의 칼라 레인지 가중치가 영상 처리 장치(100)의 제1 계산부(210)에 의해 계산된다. 칼라 레인지 가중치의 계산은 수학식 1 내지 수학식 2를 참조하여 상술한 바와 같다.The color range weight of peripheral pixels for mask filtering of the first pixel of the depth image 500 is calculated by the first calculation unit 210 of the image processing apparatus 100 in step S1410. The calculation of the color range weight is as described above with reference to equations (1) to (2).

그리고 단계(S1420)에서 깊이 영상(500)의 제1 픽셀의 마스크 필터링을 위한 주변 픽셀들의 깊이 레인지 가중치가 영상 처리 장치(100)의 제2 계산부(220)에 의해 계산된다. 깊이 레인지 가중치의 계산은 수학식 3을 참조하여 상술한 바와 같다.In step S1420, a depth range weight of peripheral pixels for mask filtering of the first pixel of the depth image 500 is calculated by the second calculation unit 220 of the image processing apparatus 100. [ The calculation of the depth range weight is as described above with reference to Equation (3).

그리고 단계(S1430)에서 깊이 영상(500)의 제1 픽셀의 마스크 필터링을 위 한 주변 픽셀들의 거리 가중치가 영상 처리 장치(100)의 제3 계산부(230)에 의해 계산된다. 거리 가중치의 계산은 수학식 4를 참조하여 상술한 바와 같다.In step S1430, a distance weight of neighboring pixels for mask filtering of the first pixel of the depth image 500 is calculated by the third calculation unit 230 of the image processing apparatus 100. [ The calculation of the distance weight is as described above with reference to Equation (4).

한편, 단계(S1410) 내지 단계(S1430)의 수행 순서의 선후는 없으며, 동시에 또는 순차적으로 수행될 수 있다.On the other hand, there is no precedence of the execution sequence of the steps S1410 to S1430, and can be performed simultaneously or sequentially.

이렇게 제1 픽셀의 주변 픽셀들에 적용될 칼라 레인지 가중치, 깊이 레인지 가중치, 및 거리 가중치가 계산되면, 단계(S1440)에서 상기 제1 픽셀의 주변 픽셀들에 적용될 최종 가중치가 영상 처리 장치(100)의 제4 계산부(240)에 의해 계산된다. 최종 가중치의 계산은 수학식 5를 참조하여 상술한 바와 같다.When the color range weight, the depth range weight, and the distance weight to be applied to the neighboring pixels of the first pixel are calculated, the final weight to be applied to the neighboring pixels of the first pixel is calculated in step S1440, And is calculated by the fourth calculation unit 240. The calculation of the final weight is as described above with reference to Equation (5).

계산된 최종 가중치를 이용하여 제1 픽셀의 깊이 값이 보정되는 과정은, 수학식 6 및 도 12를 참조하여 상기한 바와 같다.The process of correcting the depth value of the first pixel using the calculated final weight is as described above with reference to Equations (6) and (12).

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment of the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 도시한다.FIG. 1 illustrates an image processing apparatus according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 영상 처리 장치의 가중치 계산부를 도시한다.2 shows a weight calculation unit of the image processing apparatus according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따라 입력되는 칼라 영상을 도시한다.FIG. 3 illustrates an input color image according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따라 입력되는 저해상도의 깊이 영상을 도시한다.FIG. 4 illustrates a low-resolution depth image input according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따라, 도 4의 깊이 영상을 업샘플링하여 도 3의 칼라 영상과 동일한 해상도를 갖도록 생성된 깊이 영상을 도시한다.FIG. 5 illustrates a depth image generated by upsampling the depth image of FIG. 4 and having the same resolution as the color image of FIG. 3, according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따라, 픽셀 간 칼라 값의 차이와 제1 가중치의 관계를 도시하는 그래프이다.6 is a graph showing a relationship between a difference between pixel values of a pixel and a first weight according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따라, 픽셀 간 깊이 값의 차이와 제2 가중치의 관계를 도시하는 그래프이다.7 is a graph showing a relationship between a difference between depths of pixels and a second weight according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따라, 픽셀 간 거리와 제3 가중치의 관계를 도시하는 그래프이다.8 is a graph showing the relationship between the inter-pixel distance and the third weight according to an embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따라, 픽셀 인덱스에 따른 칼라 값의 변화를 도시하는 그래프이다.9 is a graph showing a change in color value according to a pixel index according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따라, 픽셀 인덱스에 따른 깊이 값의 변화를 도시하는 그래프이다.10 is a graph showing a change in depth value according to a pixel index according to an embodiment of the present invention.

도 11은 본 발명의 일 실시예에 따른 영상 처리 장치에 의해, 도 10의 깊이 값이 보정된 결과를 도시하는 그래프이다.11 is a graph showing a result of correcting the depth value of FIG. 10 by the image processing apparatus according to an embodiment of the present invention.

도 12는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해, 도 5의 깊이 영상을 보정하여 생성되는 깊이 영상을 도시한다.FIG. 12 shows a depth image generated by correcting the depth image of FIG. 5 by the image processing apparatus according to an embodiment of the present invention.

도 13은 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.13 illustrates an image processing method according to an embodiment of the present invention.

도 14는 본 발명의 일 실시예에 따른 영상 처리 방법의 가중치 계산 단계를 도시한다.FIG. 14 shows weight calculation steps of an image processing method according to an embodiment of the present invention.

Claims (17)

입력 칼라 영상에 정합된 입력 깊이 영상의 제1 픽셀에 대해, 칼라 값의 차이, 깊이 값의 차이 및 픽셀 간 거리 중 적어도 하나에 기초하여, 상기 제1 픽셀의 주변의 적어도 하나의 픽셀의 각각에 대한 가중치를 계산하는 가중치 계산부; 및For each first pixel of an input depth image matched to an input color image, based on at least one of a color value difference, a depth value difference, and an inter-pixel distance, at least one pixel in the vicinity of the first pixel A weight calculation unit for calculating a weight for the object; And 상기 적어도 하나의 픽셀의 각각에 대한 가중치를 이용하여 상기 제1 픽셀의 보정된 깊이 값을 계산하는 가중치 적용부A weight applying unit for calculating a corrected depth value of the first pixel using a weight for each of the at least one pixel, 를 포함하고,Lt; / RTI > 상기 가중치 계산부는,The weight calculation unit may calculate, 상기 제1 픽셀의 칼라 값과 상기 적어도 하나의 픽셀의 각각의 칼라 값의 차이에 기초하여, 상기 적어도 하나의 픽셀의 각각의 제1 가중치를 계산하는 제1 계산부;A first calculation unit for calculating a first weight of each of the at least one pixel based on a difference between a color value of the first pixel and a respective color value of the at least one pixel; 상기 제1 픽셀의 깊이 값과 상기 적어도 하나의 픽셀의 각각의 깊이 값의 차이에 기초하여, 상기 적어도 하나의 픽셀의 각각의 제2 가중치를 계산하는 제2 계산부;A second calculation unit for calculating a second weight of each of the at least one pixel based on a difference between a depth value of the first pixel and a depth value of each of the at least one pixel; 상기 제1 픽셀과 상기 적어도 하나의 픽셀의 각각의 거리를 비교하여, 상기 적어도 하나의 픽셀의 각각의 제3 가중치를 계산하는 제3 계산부; 및A third calculator for comparing the distance of each of the first pixel and the at least one pixel to calculate a third weight of each of the at least one pixel; And 상기 제1 가중치, 상기 제2 가중치, 및 상기 제3 가중치를 이용하여, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치를 계산하는 제4 계산부Calculating a final weight for each of the at least one pixel using the first weight, the second weight, and the third weight, 를 포함하는, 영상 처리 장치.And the image processing apparatus. 삭제delete 제1항에 있어서,The method according to claim 1, 상기 제1 계산부는,The first calculation unit may calculate, 상기 제1 픽셀의 칼라 값과 상기 적어도 하나의 픽셀의 각각의 칼라 값의 차이가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제1 가중치는 지수적으로 감소되도록 상기 제1 가중치를 계산하는, 영상 처리 장치.Calculating the first weight so that each first weight of the at least one pixel is exponentially reduced as the difference between the color value of the first pixel and the respective color value of the at least one pixel increases, Image processing apparatus. 제1항에 있어서,The method according to claim 1, 상기 제2 계산부는,The second calculation unit calculates, 상기 제1 픽셀의 깊이 값과 상기 적어도 하나의 픽셀의 각각의 깊이 값의 차이가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제2 가중치는 지수적으로 감소되도록 상기 제2 가중치를 계산하는, 영상 처리 장치.Calculating the second weight so that each second weight of the at least one pixel is exponentially reduced as the difference between the depth value of the first pixel and the depth value of each of the at least one pixel increases, Image processing apparatus. 제1항에 있어서,The method according to claim 1, 상기 제3 계산부는,The third calculation unit calculates, 상기 제1 픽셀과 상기 적어도 하나의 픽셀의 각각의 거리가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제3 가중치는 지수적으로 감소되도록 상기 제3 가중치를 계산하는, 영상 처리 장치.Wherein each third weight of the at least one pixel is exponentially decremented as the distance of each of the first pixel and the at least one pixel increases. 제1항에 있어서,The method according to claim 1, 상기 제4 계산부는,The fourth calculation unit calculates, 상기 제1 가중치, 상기 제2 가중치, 및 상기 제3 가중치의 곱에 비례하도록, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치를 계산하며, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치의 합은 1이 되도록 상기 최종 가중치를 계산하는, 영상 처리 장치.Calculating a final weight for each of the at least one pixel such that the final weight is proportional to a product of the first weight, the second weight, and the third weight, and wherein the sum of the final weights for each of the at least one pixel is 1, < / RTI > 제1항에 있어서,The method according to claim 1, 상기 가중치 적용부는,Wherein the weight applying unit comprises: 상기 입력 깊이 영상의 제1 픽셀의 깊이 값에 대해, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치에 따른 마스크(Mask) 필터링을 수행하여, 상기 제1 픽셀의 보정된 깊이 값을 계산하는, 영상 처리 장치.And performing a mask filtering on the depth value of the first pixel of the input depth image according to a final weight for each of the at least one pixel to calculate a corrected depth value of the first pixel, Processing device. 제1항에 있어서,The method according to claim 1, 상기 입력 깊이 영상이 상기 입력 칼라 영상에 정합된 것이 아닌 경우, 상기 입력 깊이 영상을 상기 입력 칼라 영상에 정합시키는 영상 정합부를 더 포함하는, 영상 처리 장치.And an image matching unit for matching the input depth image with the input color image when the input depth image is not matched with the input color image. 입력 칼라 영상에 정합된 입력 깊이 영상의 제1 픽셀에 대해, 칼라 값의 차이, 깊이 값의 차이 및 픽셀 간 거리 중 적어도 하나에 기초하여, 상기 제1 픽셀의 주변의 적어도 하나의 픽셀의 각각에 대한 가중치를 계산하는 단계; 및For each first pixel of an input depth image matched to an input color image, based on at least one of a color value difference, a depth value difference, and an inter-pixel distance, at least one pixel in the vicinity of the first pixel Calculating a weight for the object; And 상기 적어도 하나의 픽셀의 각각에 대한 가중치를 이용하여 상기 제1 픽셀의 보정된 깊이 값을 계산하는 단계Calculating a corrected depth value of the first pixel using a weight for each of the at least one pixel 를 포함하고,Lt; / RTI > 상기 가중치를 계산하는 단계는,The step of calculating the weight includes: 상기 제1 픽셀의 칼라 값과 상기 적어도 하나의 픽셀의 각각의 칼라 값의 차이에 기초하여, 상기 적어도 하나의 픽셀의 각각의 제1 가중치를 계산하는 단계;Calculating each first weight of the at least one pixel based on a difference between a color value of the first pixel and a respective color value of the at least one pixel; 상기 제1 픽셀의 깊이 값과 상기 적어도 하나의 픽셀의 각각의 깊이 값의 차이에 기초하여, 상기 적어도 하나의 픽셀의 각각의 제2 가중치를 계산하는 단계;Calculating a respective second weight of the at least one pixel based on a difference between a depth value of the first pixel and a depth value of each of the at least one pixel; 상기 제1 픽셀과 상기 적어도 하나의 픽셀의 각각의 거리를 비교하여, 상기 적어도 하나의 픽셀의 각각의 제3 가중치를 계산하는 단계; 및Comparing respective distances of the first pixel and the at least one pixel to calculate a respective third weight of the at least one pixel; And 상기 제1 가중치, 상기 제2 가중치, 및 상기 제3 가중치를 이용하여, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치를 계산하는 단계Calculating a final weight for each of the at least one pixel using the first weight, the second weight, and the third weight, 를 포함하는, 영상 처리 방법.And an image processing method. 삭제delete 제9항에 있어서,10. The method of claim 9, 상기 제1 가중치를 계산하는 단계는,Wherein the step of calculating the first weight comprises: 상기 제1 픽셀의 칼라 값과 상기 적어도 하나의 픽셀의 각각의 칼라 값의 차이가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제1 가중치는 지수적으로 감소되도록 상기 제1 가중치를 계산하는, 영상 처리 방법.Calculating the first weight so that each first weight of the at least one pixel is exponentially reduced as the difference between the color value of the first pixel and the respective color value of the at least one pixel increases, Image processing method. 제9항에 있어서,10. The method of claim 9, 상기 제2 가중치를 계산하는 단계는,Wherein the calculating the second weight comprises: 상기 제1 픽셀의 깊이 값과 상기 적어도 하나의 픽셀의 각각의 깊이 값의 차이가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제2 가중치는 지수적으로 감소되도록 상기 제2 가중치를 계산하는, 영상 처리 방법.Calculating the second weight so that each second weight of the at least one pixel is exponentially reduced as the difference between the depth value of the first pixel and the depth value of each of the at least one pixel increases, Image processing method. 제9항에 있어서,10. The method of claim 9, 상기 제3 가중치를 계산하는 단계는,Wherein the step of calculating the third weight comprises: 상기 제1 픽셀과 상기 적어도 하나의 픽셀의 각각의 거리가 증가함에 따라, 상기 적어도 하나의 픽셀의 각각의 제3 가중치는 지수적으로 감소되도록 상기 제3 가중치를 계산하는, 영상 처리 방법.Wherein the third weight is computed such that each third weight of the at least one pixel is exponentially reduced as the distance of each of the first pixel and the at least one pixel increases. 제9항에 있어서,10. The method of claim 9, 상기 최종 가중치를 계산하는 단계는,Wherein calculating the final weight comprises: 상기 제1 가중치, 상기 제2 가중치, 및 상기 제3 가중치의 곱에 비례하도록, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치를 계산하며, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치의 합은 1이 되도록 상기 최종 가중치를 계산하는, 영상 처리 방법.Calculating a final weight for each of the at least one pixel such that the final weight is proportional to a product of the first weight, the second weight, and the third weight, and wherein the sum of the final weights for each of the at least one pixel is 1, < / RTI > 제9항에 있어서,10. The method of claim 9, 상기 제1 픽셀의 보정된 깊이 값을 계산하는 단계는,Wherein calculating the corrected depth value of the first pixel comprises: 상기 입력 깊이 영상의 제1 픽셀의 깊이 값에 대해, 상기 적어도 하나의 픽셀의 각각에 대한 최종 가중치에 따른 마스크 필터링을 수행하여, 상기 제1 픽셀의 보정된 깊이 값을 계산하는, 영상 처리 방법.Performing mask filtering on a depth value of a first pixel of the input depth image according to a final weight for each of the at least one pixel to calculate a corrected depth value of the first pixel. 제9항에 있어서,10. The method of claim 9, 상기 입력 깊이 영상이 상기 입력 칼라 영상에 정합된 것이 아닌 경우, 상기 가중치 계산 단계에 앞서서 상기 입력 깊이 영상을 상기 입력 칼라 영상에 정합시키는 단계를 더 포함하는, 영상 처리 방법.Further comprising the step of matching the input depth image to the input color image prior to the weighting step if the input depth image is not matched to the input color image. 제9항 및 제11항 내지 제16항 중 어느 한 항의 영상 처리 방법을 수행하기 위한 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium storing a program for performing the image processing method of any one of claims 9 and 11 to 16.
KR1020090106377A 2009-11-05 2009-11-05 Image processing apparatus and method KR101629459B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090106377A KR101629459B1 (en) 2009-11-05 2009-11-05 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090106377A KR101629459B1 (en) 2009-11-05 2009-11-05 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
KR20110049383A KR20110049383A (en) 2011-05-12
KR101629459B1 true KR101629459B1 (en) 2016-06-10

Family

ID=44360532

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090106377A KR101629459B1 (en) 2009-11-05 2009-11-05 Image processing apparatus and method

Country Status (1)

Country Link
KR (1) KR101629459B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101887099B1 (en) * 2010-12-29 2018-08-09 삼성전자주식회사 image processing system and image processing method
KR101863626B1 (en) 2011-11-02 2018-07-06 삼성전자주식회사 Image processing apparatus and method
WO2013081383A1 (en) * 2011-11-29 2013-06-06 삼성전자주식회사 Method and apparatus for converting depth image in high resolution
KR101978172B1 (en) 2011-11-29 2019-05-15 삼성전자주식회사 Method and apparatus for converting depth image to high-resolution
KR101273869B1 (en) * 2012-03-08 2013-06-11 동의대학교 산학협력단 Picture quality control apparatus and method for region of interest by using depth information
KR102029680B1 (en) * 2012-04-16 2019-10-08 삼성전자주식회사 Image processing apparatus and method for determining distortion of synthesized image
KR101353038B1 (en) * 2012-08-06 2014-01-17 광주과학기술원 Apparatus and method for processing boundary part of depth image
KR101932587B1 (en) * 2012-11-20 2018-12-26 삼성전자주식회사 Image processing apparatus and method for color-depth demosaicing
KR102251483B1 (en) 2014-10-23 2021-05-14 삼성전자주식회사 Electronic device and method for processing image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008062351A1 (en) * 2006-11-21 2008-05-29 Koninklijke Philips Electronics N.V. Generation of depth map for an image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101327791B1 (en) * 2007-09-11 2013-11-20 삼성전자주식회사 Apparatus and method for matching color image and depth image each other

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008062351A1 (en) * 2006-11-21 2008-05-29 Koninklijke Philips Electronics N.V. Generation of depth map for an image

Also Published As

Publication number Publication date
KR20110049383A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
KR101629459B1 (en) Image processing apparatus and method
US11244432B2 (en) Image filtering based on image gradients
KR101978172B1 (en) Method and apparatus for converting depth image to high-resolution
JP6115781B2 (en) Image processing apparatus and image processing method
JP6024107B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US8098294B2 (en) Image processing apparatus, image pickup apparatus, control method for image processing apparatus, and storage medium storing control program therefor
JP5452116B2 (en) High resolution video acquisition apparatus and method
JP2016513320A (en) Method and apparatus for image enhancement and edge verification using at least one additional image
CN108780569A (en) System and method for image resolution ratio enhancing
CN112686935B (en) Airborne sounding radar and multispectral satellite image registration method based on feature fusion
WO2008070542A1 (en) Spatial and spectral calibration of a panchromatic, multispectral image pair
WO2008067517A1 (en) Panchromatic modulation of multispectral imagery
US9619862B2 (en) Raw camera noise reduction using alignment mapping
JP2012191607A (en) Image processing system, image processing method and program
JP2004005675A (en) Noise prediction method for digital image using gradient analysis
US20220414827A1 (en) Training apparatus, training method, and medium
US20190355105A1 (en) Method and device for blind correction of lateral chromatic aberration in color images
JP6592992B2 (en) Apparatus and method for extracting background luminance image of image, and apparatus and method for removing shadow
Stamatopoulos et al. Accuracy aspects of utilizing raw imagery in photogrammetric measurement
KR101546200B1 (en) Method and Device for Matching Correspondaence Point of Multi Spectral Images
JP6440305B2 (en) Super-resolution apparatus and program
JP2013182416A (en) Feature amount extraction device, feature amount extraction method, and feature amount extraction program
CN110619613A (en) Image sharpening method, electronic device and computer-readable storage medium
Kaur et al. Hand Gesture Image Enhancement for Improved Recognition and Subsequent Analysis
JP6426909B2 (en) Color information complementing device and its program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190520

Year of fee payment: 4