WO2013165046A1 - 3d warping method for suppressing formation of holes and image processing apparatus adopting same - Google Patents

3d warping method for suppressing formation of holes and image processing apparatus adopting same Download PDF

Info

Publication number
WO2013165046A1
WO2013165046A1 PCT/KR2012/003841 KR2012003841W WO2013165046A1 WO 2013165046 A1 WO2013165046 A1 WO 2013165046A1 KR 2012003841 W KR2012003841 W KR 2012003841W WO 2013165046 A1 WO2013165046 A1 WO 2013165046A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
warping
regions
rgb
image processing
Prior art date
Application number
PCT/KR2012/003841
Other languages
French (fr)
Korean (ko)
Inventor
송혁
최병호
김제우
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Publication of WO2013165046A1 publication Critical patent/WO2013165046A1/en

Links

Classifications

    • G06T3/18
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Definitions

  • the shape may be a triangle.
  • an image processing apparatus includes a camera for generating an image; And an image processor for dividing an image generated by the camera into a plurality of regions and warping the image in units of regions.
  • 3 is a diagram provided for further explanation of edge detection
  • the RGB image segmentation unit 134 connects the nodes extracted by the node extraction unit 133 to generate triangular regions, thereby dividing the RGB image into a plurality of triangular regions (S230).

Abstract

Provided are a 3D warping method for suppressing the generation of holes and an image processing apparatus adopting the same. An image processing method according to an embodiment of the present invention divides an image into multiple regions and 3D warps the image by units of regions. Thus, holes may not be generated in 3D warping, and may suppress the generation of holes as much as possible. Thus, 3D-warped RGB images may have correct pixel values and 3D-warped Z-images may have correct depth information.

Description

[명세서】  [Specification】
【발명의 명칭】  [Name of invention]
홀 발생 억제를 위한 3D워핑 방법 및 이를 적용한 영상 처리 장치  3D warping method for suppressing hole generation and image processing device using the same
【기술분야】  Technical Field
본 발명은 3D-워핑 방법 및 장치에 관한 것으로, 더욱 상세하게는 영상의 시점을 다른 시점으로 이동시키기 위한 3D-워핑 방법 및 장치에 관한 것이다.  The present invention relates to a 3D-warping method and apparatus, and more particularly, to a 3D-warping method and apparatus for moving a viewpoint of an image to another viewpoint.
【배경기술】  Background Art
3D-워핑은 영상의 시점을 다른 시점으로 이동시키는 영상 처리를 말한다. 깊이에 대한 정보를 담고 있는 Z-영상을 생성하는 Zᅳ카메라의 시점과 색상에 대한 정보를 담고 있는 RGBᅳ영상을 생성하는 RGB-카메라의 시점을 일치시키기 위해, Z-영상의 시점을 RGB-영상의 시점으로 이동시키는 경우에 3D-워핑이 대표적으로 이용된다.  3D-warping refers to image processing for moving a viewpoint of an image to another viewpoint. To match the view of the Z-camera that generates the Z-image containing the depth information and the RGB-camera that produces the RGB image containing the color information, the view of the Z-image is RGB- 3D-warping is typically used when moving to the point of view of the image.
뿐만 아니라, RGB-카메라에 의해 생성된 RGB-영상의 시점을 다른 시점으로 이동시켜 다시점 영상을 생성하는 경우에도, 3D-워핑이 이용된다.  In addition, 3D-warping is used to generate a multi-view image by moving the viewpoint of the RGB image generated by the RGB camera to another viewpoint.
전자와 후자 모두의 경우에 3D-워핑된 영상에는 데이터가 정의되지 않는 홀 (Hole)들이 발생하게 되는데, 이는 홀 제거 기법에 의해 데이터로 채워지더라도 부 정확한 데이터로 채워질 여지가 있어, 영상의 품질을 떨어뜨리는 문제를 유발한다. 【발명의 상세한 설명】  In both the former and the latter, 3D-warped images may have undefined data, which may be filled with inaccurate data even if the data is filled by the hole removal technique. It causes dropping problems. [Detailed Description of the Invention]
【기술적 과제】  [Technical problem]
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명 본 발명은 상기와 같은 문제점올 해결하기 위하여 안출된 것으로서, 본 발명 의 목적은, 3D-워핑을 수행함에 있어 홀을 발생시키지 않거나, 발생시키더라도 최대 한 억제시킬 수 있는 3D-워핑 방법 및 장치를 제공함에 있다. The present invention has been made to solve the above problems, the present invention The present invention has been made to solve the above problems, and an object of the present invention is to produce a 3D-warping method and apparatus that can be suppressed as much as possible, or does not generate a hole in performing the 3D-warping In providing.
【기술적 해결방법】  Technical Solution
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 영상 처리 방법은, 영상을 다수의 영역들로 분할하는 단계; 및 상기 분할단계에서 생성된 영역들 단위 로, 상기 영상을 3D-워핑하는 단계;를 포함한다.  According to one or more exemplary embodiments, an image processing method includes: dividing an image into a plurality of regions; And 3D-warping the image in units of the regions generated in the dividing step.
그리고, 상기 분할단계는, 상기 영상에서 특징점들을 추출하는 단계; 및 상기 추출단계에서 추출된 특징점들을 연결하여, 상기 다수의 영역들을 생성하는 단계;를 포함할 수 있다.  The dividing step may include extracting feature points from the image; And generating the plurality of regions by connecting the feature points extracted in the extraction step.
또한, 상기 추출단계는, 상기 영상에서 에지들을 검출하는 단계; 및 상기 에 지들에 의한 절점들을 추출하는 단계;를 포함하고, 상기 생성단계는, 상기 절점들올 연결하여 상기 다수의 영역들을 생성할 수 있다.  The extracting step may further include detecting edges in the image; And extracting nodes by the edges, wherein the generating may include connecting the nodes to generate the plurality of regions.
그리고, 상기 다수의 영역들은, 동일한 형상의 영들일 수 있다.  And, the plurality of regions may be spirits of the same shape.
또한, 상기 형상은, 삼각형일 수 있다.  In addition, the shape may be a triangle.
그리고, 상기 3D-워핑 단계는, 상기 특징점들을 3D-워핑하는 단계; 및 상기 영상의 영역들을 3D-워핑된 특징점들에 생성되는 영역들 내부로 각각 3D-워핑하는 단계;를 포함할 수 있다.  And the 3D-warping step comprises: 3D-warping the feature points; And 3D-warping the regions of the image into regions generated in the 3D-warped feature points, respectively.
또한, 상기 영상은, 컬러 -영상또는 깊이-영상일 수 있다. 한편, 본 발명의 다른 실시예에 따른, 영상 처리 장치는, 영상을 생성하는 카 메라; 및 상기 카메라에서 생성된 영상을 다수의 영역들로 분할하고, 영역들 단위로 상기 영상을 3으워핑하는 영상 프로세서;를 포함한다. In addition, the image may be a color image or a depth image. On the other hand, according to another embodiment of the present invention, an image processing apparatus includes a camera for generating an image; And an image processor for dividing an image generated by the camera into a plurality of regions and warping the image in units of regions.
【유리한 효과】  Advantageous Effects
이상 설명한 바와 같이, 본 발명에 따르면, 3D-워핑을 수행함에 있어 홀을 발생시키지 않거나, 발생시키더라도 최대한 억제시킬 수 있게 된다. 이에 따라, 3D-워핑된 RGB-영상의 경우, (거의) 모든 화소에 대해 정확한 화소값을 보유하게 되어 다시점 영상 생성시 최상의 화질을 유지할 수 있게 된다. 또한, 3D-워핑된 Z-영상의 경우, (거의) 모든 화소에 대해 정확한 깊이 정보를 보유하게 되어, 정확한 입체적 표현이 가능해진다.  As described above, according to the present invention, in performing the 3D-warping, it is possible not to generate a hole or to suppress it as much as possible. Accordingly, in the case of the 3D-warped RGB image, it is possible to maintain accurate pixel values for (almost) all pixels, thereby maintaining the best image quality when generating a multiview image. In addition, in the case of 3D-warped Z-images, accurate depth information is retained for (almost) all pixels, thereby enabling accurate three-dimensional representation.
【도면의 간단한 설명】  [Brief Description of Drawings]
도 1은 본 발명의 바람직한 실시예에 따른 영상 처리 장치의 블럭도, 도 2는, 도 1에 도시된 영상 처리 장치에 의한 RGB-영상의 3D-워핑 과정 의 상세히 설명에 제공되는 흐름도,  1 is a block diagram of an image processing apparatus according to a preferred embodiment of the present invention, FIG. 2 is a flowchart provided in detail of a 3D-warping process of an RGB image by the image processing apparatus shown in FIG.
도 3은 에지 검출의 부연 설명에 제공되는 도면,  3 is a diagram provided for further explanation of edge detection;
도 4는 절점 추출의 부연 설명에 제공되는 도면, 그리고,  4 is a view provided for further explanation of node extraction, and
도 5는 절점들을 이용한 RGB-영상 분할의 부연 설명에 제공되는 도면이다. 【발명의 실시를 위한 최선의 형태】  5 is a diagram provided for further explanation of RGB-image segmentation using nodes. Best Mode for Implementation of the Invention
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 도 1은 본 발명의 바람직한 실시예에 따른 영상 처리 장치의 블럭도이다. 본 실시예에 따른 영상 처리 장치는, 하나의 RGB-영상과 Z-영상을 이용하여 다시 점 영상을 생성하기 위한 3으워핑을 수행하는데, 이 3D-워핑 과정에서 홀을 발생 시키지 않는다. Hereinafter, with reference to the drawings will be described the present invention in more detail. 1 is a block diagram of an image processing apparatus according to a preferred embodiment of the present invention. The image processing apparatus according to the present exemplary embodiment performs 3 warping to generate a point image again using one RGB image and a Z image, and does not generate holes in the 3D warping process.
이와 같은 기능을 수행하는 영상 처리 장치는, 도 1에 도시된 바와 같이, RGB-카메라 (110), Z-카메라 (120), 영상 프로세서 (130) 및 영상 웅용부 (140)를 구 비한다. ᅳ  As shown in FIG. 1, an image processing apparatus that performs such a function includes an RGB camera 110, a Z camera 120, an image processor 130, and an image processor 140. ᅳ
RGB-카메라 (110)는 촬영을 통해 컬러-영상인 RGB-영상을 생성하고, Z-카 메라 (120)는 RGB-영상에 대한 깊이 -영상 (Depth Image)인 Z-영상을 생성한다.  The RGB camera 110 generates an RGB image, which is a color image, by photographing, and the Z camera 120 generates a Z image, which is a depth image for the RGB image.
영상 프로세서 (130)는 RGB-카메라 (110)에서 생성된 RGB-영상과 Z-카메라 (120)에서 생성된 Z-영상을 이용하여, 다양한 시점의 영상들을 생성한다. 이와 같 은 기능을 수행하는 영상 프로세서 (130)는, RGB-영상 교정 /정렬부 (131), 에지 검출 부 (132), 절점 추출부 (133), RGB-영상 분할부 (134), RGB-영상 3D-워핑부 (135), Z- 영상 교정 /정렬부 (136), Zᅳ영상 3D—워핑부 (137), Z-영상 인페인팅부 (138) 및 Z-영 상 업샘플링부 (139)를 구비한다.  The image processor 130 generates images of various views by using the RGB image generated by the RGB camera 110 and the Z image generated by the Z camera 120. The image processor 130 that performs the above functions includes an RGB image correction / alignment unit 131, an edge detection unit 132, a node extraction unit 133, an RGB image division unit 134, and an RGB- Image 3D-warping section 135, Z-image correction / alignment section 136, Z ᅳ image 3D-warping section 137, Z-image inpainting section 138 and Z-image upsampling section 139 ).
RGB—영상 교정 /정렬부 (131)는 RGB-카메라 (110)의 내부 인자 (Intrinsic Parameter)와 외부 인자 (Extrinsic Parameter)에 따라' RGB-영상을 교정 (Calibration)하고 기준선에 정렬 (Rectificarion)한다.  RGB—Image calibration / alignment unit 131 calibrates and aligns the RGB image with the baseline according to the internal and extrinsic parameters of the RGB camera 110. .
에지 검출부 (132)는 RGB—영상 교정 /정렬부 (131)에서 교정 /정렬된 RGB-영 상에서 에지를 검출한다. 절점 추출부 (133)는 에지 검출부 (132)에서 검출된 에지들 을 이용하여 절점들을 추출한다. Edge detector 132 is RGB-corrected / aligned by RGB-image correction / aligner 131 Detect an edge on the phase. The node extractor 133 extracts nodes using the edges detected by the edge detector 132.
RGB-영상 분할부 (134)는 절점 추출부 (133)에서 추출된 절점들올 연결하여 삼각 영역 (삼각 형상의 영역)들을 생성함으로서, RGB-영상을 다수의 삼각 영역들로 분할한다.  The RGB image segmentation unit 134 connects the nodes extracted by the node extraction unit 133 to generate triangular regions (triangular regions) to divide the RGB image into a plurality of triangular regions.
한편, Z-영상 교정 /정렬부 (136)는 Z-카메라 (120)의 내부 인자와 외부 인자에 따라 Z-영상을 교정하고 기준선에 정렬한다. Z-영상 3으워핑부 (137)는 Z-영상 교정 /정렬부 (136)에서 교정 /정렬된 Z-영상을 RGB-영상의 시점으로 3D-워핑한다.  Meanwhile, the Z-image calibration / alignment unit 136 corrects the Z-image according to the internal and external factors of the Z-camera 120 and aligns it with the reference line. The Z-image tri-warping unit 137 3D-warps the corrected / aligned Z-image to the viewpoint of the RGB image in the Z-image correction / alignment unit 136.
Zᅳ영상 인페인팅부 (138)는 Z-영상 3D-워핑부 (137)에서 3D-워핑된 Z-영상 을 인페인팅 (Inpainting)하여 3D-워핑된 Z-영상에 존재하는 홀들을 제거한다. Z- 영상 업샘플링부 (139)는 인페인팅된 Z-영상올 RGB-영상의 크기로 업샘플링 (Upsampling)한다. 업샘폴링은 Z-영상의 해상도가 RGB-영상의 해상도 보다 낮은 것을 염두한 것이다.  The Z 'image inpainting unit 138 inpaints the 3D-warped Z-image in the Z-image 3D-warping unit 137 to remove holes present in the 3D-warped Z-image. The Z-image upsampling unit 139 upsamples the size of the inpainted Z-image all RGB-images. Upsampling takes into account that the resolution of the Z-image is lower than that of the RGB image.
RGB-영상 3D—워핑부 (135)는 RGB-영상 교정 /정렬부 (131)에서 출력되는 RGB-영상과 Z-영상 업샘플링부 (139)에서 출력되는 Z-영상을 이용하여, 다양한 시 점의 RGB-영상들을 생성한다.  The RGB-image 3D-warping section 135 uses a RGB-image output from the RGB-image correction / alignment section 131 and a Z-image output from the Z-image upsampling section 139 to provide various views. Generates RGB images.
이를 위해, RGB-영상을 다양한 시점들로 3D-워핑하여야 하는데, 이때 RGB-영상 3D-워핑부 (135)는 RGB—영상 분할부 (134)에 의해 '다수의 삼각 영역들 로 분할된 RGB—영상' (이하, '분할 영상'으로 표시)을 참조한다. 구체적으로, RGBᅳ영 상 3D-워핑부 (135)는 분할 영상의 삼각 영역들 단위로 3D-워핑을 수행한다. To this end, the RGB image must be 3D-warped to various viewpoints, wherein the RGB image 3D-warping unit 135 is an RGB image divided by a plurality of triangular regions by the image segmentation unit 134. Image '(hereinafter, referred to as' divided image'). Specifically, RGB shooting The image 3D-warping unit 135 performs 3D-warping in units of triangular regions of the divided image.
영상 웅용부 (140)는 영상 프로세서 (130)에서 생성된 다양한 시점의 영상들을 디스플레이에 표시하거나, 저장매체에 저장할 수 있음은 물론, 이들을 이용한 객체 인식 등의 다양한 응용을 수행할 수 있다.  The image processor 140 may display images of various views generated by the image processor 130 on a display or store the images on a storage medium, and may perform various applications such as object recognition using the images.
이하에서는, 도 1에 도시된 영상 처리 장치에 의한 RGB-영상의 3D-워핑 과 정에 대해 도 2를 참조하여 보다 상세히 설명한다.  Hereinafter, the 3D-warping process of the RGB image by the image processing apparatus shown in FIG. 1 will be described in more detail with reference to FIG. 2.
도 2에 도시된 바와 같이, 먼저, 에지 검출부 (132)는 RGBᅳ카메라 (110)에서 생성된 후 RGB—영상 교정 /정렬부 (131)에서 교정 /정렬된 RGB-영상에서 에지를 검 출한다 (S210).  As shown in FIG. 2, first, the edge detector 132 detects an edge in an RGB image that has been generated by the RGB camera 110 and then corrected / aligned by the RGB image correction / alignment unit 131. (S210).
S210단계에서의 에지 검출로, 원도우를 이용한 에지 검출 기법 (예를 들면, Sobel 기법), 색상 경계에서의 연결 관계를 고려한 에지 검출 기법 (예를 들면, Canny 기법) 등을 적용할 수 있다.  As edge detection in step S210, an edge detection technique using a window (eg, Sobel technique), an edge detection technique (eg, Canny technique), etc. considering a connection relationship at a color boundary may be applied.
도 3의 좌측에는 특정 RGB-영상에 대해 Sobel 기법으로 에지를 검출한 결 과를 도시하였고, 도 3의 우측에는 특정 RGBᅳ영상에 대해 Canny 기법으로 에지를 검출한 결과를 도시하였다.  The left side of FIG. 3 shows the result of edge detection by Sobel technique for a specific RGB image, and the right side of FIG. 3 shows the edge detection result by Canny technique for a specific RGB image.
이후, 절점 추출부 (133)는 S210단계에서 검출된 에지들을 이용하여 절점들 을 추출한다 (S220). S220단계에서 추출되는 절점들은, 에지들이 방향이 급변화하 는 점들, 에지들이 불연속하는 점들 및 기타 특이한 특성을 나타내는 점들이다.  Thereafter, the node extractor 133 extracts nodes using the edges detected in step S210 (S220). The nodes extracted in step S220 are points where the edges change direction rapidly, points where the edges are discontinuous, and other points exhibiting unusual characteristics.
도 4의 좌측에는 도 3의 좌측에 도시된 에지 영상에 대한 절점 추출 결과를 도시하였고, 도 4의 우측에는 도 3의 우측에 도시된 에지 영상에 대한 절점 추출 결과를 도시하였다. On the left side of FIG. 4, the node extraction result for the edge image shown on the left side of FIG. 4 illustrates a node extraction result for the edge image shown on the right side of FIG. 3.
다음, RGB-영상 분할부 (134)는 절점 추출부 (133)에서 추출된 절점들올 연결 하여 삼각 영역들을 생성함으로서, RGBᅳ영상을 다수의 삼각 영역들로 분할한다 (S230).  Next, the RGB image segmentation unit 134 connects the nodes extracted by the node extraction unit 133 to generate triangular regions, thereby dividing the RGB image into a plurality of triangular regions (S230).
S230단계쎄서 생성되는 삼각 영역은, 이루는 내각들 중 최소인 각이 최대화 되는 방향으로 생성되고, 내부에는 절점이 포함되지 않도록 생성한다. RGB-영상 분할부 (134)에 의해 RGB-영상은 다수의 삼각 영역들로 분할된다.  The triangular region generated in step S230 is generated in a direction in which an angle which is the smallest of the internal angles is maximized, and is not included in the interior. The RGB image is divided into a plurality of triangular regions by the RGB image divider 134.
이 삼각 영역들은 에지들을 기반으로 추출한 절점들을 이용하여 생성하였기 때문에, 하나의 삼각 영역은 전경 또는 배경의 내부에 위치한다. 즉, S230단계에 의해 생성된 삼각 영역은 전경과 배경에 걸쳐서 위치하지 않는다.  Since these triangular regions were created using nodes extracted based on the edges, one triangular region is located inside the foreground or background. That is, the triangular area generated by step S230 is not located over the foreground and the background.
도 5의 좌측에는 도 4의 좌측에 도시된 절점들을 이용한 RGB-영상의 분할 결과를 도시하였고, 도 5의 우측에는 도 4의 우측에 도시된 절점들을 이용한 RGB- 영상의 분할 결과를 도시하였다.  The left side of FIG. 5 shows a segmentation result of an RGB image using the nodes shown on the left side of FIG. 4, and the right side of FIG. 5 shows a segmentation result of an RGB image using the nodes shown on the right side of FIG. 4.
이후, RGB-영상 3D-워핑부 (135)는 RGB-영상에 나타난 절점들을 다른 시점 으로 3D—워핑한 후 (S240), RGB—영상의 삼각 영역들을 S240단계에서 3D-워핑된 절점들에 의해 생성되는 삼각 영역들 내부로 각각 3D-워핑한다 (S250).  Afterwards, the RGB-image 3D-warping unit 135 3D-warps the nodes shown in the RGB image to another viewpoint (S240), and then triangular regions of the RGB-image by the 3D-warped nodes in step S240. 3D-warping each of the generated triangular regions (S250).
S250단계에서의 3D-워핑은 픽셀 대 픽셀 간의 3D-워핑이 아닌, 영역 대 영 역 간의 3D-워핑이므로, 홀 발생하지 않는다. 즉, S250단계에서의 3D-워핑은 영 역 단위의 3으워핑이라 할 수 있다. Since the 3D-warping in operation S250 is not 3D-warping between pixels and pixels, but 3D-warping between regions and regions, holes are not generated. That is, 3D-warping at step S250 is zero It can be said to be 3 warping of inverse units.
지금까지, RGB-영상을 3으워핑함에 있어 홀을 발생시키지 않는 기법에 대 해 바람직한 실시예를 들어 상세히 설명하였다.  Up to now, the present invention has been described in detail with reference to a preferred embodiment of a technique that does not generate holes in warping the RGB image.
위 실시예에서, RGB-영상은 삼각 영역들로 분할하는 것을 상정하였으나, 이 는 설명의 편의를 위한 일 예에 불과한 것으로 다른 형상 (예를 들면, 사각형, 오각형 등)의 영역들로 분할하는 것도 가능하다.  In the above embodiment, it is assumed that the RGB image is divided into triangular regions, but this is merely an example for convenience of explanation, and it is also possible to divide the image into regions of different shapes (for example, a rectangle and a pentagon). It is possible.
이때, 분할되는 영역들의 형상이 모두 동일함이 바람직하지만, 필요와사양에 따라 영역들의 형상들을 각기 다르게 하는 것도 가능하다.  In this case, although the shapes of the divided regions are all the same, it is also possible to vary the shapes of the regions according to needs and specifications.
또한, 위 실시예에서는 절점들을 기준으로 RGB-영상을 분할하는 것으로 도 시하고 설명하였는데, 이 역시 설명의 편의를 위한 일 예에 불과하다. 절점 이외의 다른 특징점들올 기준으로 RGB-영상을 분할하는 것도 가능하다.  In addition, the above embodiment has been illustrated and described as segmenting the RGB image based on the nodes, which is also merely an example for convenience of description. It is also possible to segment the RGB image on the basis of other feature points other than nodes.
그리고, 위 실시예에서는 RGB-영상에 대한 3D-워핑을 상정하였으나, 본 발 명의 기술적 사상은 Z-영상에 대해서도 적용가능하다. 도 1에서 Z-영상에 대한 3D-워핑은 픽셀 단위의 3D-워핑을 상정하였지만, Z-영상을 다수의 영역들로 분할 하여 영역들 단위로 3D-워핑을 수행하는 것으로 대체함이 가능한 것이다.  In addition, in the above embodiment, 3D-warping for the RGB image is assumed, but the technical idea of the present invention is also applicable to the Z-image. In FIG. 1, 3D-warping for the Z-image is assumed to be 3D-warping on a pixel-by-pixel basis, but it is possible to replace the Z-image by performing 3D-warping on a region-by-region basis by dividing the Z-image into a plurality of regions.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지 만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다 In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the specific embodiments described above, the technology to which the invention belongs without departing from the spirit of the invention claimed in the claims Various modifications can be made by those skilled in the art, as well as such modifications. It should not be understood individually from technical ideas or prospects.

Claims

【청구의 범위】 [Range of request]
【청구항 1】  [Claim 1]
영상을 다수의 영역들로 분할하는 단계; 및  Dividing the image into a plurality of regions; And
상기 분할단계에서 생성된 영역들 단위로, 상기 영상을 3D—워핑하는 단계;를 포함하는 것을 특징으로 하는 영상 처리 방법.  3D—warping the image in units of the regions generated in the dividing step.
【청구항 2】 [Claim 2]
제 1항에 있어서,  The method of claim 1,
상기 분할단계는,  The dividing step,
상기 영상에서 특징점들을 추출하는 단계; 및  Extracting feature points from the image; And
상기 추출단계에서 추출된 특징점들올 연결하여, 상기 다수의 영역들을 생성 하는 단계;를 포함하는 것을 특징으로 하는 영상 처리 방법.  And connecting the feature points extracted in the extracting step to generate the plurality of regions.
【청구항 3】 [Claim 3]
제 2항에 있어서,  The method of claim 2,
상기 추출단계는,  The extraction step,
상기 영상에서 에지들을 검출하는 단계; 및  Detecting edges in the image; And
상기 에지들에 의한 절점들을 추출하는 단계;를 포함하고  Extracting nodes by the edges; and
상기 생성단계는,  The generating step,
상기 절점들을 연결하여 상기 다수의 영역들을 생성하는 것을 특징으로 하는 영상 처리 방법. Connecting the nodes to generate the plurality of regions Image processing method.
【청구항 4】 [Claim 4]
제 2항에 있어서,  The method of claim 2,
상기 다수의 영역들은,  The plurality of areas,
동일한 형상의 영들인 것을 특징으로 하는 영상 처리 방법.  Image processing method, characterized in that the spirits of the same shape.
【청구항 5】 [Claim 5]
제 4항에 있어서,  The method of claim 4,
상기 형상은,  The shape is,
삼각형인 것을 특징으로 하는 영상 처리 방법.  Image processing method characterized in that the triangle.
【청구항 6】 [Claim 6]
제 2항에 있어서,  The method of claim 2,
상기 3D-워핑 단계는,  The 3D-warping step,
상기 특징점들을 3D-워핑하는 단계; 및  3D-warping the feature points; And
상기 영상의 영역들을 3D-워핑된 특징점들에 생성되는 영역들 내부로 각각D-워핑하는 단계;를 포함하는 것을 특징으로 하는 영상 처리 방법.  D-warping each of the regions of the image into regions generated in 3D-warped feature points.
【청구항 7】 제 1항에 있어서, [Claim 7] The method of claim 1,
상기 영상은,  The video is
컬러 -영상 또는 깊이—영상인 것을 특징으로 하는 영상 처리 방법.  Color -image or depth—image processing method characterized in that the image.
【청구항 8】 [Claim 8]
영상을 생성하는 카메라; 및  A camera for generating an image; And
상기 카메라에서 생성된 영상을 다수의 영역들로 분할하고, 영역들 단위로 상기 영상을 3D-워핑하는 영상 프로세서;를 포함하는 것을 특징으로 하는 영상 처 리 장치.  And an image processor for dividing an image generated by the camera into a plurality of regions, and 3D-warping the image in units of regions.
PCT/KR2012/003841 2012-05-04 2012-05-16 3d warping method for suppressing formation of holes and image processing apparatus adopting same WO2013165046A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0047386 2012-05-04
KR1020120047386A KR101373603B1 (en) 2012-05-04 2012-05-04 3D warping method for hole reduction and image processing apparatus using the same

Publications (1)

Publication Number Publication Date
WO2013165046A1 true WO2013165046A1 (en) 2013-11-07

Family

ID=49514436

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/003841 WO2013165046A1 (en) 2012-05-04 2012-05-16 3d warping method for suppressing formation of holes and image processing apparatus adopting same

Country Status (2)

Country Link
KR (1) KR101373603B1 (en)
WO (1) WO2013165046A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460503B2 (en) 2017-03-01 2019-10-29 Sony Corporation Texturing of a three-dimensional (3D) model by UV map in-painting

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101993961B1 (en) * 2016-12-22 2019-07-01 전자부품연구원 Hole Filling Method for Arbitrary View Image
KR102012568B1 (en) * 2017-11-30 2019-08-20 한국로봇융합연구원 Multi sensor calibration system and calibration method for multi sensor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100634537B1 (en) * 2005-02-04 2006-10-13 삼성전자주식회사 Apparatus and method for processing triangulation of 3-D image, computer-readable storing medium storing a computer program for controlling the apparatus
JP4523915B2 (en) * 2003-07-01 2010-08-11 本田技研工業株式会社 Outline extraction apparatus, outline extraction method, and outline extraction program
KR20100104088A (en) * 2009-03-16 2010-09-29 광주과학기술원 Method and apparatus for processing multi-viewpoint image
KR20120016439A (en) * 2010-08-16 2012-02-24 삼성전자주식회사 Image processing apparatus and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100764130B1 (en) * 2005-03-29 2007-10-05 (주)제니텀 엔터테인먼트 컴퓨팅 Method of virtual face shaping based on automatic face extraction and apparatus thereof
KR20100008677A (en) * 2008-07-16 2010-01-26 광주과학기술원 Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4523915B2 (en) * 2003-07-01 2010-08-11 本田技研工業株式会社 Outline extraction apparatus, outline extraction method, and outline extraction program
KR100634537B1 (en) * 2005-02-04 2006-10-13 삼성전자주식회사 Apparatus and method for processing triangulation of 3-D image, computer-readable storing medium storing a computer program for controlling the apparatus
KR20100104088A (en) * 2009-03-16 2010-09-29 광주과학기술원 Method and apparatus for processing multi-viewpoint image
KR20120016439A (en) * 2010-08-16 2012-02-24 삼성전자주식회사 Image processing apparatus and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIM, YONG KI ET AL.: "Field and Mesh-Based Automatic Morphing of Face Images Using Feature Points Extraction", JOURNAL OF KIISE, vol. 38, no. 5, May 2011 (2011-05-01) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460503B2 (en) 2017-03-01 2019-10-29 Sony Corporation Texturing of a three-dimensional (3D) model by UV map in-painting

Also Published As

Publication number Publication date
KR101373603B1 (en) 2014-03-12
KR20130123891A (en) 2013-11-13

Similar Documents

Publication Publication Date Title
US9378583B2 (en) Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume
US8818077B2 (en) Stereo image matching apparatus and method
CN102113015B (en) Use of inpainting techniques for image correction
US9792719B2 (en) Method and apparatus for removing outliers from a main view of a scene during 3D scene reconstruction
US9398289B2 (en) Method and apparatus for converting an overlay area into a 3D image
EP2945118B1 (en) Stereo source image calibration method and apparatus
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
US9390511B2 (en) Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data
WO2020001149A1 (en) Method and apparatus for extracting edge of object in depth image, and computer readable storage medium
CN107622480B (en) Kinect depth image enhancement method
US8369609B2 (en) Reduced-complexity disparity map estimation
US9948913B2 (en) Image processing method and apparatus for processing an image pair
US20130266212A1 (en) Method and apparatus for converting 2d video image into 3d video image
EP3311361A1 (en) Method and apparatus for determining a depth map for an image
CN104778673B (en) A kind of improved gauss hybrid models depth image enhancement method
US20130071008A1 (en) Image conversion system using edge information
KR101373603B1 (en) 3D warping method for hole reduction and image processing apparatus using the same
KR102362345B1 (en) Method and apparatus for processing image
Schmeing et al. Edge-aware depth image filtering using color segmentation
KR20140001358A (en) Method and apparatus of processing image based on occlusion area filtering
US9380285B2 (en) Stereo image processing method, stereo image processing device and display device
EP4149110A1 (en) Virtual viewpoint synthesis method, electronic device and computer readable medium
Wei et al. Iterative depth recovery for multi-view video synthesis from stereo videos
Zhao et al. Inpainting algorithm for Kinect depth map based on foreground segmentation
Dórea et al. Depth map discontinuity correction for 3D video systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12876021

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12876021

Country of ref document: EP

Kind code of ref document: A1