KR20100019927A - Method for generating vitual view image and apparatus thereof - Google Patents

Method for generating vitual view image and apparatus thereof Download PDF

Info

Publication number
KR20100019927A
KR20100019927A KR1020080123320A KR20080123320A KR20100019927A KR 20100019927 A KR20100019927 A KR 20100019927A KR 1020080123320 A KR1020080123320 A KR 1020080123320A KR 20080123320 A KR20080123320 A KR 20080123320A KR 20100019927 A KR20100019927 A KR 20100019927A
Authority
KR
South Korea
Prior art keywords
image
virtual
unprocessed
virtual viewpoint
depth information
Prior art date
Application number
KR1020080123320A
Other languages
Korean (ko)
Other versions
KR101066550B1 (en
Inventor
장은영
엄기문
김태원
방건
허남호
김진웅
이수인
유지상
박세환
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20100019927A publication Critical patent/KR20100019927A/en
Application granted granted Critical
Publication of KR101066550B1 publication Critical patent/KR101066550B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE: A method for generating a virtual view image and an apparatus thereof are provided to obtain a more high definition virtual view image by compensating a non-processed region of a virtual view image in a current frame through a pixel value of a virtual view image of a previous frame. CONSTITUTION: The base view images for plural base view cameras are synthesized, and a virtual view image for the virtual view camera is created(401). The depth information images for the plural base view camera are synthesized and created(403). A first non-processed region of the non-processed region in the depth information image is compensated. Based on the depth information image, a second non-processed region which is the non-processed region of the virtual view image in the current frame is compensated(405).

Description

가상시점 영상 생성방법 및 그 장치{METHOD FOR GENERATING VITUAL VIEW IMAGE AND APPARATUS THEREOF}Method for generating virtual viewpoint image and its device {METHOD FOR GENERATING VITUAL VIEW IMAGE AND APPARATUS THEREOF}

본 발명은 가상시점 영상 생성방법 및 그 장치에 관한 것으로, 보다 상세하게는 이전 프레임의 가상시점 영상의 화소값을 이용하여 현재 프레임의 가상시점 영상의 미처리 영역을 보상하는 가상시점 영상 생성방법 및 그 장치에 관한 것이다. 본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리 번호: 2008-F-011-01, 과제명: 차세대 DTV 핵심기술 개발(표준화연계)-무안경 개인형 3D방송기술 개발].The present invention relates to a virtual viewpoint image generation method and apparatus thereof, and more particularly, to a virtual viewpoint image generation method for compensating an unprocessed region of a virtual viewpoint image of a current frame by using a pixel value of a virtual viewpoint image of a previous frame, and a device thereof. Relates to a device. The present invention is derived from the research conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task management number: 2008-F-011-01, Task name: Development of next-generation DTV core technology (standardized connection)-Glasses-free person Type 3D broadcasting technology development].

최근 인터랙티브 응용 및 다시점 3D 디스플레이 산업이 활성화됨에 따라 기준 시점 카메라 영상(스테레오 영상 또는 다시점 영상)과 해당 깊이/변이 영상을 이용하여 실제 카메라로부터 획득되지 않은 시점에 대한 가상 영상을 합성하기 위한 가상시점 영상 합성에 관한 기술이 활발히 연구되고 있다. In recent years, as the interactive application and multi-view 3D display industry is activated, a virtual image for synthesizing a virtual image of a viewpoint which is not obtained from a real camera using a reference viewpoint camera image (stereo image or a multiview image) and a corresponding depth / shift image is used. Techniques for viewpoint image synthesis have been actively studied.

도 1은 가상시점 영상을 설명하기 위한 도면이다.1 is a view for explaining a virtual viewpoint image.

기준시점 카메라(101, 107, 111)는 실제 영상을 획득한다. 그리고 가상시점 카메라(103, 105, 109, 113, 115, 117)는 실제로 촬영하여 영상을 획득하지 않는 가상시점의 카메라이다. 가상시점 영상이란 가상시점 카메라(103, 105, 109, 113, 115, 117)의 시점으로 바라본 영상이다. 가상시점 영상은 기준시점 카메라(101, 107, 111)로부터 획득한 실제영상, 즉 기준시점 영상과 깊이/변이정보 영상을 3차원 워핑(warping) 기법 또는 영상 보간 기법을 이용하여 합성함으로써 생성된다. 여기서 깊이(depth)란 촬영된 객체가 카메라로부터 떨어진 정도를 나타내며 변이(disparity)란 기준시점 카메라 각각에서 촬영된 객체의 위치 차이를 나타낸다. The reference viewpoint cameras 101, 107, and 111 acquire an actual image. The virtual viewpoint cameras 103, 105, 109, 113, 115, and 117 are cameras of virtual viewpoints which do not actually capture and acquire an image. The virtual viewpoint image is an image viewed from the viewpoint of the virtual viewpoint cameras 103, 105, 109, 113, 115, and 117. The virtual view image is generated by synthesizing the real image acquired from the reference view cameras 101, 107, and 111, that is, the reference view image and the depth / difference information image using a 3D warping technique or an image interpolation technique. In this case, the depth represents the degree to which the photographed object is separated from the camera, and the disparity represents the position difference of the object photographed in each reference camera.

광축선상의 가상시점 카메라(103, 105, 109)의 시점은 기준 시점 카메라(101, 107, 111)로부터 선형적으로 보간되어 광축선상에 위치하며 광축선상 외의 가상시점 카메라(113, 115, 117)의 시점은 광축선 상의 가상시점 카메라(103, 105, 109)에 회전 또는 병진운동을 적용하여 광축선 상 외의 지점에 위치한다. 기준시점 카메라(101, 107, 111)의 기준시점 영상이 합성되어 가상시점 카메라(103, 105, 109, 113, 115, 117) 중 어느 하나의 시점, 즉 다양한 가상시점의 영상이 생성될 수 있다.The viewpoints of the virtual viewpoint cameras 103, 105, and 109 on the optical axis are linearly interpolated from the reference viewpoint cameras 101, 107, and 111 and located on the optical axis, and the virtual viewpoint cameras 113, 115, and 117 outside the optical axis. The point of view is located at a point outside the optical axis by applying rotational or translational motion to the virtual viewpoint cameras 103, 105, and 109 on the optical axis. Reference viewpoint images of the reference viewpoint cameras 101, 107, and 111 may be synthesized to generate images of any one of the virtual viewpoint cameras 103, 105, 109, 113, 115, and 117, that is, images of various virtual viewpoints. .

도 2 및 도 3은 합성된 가상시점 영상을 도시한 도면으로서, 도 2의 가상시점 영상은 두 기준시점 카메라(107, 111)의 기준시점 영상을 3차원 워핑기법으로 합성한 광축선상의 가상시점 카메라(109)에 대한 영상이며 도 3의 가상시점 영상은 두 기준시점 카메라(107, 111)의 기준시점 영상을 3차원 워핑기법으로 합성한 광축선상 외의 가상시점 카메라(115)에 대한 영상이다. 주관적 화질 평가를 위해 MPEG-4(Moving Picture Expert Group) Video 분야에서 제공하는 테스트 영상 중 브레이크 댄서(Breaker Dancer) 영상이 이용되었다. 그리고 이하 도시되는 영상은 모두 MPEG-4 Video 분야에서 제공하는 브레이크 댄서 영상이다.2 and 3 are views illustrating a synthesized virtual viewpoint image, and the virtual viewpoint image of FIG. 2 is a virtual viewpoint on an optical axis obtained by synthesizing the reference viewpoint images of two reference viewpoint cameras 107 and 111 by a three-dimensional warping method. An image of the camera 109 and the virtual viewpoint image of FIG. 3 are images of the virtual viewpoint camera 115 other than the optical axis line synthesized from the reference viewpoint images of the two reference viewpoint cameras 107 and 111 by a three-dimensional warping method. For the subjective picture quality evaluation, Breaker Dancer images were used among the test images provided by the Moving Picture Expert Group (MPEG-4) video field. All of the images shown below are break dancer images provided in the MPEG-4 video field.

도 2 및 도 3에 도시된 바와 같이, 가상시점 영상에는 하얗게 도시된 미처리 영역이 존재한다. 미처리 영역은 깊이/변이정보의 정수화 문제, 폐색영역 등으로 발생한다. 폐색영역은 가상시점 카메라의 시점(115)과 기준시점 카메라(107, 111)의 시점 차이로 가상시점 카메라의 시점(115)에서는 보이나 기준시점 카메라(107, 111)의 시점에서는 보이지 않는 영역이다. 광축선상 외의 가상시점 카메라(115)에 대한 가상시점 영상인 도 3의 가상시점 영상에 도 2의 가상시점 영상보다 보다 많은 미처리 영역이 존재한다.As illustrated in FIGS. 2 and 3, an unprocessed region shown in white exists in the virtual viewpoint image. Unprocessed areas occur due to the problem of integerization of depth / variation information, occlusion areas, and the like. The occlusion area is defined by the viewpoint 115 of the virtual viewpoint camera. It is an area that is visible from the viewpoint 115 of the virtual viewpoint camera but not visible from the viewpoint of the reference viewpoint cameras 107, 111 due to the difference in viewpoints of the reference viewpoint cameras 107, 111. More unprocessed regions exist in the virtual viewpoint image of FIG. 3, which is the virtual viewpoint image of the virtual viewpoint camera 115 outside the optical axis, than the virtual viewpoint image of FIG. 2.

미처리 영역은 가상시점 영상의 화질을 저하시키므로 미처리 영역이 소정의 화소값으로 보상되는 것이 필요하다. 깊이/변이정보의 정수화 문제로 인한 미처리 영역은 미처리 영역 주변 유효 화소값을 보간하여 비교적 쉽고 정확하게 보상할 수 있다. 여기서 '유효'의 의미는 미처리 영역이 아닌 처리 영역에 대응된다. 그러나 폐색영역으로 인한 미처리 영역을 미처리 영역 주변 유효 화소값을 보간하여 보상하는 경우 폐색영역은 기준시점 영상에 존재하지 않는 부분이므로 보상과정에서 오차가 발생하였다. 그래서 종래에는 미처리 영역을 보상하기 위해 하나 이상의 기준시점 카메라(101)의 기준시점 영상을 추가하여 가상시점 영상의 미처리 영역을 보 상하였다. Since the unprocessed region degrades the image quality of the virtual viewpoint image, the unprocessed region needs to be compensated with a predetermined pixel value. The unprocessed region due to the integerization of the depth / variation information can be compensated relatively easily and accurately by interpolating the effective pixel values around the unprocessed region. Here, the meaning of 'effective' corresponds to a processing region rather than an unprocessed region. However, when compensating the unprocessed area due to the occlusion area by interpolating effective pixel values around the unprocessed area, an error occurs in the compensating process because the occlusion area does not exist in the reference view image. Thus, in order to compensate for the unprocessed region, at least one reference viewpoint image of the reference viewpoint camera 101 is added to compensate for the unprocessed region of the virtual viewpoint image.

하지만 이 경우 광축선상의 가상시점 카메라(109)에 의한 가상시점 영상의 미처리 영역은 보상될 수 있으나 광축선상 외의 가상시점 카메라(115)에 의한 가상시점 영상의 미처리 영역은 보상되기 어려운 문제가 있다. 광축선상 외에 존재하는 기준시점 카메라를 추가할 경우 광축선상 외의 가상시점 카메라(115)에 의한 가상시점 영상의 미처리 영역이 보상될 수 있으나 이 경우 가상시점 영상의 합성과정이 너무 복잡해지는 문제가 있다. 또한 기준시점 카메라가 추가될수록 비용이 증가하는 문제가 있다.However, in this case, the unprocessed region of the virtual viewpoint image by the virtual viewpoint camera 109 on the optical axis may be compensated, but the unprocessed region of the virtual viewpoint image by the virtual viewpoint camera 115 outside the optical axis is difficult to compensate. If a reference viewpoint camera existing outside the optical axis is added, an unprocessed region of the virtual viewpoint image by the virtual viewpoint camera 115 outside the optical axis may be compensated, but in this case, the synthesis process of the virtual viewpoint image may be too complicated. In addition, the cost increases as the reference camera is added.

본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로서, 가상시점 영상의 미처리 영역을 보다 정확하게 보상하여 보다 고화질의 가상시점 영상을 생성하는 가상시점 영상 생성방법 및 그 장치를 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, and an object of the present invention is to provide a virtual view image generating method and apparatus for generating a higher quality virtual view image by compensating more precisely the unprocessed area of the virtual view image.

상기 목적을 달성하기 위한 본 발명은 복수의 기준시점 카메라에 대한 기준시점 영상을 합성하여 가상시점 카메라에 대한 가상시점 영상을 생성하는 가상시점 영상 합성단계; 상기 복수의 기준시점 카메라에 대한 깊이정보 영상을 합성하여 상기 가상시점 영상에 대한 깊이정보 영상을 생성하고 상기 가상시점 영상에 대한 깊이정보 영상의 미처리 영역인 제1미처리영역을 보상하는 깊이정보 영상 합성단계; 및 상기 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상에 기초하여 상기 현재 프레임의 가상시점 영상의 미처리 영역인 제2미처리영역을 보상하는 가상시점 미처리 영역 보상단계를 포함하는 가상시점 영상 생성방법을 제공한다.According to an aspect of the present invention, a virtual viewpoint image synthesizing step of synthesizing a reference viewpoint image for a plurality of reference viewpoint cameras to generate a virtual viewpoint image for a virtual viewpoint camera; A depth information image is synthesized by synthesizing depth information images of the plurality of reference view cameras, and generating a depth information image of the virtual view image, and compensating a first unprocessed region which is an unprocessed region of the depth information image of the virtual view image. step; And a virtual view unprocessed area compensation step of compensating a second unprocessed area that is an unprocessed area of the virtual view image of the current frame based on a depth information image of the current and at least one previous frame's virtual view image. Provides an image generation method.

또한 상기 목적을 달성하기 위한 본 발명은 복수의 기준시점 카메라에 대한 기준시점 영상을 합성하여 가상시점 카메라에 대한 가상시점 영상을 생성하는 가상시점 영상 합성단계; 상기 복수의 기준시점 카메라에 대한 변이정보 영상을 합성하여 상기 가상시점 영상에 대한 변이정보 영상을 생성하고 상기 가상시점 영상에 대 한 변이정보 영상의 미처리 영역을 보상하는 변이정보 영상 합성단계; 및 상기 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 변이정보 영상에 기초하여 상기 현재 프레임의 가상시점 영상의 미처리 영역을 보상하는 가상시점 미처리 영역 보상단계를 포함하는 가상시점 영상 생성방법을 제공한다.In addition, the present invention for achieving the above object is a virtual viewpoint image synthesis step of generating a virtual viewpoint image for the virtual viewpoint camera by synthesizing the reference viewpoint image for a plurality of reference viewpoint camera; A disparity information image synthesizing step of synthesizing disparity information images of the plurality of reference view cameras to generate disparity information images of the virtual view image, and compensating an unprocessed region of the disparity information image for the virtual view image; And a virtual viewpoint unprocessed region compensation step of compensating an unprocessed region of the virtual viewpoint image of the current frame based on the disparity information image of the virtual viewpoint image of the current and at least one previous frame. do.

또한 상기 목적을 달성하기 위한 본 발명은 복수의 기준시점 카메라에 대한 기준시점 영상을 합성하여 가상시점 카메라에 대한 가상시점 영상을 생성하는 가상시점 영상 합성부; 상기 복수의 기준시점 카메라에 대한 깊이정보 영상을 합성하여 상기 가상시점 영상에 대한 깊이정보 영상을 생성하고 상기 가상시점 영상에 대한 깊이정보 영상의 미처리 영역인 제1미처리영역을 보상하는 깊이정보 영상 합성부; 및 상기 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상에 기초하여 상기 현재 프레임의 가상시점 영상의 미처리 영역인 제2미처리영역을 보상하는 가상시점 미처리 영역 보상부를 포함하는 가상시점 영상 생성장치를 제공한다. In addition, the present invention for achieving the above object is a virtual viewpoint image synthesizer for generating a virtual viewpoint image for the virtual viewpoint camera by synthesizing the reference viewpoint image for a plurality of reference viewpoint camera; A depth information image is synthesized by synthesizing depth information images of the plurality of reference view cameras, and generating a depth information image of the virtual view image, and compensating a first unprocessed region which is an unprocessed region of the depth information image of the virtual view image. part; And a virtual viewpoint unprocessed region compensator for compensating a second unprocessed region, which is an unprocessed region of the virtual viewpoint image of the current frame, based on a depth information image of the virtual view image of the current and at least one previous frame. Provide a generator.

본 발명에 따르면, 이전 프레임의 가상시점 영상의 화소값을 이용하여 현재 프레임의 가상시점 영상의 미처리 영역을 보상함으로써 보다 고화질의 가상시점 영상을 획득할 수 있는 효과가 있다.According to the present invention, a higher quality virtual viewpoint image can be obtained by compensating for the unprocessed area of the virtual viewpoint image of the current frame using the pixel value of the virtual viewpoint image of the previous frame.

또한 기준시점 카메라의 감소로 비용적인 측면에서도 유리한 효과가 있다.In addition, the reduction of the reference camera has an advantageous effect in terms of cost.

이하 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있도록 상세히 설명하기 위하여, 본 발명의 가장 바람직한 실시예를 첨부 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, the most preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art may easily implement the technical idea of the present invention.

도 4는 본 발명의 일실시예에 따른 가상시점 영상 생성방법을 나타내는 흐름도이다.4 is a flowchart illustrating a virtual view image generating method according to an embodiment of the present invention.

도 4를 참조하면, 본 발명에 따른 가상시점 영상 생성방법은 가상시점 영상 합성단계(401), 깊이정보 영상 합성단계(403) 및 가상시점 미처리영역 보상단계(405)를 포함한다. 이하 도 3의 기준시점 카메라(107, 111) 및 가상시점 카메라(115)의 위치에 대한 가상시점 영상을 생성하는 경우가 일실시예로서 설명된다.4, in accordance with the present invention The virtual viewpoint image generating method includes a virtual viewpoint image synthesis step 401, a depth information image synthesis step 403, and a virtual viewpoint unprocessed region compensation step 405. Hereinafter, a case of generating a virtual viewpoint image for the positions of the reference viewpoint cameras 107 and 111 and the virtual viewpoint camera 115 of FIG. 3 will be described as an embodiment.

가상시점 영상 합성단계(401)에서 복수의 기준시점 카메라(107, 111)의 기준시점 영상이 합성되어 가상시점 카메라(115)에 대한 가상시점 영상이 생성된다. 가상시점 카메라(115)에 대한 가상시점 영상은 복수의 기준시점 카메라(107, 111)로부터 획득할 수 있는 기준시점 영상과 깊이정보 영상을 3차원 워핑 기법 또는 영상 보간 기법을 이용해 합성함으로써 생성될 수 있다. 가상시점 카메라(115)의 시점이 기준시점 카메라(107, 111)의 시점보다 높으므로 가상시점 영상 합성단계(401) 에서 생성된 가상시점 영상에는 기준시점 카메라(107, 111)에 의해 촬영되지 못한 폐색영역에 의한 미처리 영역이 존재한다. 또한 상기 가상시점 영상에는 깊이/변이정보의 정수화 과정에서 발생하는 오류 등으로 인한 미처리 영역이 존재 한다. 가상시점 영상 합성단계(401)에서 생성되는 가상시점 영상의 미처리 영역은 후술되는 가상시점 미처리 영역 보상단계(405)에서 보상된다.In the virtual view image synthesizing step 401, reference view images of the plurality of reference view cameras 107 and 111 are synthesized to generate a virtual view image of the virtual view camera 115. The virtual viewpoint image of the virtual viewpoint camera 115 may be generated by synthesizing the reference viewpoint image and the depth information image obtained from the plurality of reference viewpoint cameras 107 and 111 by using a 3D warping technique or an image interpolation technique. have. Since the viewpoint of the virtual viewpoint camera 115 is higher than that of the reference viewpoint cameras 107 and 111, the virtual viewpoint image generated in the virtual viewpoint image synthesis step 401 may not be captured by the reference viewpoint cameras 107 and 111. There is an untreated area by the occlusion area. In addition, the virtual viewpoint image has an unprocessed area due to an error occurring during the process of integerization of depth / variation information. The unprocessed region of the virtual view image generated in the virtual view image synthesis step 401 is compensated in the virtual view unprocessed region compensation step 405 described later.

깊이정보 영상 합성단계(403)에서 복수의 기준시점 카메라(107, 111)에 대한 깊이정보 영상이 3차원 워핑(warping) 기법 또는 영상 보간 기법에 의해 합성되어 가상시점 영상에 대한 깊이정보 영상이 생성된다. 깊이정보 영상 합성단계(403)에서 생성된 깊이정보 영상에도 가상시점 영상 합성단계(401)에서 생성된 가상시점 영상과 같이 미처리 영역이 존재한다. 깊이정보 영상 합성단계(403)에서 가상시점 영상에 대한 깊이정보 영상의 미처리영역이 보상된다.In the depth information image synthesis step 403, depth information images of the plurality of reference view cameras 107 and 111 are synthesized by 3D warping or image interpolation to generate a depth information image for the virtual view image. do. The depth information image generated in the depth information image synthesizing step 403 also includes an unprocessed region as in the virtual view image generated in the virtual view image synthesizing step 401. In the depth information image synthesis step 403, an unprocessed region of the depth information image for the virtual view image is compensated.

가상시점 영상 합성단계(401) 및 깊이정보 영상 합성단계(403)에서 생성되는 영상은 과거부터 현재까지 연속되는 프레임 영상 각각을 의미한다. 깊이정보 영상 합성단계(403)에 대한 자세한 설명은 도 6에서 후술된다.The images generated in the virtual view image synthesizing step 401 and the depth information image synthesizing step 403 mean each frame image which is continuous from the past to the present. A detailed description of the depth information image synthesis step 403 will be described later with reference to FIG. 6.

가상시점 미처리 영역 보상단계(405)에서, 가상시점 영상 합성단계(401)에서 생성된 현재 프레임의 가상시점 영상의 미처리 영역이 보상된다. 이때 깊이정보 영상 합성단계(403)에서 보상된 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상이 이용된다. 가상시점 미처리 영역 보상단계(405)에서 이전 프레임의 가상시점 영상의 화소값에 의해 현재 프레임의 가상시점 영상의 미처리 영역이 보상된다. 이 때 이전 프레임의 가상시점 영상의 화소값이 현재 프레임의 가상시점 영상과 동일한 객체를 나타내는 화소값인지 여부에 대해 판단이 필요하고 본 발명에 따른 가상시점 영상 합성방법은 깊이정보 영상 합성단계(403)에서 보상되는 깊이정보 영상을 판단기준으로 사용한다. In the virtual view raw region compensation step 405, the raw region of the virtual view image of the current frame generated in the virtual view image synthesis step 401 is compensated. In this case, the depth information image of the virtual viewpoint image of the current and at least one previous frame compensated in the depth information image synthesis step 403 is used. In the virtual view raw region compensation step 405, the raw region of the virtual viewpoint image of the current frame is compensated by the pixel value of the virtual viewpoint image of the previous frame. In this case, it is necessary to determine whether the pixel value of the virtual viewpoint image of the previous frame is a pixel value representing the same object as the virtual viewpoint image of the current frame. ) Uses the depth information image compensated in) as the criterion.

도 5를 참조하여 가상시점 미처리 영역 보상단계(405)에 대해 보다 자세히 설명한다. 도 5는 도 4의 가상시점 영상 합성단계(401) 및 깊이정보 영상 합성단계(403)에서 생성되는 이전 프레임 및 현재 프레임의 가상시점 영상(501, 505) 및 깊이정보 영상(503, 507)을 도시한 도면이다. 도 5는 일실시예로서 현재 프레임 바로 직전에 대한 하나의 프레임의 가상시점 영상 및 깊이정보 영상을 도시한다. 이하 현재 프레임 바로 직전에 대한 하나의 프레임의 가상시점 영상 및 깊이정보 영상이 사용되는 것을 일실시예로서 설명한다.A virtual point unprocessed region compensation step 405 will be described in more detail with reference to FIG. 5. FIG. 5 illustrates virtual view images 501 and 505 and depth information images 503 and 507 of previous and current frames generated in the virtual view image synthesis step 401 and the depth information image synthesis step 403 of FIG. 4. Figure is shown. FIG. 5 illustrates a virtual viewpoint image and a depth information image of one frame immediately before the current frame. Hereinafter, as an embodiment, the virtual viewpoint image and the depth information image of one frame immediately before the current frame are used.

가상시점 영상(501, 505)에서 빨간색 원으로 도시된 부분은 폐색영역에 의해 발생된 미처리 영역이다. 도 5에 도시된 바와 같이, 현재 프레임의 가상시점 영상(505)의 미처리 영역은 이전 프레임의 가상시점 영상(501)에서는 미처리 영역이 아닐 수 있다. 보다 상세하게, 현재 프레임의 가상시점 영상(505)에서 빨간색 원으로 도시된 부분의 미처리 영역의 화소의 위치와 대응되는 이전 프레임의 가상시점 영상(501)의 부분은 미처리 영역이 아니다.In the virtual viewpoint images 501 and 505, the part shown by a red circle is an unprocessed area generated by the occlusion area. As illustrated in FIG. 5, the unprocessed region of the virtual viewpoint image 505 of the current frame may not be an unprocessed region of the virtual viewpoint image 501 of the previous frame. More specifically, the portion of the virtual viewpoint image 501 of the previous frame corresponding to the position of the pixel of the unprocessed region of the portion shown by the red circle in the virtual viewpoint image 505 of the current frame is not an unprocessed region.

따라서 현재 프레임의 가상시점 영상(505)의 미처리 영역은 이전 프레임의 가상시점 영상(501)에 의해 보상될 수 있음을 알 수 있다. 이 때 상기된 바와 같이 이전 프레임의 가상시점 영상(501)으로부터 보상받고자 하는 화소값이 존재하는 객체가 현재 프레임의 가상시점 영상(505)의 미처리 영역의 객체와 동일성이 인정되어야 하며 동일성의 판단의 기준으로 깊이정보 영상(503, 507)이 사용된다. 깊이값의 동일성이 인정된다는 것은 카메라로부터 동일거리에 위치함을 의미하며 동일한 객체일 확률이 높다는 것을 의미한다. 깊이값이 클수록 객체가 카메라로부터 가까 우며 깊이값이 작을수록 객체가 카메라로부터 멀다. Therefore, it can be seen that the unprocessed region of the virtual viewpoint image 505 of the current frame can be compensated by the virtual viewpoint image 501 of the previous frame. In this case, as described above, the object in which the pixel value to be compensated from the virtual viewpoint image 501 of the previous frame is present should be recognized as the object of the unprocessed area of the virtual viewpoint image 505 of the current frame. Depth information images 503 and 507 are used as a reference. Recognition of equality of depth values means that they are located at the same distance from the camera and that they are likely to be the same object. The larger the depth value, the closer the object is to the camera. The smaller the depth value, the farther the object is from the camera.

한편, 상기된 바와 같이 깊이정보 영상(503, 507)에도 미처리 영역이 존재하고 깊이정보 영상 합성단계(403)에서 깊이정보 영상(503, 507)의 미처리 영역이 최종적으로 보상된다.Meanwhile, as described above, an unprocessed region exists in the depth information images 503 and 507, and an unprocessed region of the depth information images 503 and 507 is finally compensated for in the depth information image synthesis step 403.

도 6은 도 4의 깊이정보 영상 합성단계(403)를 나타내는 상세 흐름도이다.FIG. 6 is a detailed flowchart illustrating the depth information image synthesizing step 403 of FIG. 4.

도 6을 참조하면 깊이정보 영상 합성단계(403)는 합성단계(601), 수평 탐색단계(603), 수평 보상단계(605), 수직 탐색단계(607) 및 수직 보상단계(609)를 포함한다. 합성단계(601)에서 복수의 기준시점 카메라(107, 111)에 대한 깊이정보 영상이 3차원 워핑(warping) 기법 또는 영상 보간 기법에 의해 합성되어 가상시점 영상 합성단계(401)에서 생성되는 가상시점 영상에 대한 깊이정보 영상이 생성된다.Referring to FIG. 6, the depth information image synthesis step 403 includes a synthesis step 601, a horizontal search step 603, a horizontal compensation step 605, a vertical search step 607, and a vertical compensation step 609. . In the synthesizing step 601, the depth view images of the plurality of reference view cameras 107 and 111 are synthesized by 3D warping or image interpolation and are generated in the virtual view image synthesizing step 401. A depth information image for the image is generated.

수평 탐색단계(603)에서, 합성단계(601)에서 생성된 깊이정보 영상에 미처리 영역이 존재하는 것으로 판단되는 경우, 수평 스캔라인 단위로 상기 깊이정보 영상의 미처리 영역에 대해 유효 깊이값이 탐색된다. 그리고 탐색된 유효 깊이값 중 미처리 영역 경계의 유효 깊이값을 갖는 화소간 거리가 수평 스캔라인 단위로 계산된다. 예를 들어, 미처리 영역 경계의 유효 깊이값을 갖는 임의의 A화소의 위치가 (5, 1)이고 수평하게 대응되는 B화소의 위치가 (10, 1)라면 수평 스캔라인 단위의 A, B화소간 거리는 5가 된다.In the horizontal search operation 603, when it is determined that an unprocessed region exists in the depth information image generated in the synthesis step 601, an effective depth value is searched for the unprocessed region of the depth information image in units of horizontal scan lines. . The inter-pixel distance having the effective depth value of the unprocessed area boundary among the searched effective depth values is calculated in units of horizontal scan lines. For example, if the position of any A pixel having the effective depth value of the unprocessed area boundary is (5, 1) and the position of the corresponding B pixel horizontally is (10, 1), the A and B pixels in the horizontal scan line unit The distance is five.

다음으로 수평 보상단계(605)에서, 미처리 영역에 대한 상기 화소간 거리가 수평 스캔라인 단위로 계산된 최대 변이값보다 작은지 판단된다. 이 때의 계산된 변이값은 기준시점 카메라간에서 계산된 변이값이 아닌 기준시점 영상과 가상시점 영상간에서 계산된 변이값을 나타낸다. 기준시점 카메라(107, 111)로부터 가까이 있는 객체일수록 변이값이 크고, 폐색 영역에 의한 미처리 영역은 소정 객체에 의해 차단되어 발생되는 것이기 때문에 미처리 영역 경계의 화소간 거리는 상기 소정 객체(화소)의 변이값보다 작다. 따라서 상기 최대 변이값을 기준으로, 상기 미처리 영역에 대한 화소간 거리가 상기 최대 변이값보다 작은 경우 상기 미처리 영역이 보상된다면 상기 미처리 영역은 정확하게 보상될 수 있다. 한편, 상기 미처리 영역에 대한 화소간 거리가 상기 최대 변이값보다 큰 경우도 존재할 수 있는데 이는 도 8에서 후술된다.Next, in the horizontal compensation step 605, it is determined whether the distance between the pixels for the unprocessed area is smaller than the maximum shift value calculated in units of horizontal scan lines. The calculated disparity value at this time indicates a disparity value calculated between the base view image and the virtual view image, not the disparity value calculated between the reference view cameras. The closer the object is from the reference viewpoint cameras 107 and 111, the larger the variation value, and since the unprocessed area due to the occlusion area is generated by being blocked by the predetermined object, the distance between pixels of the unprocessed area boundary is the variation of the predetermined object (pixel). Less than the value Therefore, based on the maximum shift value, if the distance between the pixels with respect to the unprocessed area is smaller than the maximum shift value, the unprocessed area may be accurately compensated if the unprocessed area is compensated. On the other hand, there may be a case where the interpixel distance with respect to the unprocessed region is larger than the maximum shift value, which will be described later in FIG. 8.

상기 최대 변이값은 수평 스캔라인 단위, 블록단위 또는 가상시점 영상 전체 내에서의 최대 변이값일 수 있다. The maximum shift value may be a maximum shift value in a horizontal scan line unit, a block unit, or an entire virtual viewpoint image.

상기 미처리 영역에 대한 화소간 거리가 상기 최대 변이값보다 작은 경우 수평 탐색단계(603)에서 탐색된 상기 미처리 영역 경계의 유효 깊이값이 이용되어 수평 스캔라인 단위로 상기 깊이정보 영상의 미처리 영역이 소정 깊이값으로 보상된다. 상기 소정 깊이값은 상기 깊이정보 영상의 미처리 영역 경계 주변의 유효 깊이값 중 최소값일 수 있다. 상기된 바와 같이 폐색영역에 의한 미처리 영역은 소정 객체에 의해 차단되어 발생하는 것이기 때문이다. 상기 소정 깊이값은 요구되는 정확성에 따라 상기 깊이정보 영상의 미처리 영역 경계 주변의 유효 깊이값의 평균값, 최대값 등일 수 있다. If the distance between the pixels to the unprocessed area is smaller than the maximum shift value, the effective depth value of the boundary of the unprocessed area found in the horizontal search step 603 is used to determine the unprocessed area of the depth information image in units of horizontal scan lines. Compensated by the depth value. The predetermined depth value may be the minimum value of the effective depth values around the boundary of the unprocessed area of the depth information image. As described above, the unprocessed area by the occlusion area is caused by being blocked by a predetermined object. The predetermined depth value may be an average value, a maximum value, or the like of an effective depth value around a boundary of an unprocessed area of the depth information image according to a required accuracy.

수평 보상단계(605)에서, 미처리 영역에 대한 화소간 거리가 상기 최대 변 이값보다 큰 경우 상기 미처리 영역은 보상되지 않는다.In the horizontal compensation step 605, the unprocessed region is not compensated if the interpixel distance with respect to the unprocessed region is larger than the maximum shift value.

다음으로 수직 탐색단계(607)에서, 수평 보상단계(605)에서 보상되지 않은 미처리 영역을 보상하기 위해 수직 스캔라인 단위로 상기 깊이정보 영상의 미처리 영역에 대해 유효 깊이값이 탐색된다. 그리고 상기 탐색된 유효 깊이값 중 미처리 영역 경계의 유효 깊이값을 갖는 화소간 거리가 수직 스캔라인 단위로 계산된다. Next, in the vertical search step 607, the effective depth value is searched for the unprocessed area of the depth information image in units of vertical scan lines to compensate for the unprocessed area not compensated in the horizontal compensation step 605. The inter-pixel distance having the effective depth value of the unprocessed area boundary among the searched effective depth values is calculated in units of vertical scan lines.

다음으로 수직 보상단계(609)에서 미처리 영역에 대한 상기 화소간 거리가 수직 스캔라인 단위로 계산된 최대 변이값보다 작은지 판단된다. 상기 미처리 영역에 대한 화소간 거리가 상기 최대 변이값보다 작은 경우 수직 탐색단계(607)에 탐색된 상기 미처리 영역 경계의 유효 깊이값이 이용되어 수직 스캔라인 단위로 상기 깊이정보 영상의 미처리 영역이 소정 깊이값으로 보상된다. 상기 미처리 영역에 대한 화소간 거리가 상기 최대 변이값보다 큰 경우 상기 미처리 영역은 보상되지 않는다.Next, in the vertical compensation step 609, it is determined whether the distance between the pixels for the unprocessed area is smaller than the maximum shift value calculated in units of vertical scan lines. If the interpixel distance with respect to the unprocessed area is smaller than the maximum shift value, the effective depth value of the boundary of the unprocessed area found in the vertical search step 607 is used to determine the unprocessed area of the depth information image in units of vertical scan lines. Compensated by the depth value. If the distance between the pixels with respect to the unprocessed area is larger than the maximum shift value, the unprocessed area is not compensated.

한편, 수직 탐색단계(607) 및 수직 보상단계(609)가 먼저 수행된 이후 수평 탐색단계(603) 및 수평 보상단계(605)가 수행될 수 있다.Meanwhile, the vertical search step 607 and the vertical compensation step 609 may be performed first, and then the horizontal search step 603 and the horizontal compensation step 605 may be performed.

도 7 및 도 8은 본 발명에 따른 깊이정보 영상 합성단계(403)가 수행되어 미처리 영역이 보상된 가상시점 영상에 대한 깊이정보 영상을 도시한 도면이다.7 and 8 illustrate a depth information image of a virtual viewpoint image in which an unprocessed region is compensated by performing a depth information image synthesis step 403 according to the present invention.

도 7은 도 5에 도시된 이전 및 현재 프레임의 가상시점 영상에 대한 깊이정보 영상의 미처리 영역이 본 발명에 따라 보상된 영상을 도시하고 있다. FIG. 7 illustrates an image in which an unprocessed area of a depth information image of a virtual viewpoint image of previous and current frames illustrated in FIG. 5 is compensated according to the present invention.

도 8은 깊이정보 영상 합성단계(403)에서 생성된 깊이정보 영상인 제1영 상(801) 및 제1영상(801)의 미처리 영역을 각각 보상한 제2 내지 제4영상(803, 805, 807)을 도시하고 있다. FIG. 8 illustrates second to fourth images 803 and 805 which compensate for the unprocessed region of the first image 801 and the first image 801 which are depth information images generated in the depth information image synthesis step 403, respectively. 807).

제2영상(803)은 깊이정보 영상 합성단계(403)에서 수평 스캔라인 단위만으로 제1영상(801)의 미처리 영역을 보상한 결과 영상이다. 제3영상(805)은 깊이정보 영상 합성단계(403)에서 수직 스캔라인 단위만으로 제1영상(801)의 미처리 영역을 보상한 결과 영상이다. 제4영상(807)은 깊이정보 영상 합성단계(403)에서 수평 및 수직 스캔라인 단위로 제1영상(801)의 미처리 영역을 보상한 결과 영상이다. The second image 803 is an image obtained by compensating for the unprocessed area of the first image 801 only in the horizontal scan line unit in the depth information image synthesis step 403. The third image 805 is an image obtained by compensating for the unprocessed area of the first image 801 only in the vertical scan line unit in the depth information image synthesis step 403. The fourth image 807 is an image obtained by compensating for the unprocessed area of the first image 801 in units of horizontal and vertical scan lines in the depth information image synthesis step 403.

제1영상(801)에서 제2영상(803)의 빨간색 원으로 표시된 부분과 대응되는 부분은, 수평 스캔라인 단위로 다른 부분과 비교하여 미처리 영역 경계의 화소간 거리가 상당히 큼을 알 수 있다. 그리고 제1영상(801)에서 제3영상(805)의 빨간색 원으로 표시된 부분과 대응되는 부분은, 수직 스캔라인 단위로 다른 부분과 비교하여 미처리 영역 경계의 화소간 거리가 상당히 큼을 알 수 있다. 즉, 제2 및 제3영상(803, 805)에서 빨간색 원으로 표시된 부분 각각은 도 6의 수직 및 수평 탐색단계(603, 607) 각각에서 탐색된 미처리 영역 경계의 화소간 거리가 최대 변이값보다 큰 부분이다. 그리고 제2 및 제3영상(803, 805)을 살펴보면, 빨간색 원으로 도시된 부분의 영상이 부정확하게 보상되었음을 알 수 있다.In the first image 801, the portion corresponding to the portion indicated by the red circle of the second image 803 may be considerably larger in distance between pixels on the boundary of the unprocessed region compared to other portions in the horizontal scan line unit. In addition, the portion of the first image 801 corresponding to the portion indicated by the red circle of the third image 805 may be considerably larger in distance between pixels on the boundary of the unprocessed region compared to other portions in the vertical scan line unit. That is, in each of the portions indicated by the red circles in the second and third images 803 and 805, the distance between the pixels of the unprocessed region boundary detected in each of the vertical and horizontal searching steps 603 and 607 of FIG. 6 is larger than the maximum shift value. It's a big part. Looking at the second and third images 803 and 805, it can be seen that the image of the portion shown by the red circle is incorrectly compensated.

본 발명에 따르면, 제2영상(803)의 빨간색 원으로 표시된 부분은 수직 보상단계(609)를 통해 보상되며, 제3영상(805)의 빨간색 원으로 표시된 부분은 수평 보상단계(605)를 통해 보상된다. 제2 및 제3영상(803, 805)과 비교하여 본 발명에 따른 제4영상(807)에서 빨간색 원으로 표시된 부분이 보다 정확하고 자연스럽게 보상 되었음을 알 수 있다. According to the present invention, the portion indicated by the red circle of the second image 803 is compensated through the vertical compensation step 609, and the portion indicated by the red circle of the third image 805 through the horizontal compensation step 605. Is compensated. Compared with the second and third images 803 and 805, it can be seen that the portion indicated by the red circle in the fourth image 807 according to the present invention is compensated more accurately and naturally.

도 9는 도 4의 가상시점 미처리 영역 보상단계(405)를 나타내는 상세 흐름도이다.9 is a detailed flowchart illustrating the virtual viewpoint unprocessed region compensation step 405 of FIG. 4.

도 9를 참조하면, 가상시점 미처리 영역 보상단계(405)는 탐색단계(901), 판단단계(903) 및 설정단계(905)를 포함한다.Referring to FIG. 9, the virtual view unprocessed region compensation step 405 includes a search step 901, a determination step 903, and a setting step 905.

탐색단계(901)에서, 가상시점 영상 합성단계(401)에서 생성되는 가상시점 영상의 미처리영역 내의 화소 각각에 대응하는, 현재 및 이전 프레임의 가상시점 영상에 대한 깊이정보 영상의 깊이값이 탐색된다. 상기 현재 및 이전 프레임의 가상시점 영상에 대한 깊이정보 영상에는 미처리 영역이 존재하지만 상기 미처리 영역은 깊이정보 영상 합성단계(403)에 의해 보상된다.In the search step 901, the depth value of the depth information image for the virtual view image of the current and previous frame, corresponding to each pixel in the unprocessed region of the virtual view image generated in the virtual view image synthesis step 401, is searched for. . Although there is an unprocessed area in the depth information image of the virtual viewpoint image of the current and previous frames, the unprocessed area is compensated by the depth information image synthesizing step 403.

판단단계(903)에서 탐색단계(901)에서 탐색된 이전 프레임의 가상시점 영상에 대한 깊이정보 영상의 깊이값과 현재 프레임의 가상시점 영상에 대한 깊이정보 영상의 깊이값의 동일성 여부가 판단된다. 상기 이전 프레임의 가상시점 영상에 대한 깊이정보 영상의 깊이값과 현재 프레임의 가상시점 영상에 대한 깊이정보 영상의 깊이값이 완전히 동일하거나 그 차이가 소정 범위 이내인 경우 동일성이 인정될 수 있다.In the determination step 903, it is determined whether the depth value of the depth information image of the virtual viewpoint image of the previous frame found in the search step 901 is the same as the depth value of the depth information image of the virtual viewpoint image of the current frame. The sameness may be recognized when the depth value of the depth information image of the virtual viewpoint image of the previous frame and the depth value of the depth information image of the virtual viewpoint image of the current frame are exactly the same or the difference is within a predetermined range.

설정단계(905)에서 판단단계(903)의 결과 동일성이 인정되면 현재 프레임의 가상시점 영상의 미처리 영역이 이전 프레임의 가상시점 영상의 유효한 화소값으로 보상된다. 상기 이전 프레임의 가상시점 영상의 유효한 화소값은 상기 미처리 영역 내의 화소 각각에 대응되는 화소값이다. 이 때 이전 프레임의 가상시점 영상의 미처리 영역이 보상되었는지 여부는 문제되지 않는다. 그리고 설정단계(905)에서 판단단계(903)의 결과 동일성이 인정되지 않는 부분은 현재 프레임의 가상시점 영상의 미처리 영역의 경계 유효 화소값이 보간되어 보상될 수 있다.In the setting step 905, if the sameness of the result of the determination step 903 is recognized, the unprocessed region of the virtual viewpoint image of the current frame is compensated with a valid pixel value of the virtual viewpoint image of the previous frame. A valid pixel value of the virtual viewpoint image of the previous frame is a pixel value corresponding to each pixel in the unprocessed area. At this time, it does not matter whether the unprocessed area of the virtual viewpoint image of the previous frame is compensated. In the setting step 905, the part of which the sameness is not recognized as the result of the determining step 903 may be compensated by interpolating the boundary effective pixel value of the unprocessed region of the virtual viewpoint image of the current frame.

한편, 본 발명에 따른 가상시점 영상 생성방법에서 가상시점 영상에 대한 깊이정보 영상대신 변이정보 영상이 사용될 수도 있다. 깊이정보가 사용된 원리와 동일하게 이전 프레임의 가상시점 영상과 현재 프레임의 가상시점 영상에서 동일한 객체는 변이값의 변화가 적으므로 깊이정보 영상 합성단계(403) 및 가상시점 미처리영역 보상단계(405)에서 변이정보 영상이 사용되어 가상시점 영상이 보상될 수 있다. Meanwhile, in the virtual view image generating method according to the present invention, the disparity information image may be used instead of the depth information image of the virtual view image. In the same way that the depth information is used, the same object in the virtual viewpoint image of the previous frame and the virtual viewpoint image of the current frame has little variation in the variation value, so that the depth information image synthesis step 403 and the virtual viewpoint unprocessed area compensation step 405 ), The disparity information image may be used to compensate the virtual view image.

도 10은 본 발명에 따른 가상시점 영상 생성방법을 적용해 생성한 가상시점 영상과 그렇지 않은 가상시점 영상을 도시한 도면으로서 설정단계(905)에서 동일성이 인정된 미처리 영역에 대해 보상이 이루어진 영상이다. FIG. 10 is a view illustrating a virtual view image and a virtual view image generated by applying the virtual view image generating method according to the present invention, in which an image is compensated for an unprocessed region recognized for the sameness at the setting step 905. .

상기된 바와 같이 폐색영역에 의한 미처리 영역은 화소값 보간등의 방식으로 보상되는 경우 오류가 발생할 수 있으므로 화소값 보간등의 방식으로 미처리 영역이 보상되기 전 폐색영역에 의한 미처리 영역은 그 점유율이 적을수록 최종 가상시점 영상의 화질이 좋아질 수 있다. 빨간색 원으로 도시된 미처리 영역은 폐색영역에 의한 미처리 영역으로 본 발명이 적용된 현재 프레임의 가상시점 영상의 경우 미처리 영역이 의도된 화소값으로 보상되었음을 알 수 있다. 따라서 종래기술에 비 해 본 발명에 따른 가상시점 영상 생성방법을 이용하여 기준시점 카메라 추가없이 보다 나은 화질의 가상시점 영상을 생성할 수 있다.As described above, an error may occur when the unprocessed area by the occlusion area is compensated by the pixel value interpolation, etc., so that the unprocessed area by the occlusion area before the unprocessed area is compensated by the pixel value interpolation method has a small occupancy rate. The higher the quality of the final virtual view image can be. The unprocessed area shown by the red circle is an unprocessed area by the occlusion area. In the case of the virtual viewpoint image of the current frame to which the present invention is applied, the unprocessed area is compensated by the intended pixel value. Therefore, compared to the prior art, the virtual viewpoint image generation method according to the present invention can generate a virtual viewpoint image of better image quality without adding a reference viewpoint camera.

도 11은 본 발명의 일실시예에 따른 가상시점 영상 생성장치의 구성도이다. 11 is a block diagram of a virtual viewpoint image generating apparatus according to an embodiment of the present invention.

도 11을 참조하면, 본 발명에 따른 가상시점 영상 생성장치는 가상시점 영상 합성부(1101), 깊이정보 영상 합성부(1103) 및 가상시점 미처리 영역 보상부(1111)를 포함한다.Referring to FIG. 11, the apparatus for generating a virtual viewpoint image according to the present invention includes a virtual viewpoint image synthesizer 1101, a depth information image synthesizer 1103, and a virtual viewpoint unprocessed region compensator 1111.

가상시점 영상 합성부(1101)는 복수의 기준시점 카메라에 대한 기준시점 영상을 합성하여 미처리 영역이 포함된 가상시점 카메라에 대한 가상시점 영상을 생성한다. 이때 3차원 워핑 기법 또는 영상 보간 기법이 적용될 수 있다.The virtual view image synthesizer 1101 generates a virtual view image of the virtual view camera including the unprocessed region by synthesizing the reference view images of the plurality of reference view cameras. In this case, 3D warping or image interpolation may be applied.

깊이정보 영상 합성부(1103)는 상기 복수의 기준시점 카메라에 대한 깊이정보 영상을 합성하여 가상시점 영상 합성부(1101)에서 생성된 가상시점 영상에 대한 깊이정보 영상을 생성하고 상기 가상시점 영상에 대한 깊이정보 영상의 미처리 영역을 보상한다. 깊이정보 영상 합성부(1103)는 합성수단(1105), 수평 탐색수단(1106), 수평 보상수단(1107), 수직 탐색수단(1108) 및 수직 보상수단(1109)을 포함한다.The depth information image synthesizer 1103 synthesizes depth information images of the plurality of reference view cameras to generate a depth information image of the virtual view image generated by the virtual view image synthesizer 1101, and then adds the depth information image to the virtual view image. Compensates for the unprocessed region of the depth information image. The depth information image synthesizing unit 1103 includes a combining unit 1105, a horizontal searching unit 1106, a horizontal compensating unit 1107, a vertical searching unit 1108, and a vertical compensating unit 1109.

합성수단(1105)은 상기 복수의 기준시점 카메라에 대한 깊이정보 영상을 합성하여 가상시점 영상 합성부(1101)에서 생성된 가상시점 영상에 대한 깊이정보 영상을 생성한다. The synthesizing means 1105 synthesizes depth information images of the plurality of reference viewpoint cameras to generate depth information images of the virtual viewpoint images generated by the virtual viewpoint image synthesis unit 1101.

그리고 수평 탐색수단(1106)은 합성수단(1105)에서 생성된 깊이정보 영상의 미처리 영역에 대한 유효한 깊이값을 수평 스캔라인 단위로 탐색하고 탐색된 유효 깊이값 중 미처리 영역 경계의 유효 깊이값을 갖는 화소간 거리를 수평 스캔라인 단위로 계산한다. 수평 보상수단(1107)은 상기 미처리 영역에 대한 화소간 거리가 상기 최대 변이값보다 작은 경우 수평 스캔라인 단위로 탐색된 상기 미처리 영역 경계의 유효 깊이값 중 최소 깊이값으로 상기 깊이정보 영상의 미처리 영역을 보상한다. 수평 보상수단(1107)은 요구되는 정확성에 따라 상기 미처리 영역 경계의 유효 깊이값의 평균값, 최대값 등으로 상기 깊이정보 영상의 미처리 영역을 보상할 수 있다. The horizontal search unit 1106 searches for an effective depth value of the unprocessed region of the depth information image generated by the combining unit 1105 in units of horizontal scan lines, and has an effective depth value of the unprocessed region boundary among the searched effective depth values. The distance between pixels is calculated in units of horizontal scan lines. The horizontal compensating unit 1107 is an unprocessed region of the depth information image as the minimum depth value among the effective depth values of the boundary of the unprocessed region searched in units of horizontal scan lines when the interpixel distance with respect to the unprocessed region is smaller than the maximum variation value. To compensate. The horizontal compensation means 1107 may compensate the unprocessed area of the depth information image with an average value, a maximum value, and the like of the effective depth value of the boundary of the unprocessed area according to the required accuracy.

수직 탐색수단(1108) 및 수직 보상수단(1109)은 수평 탐색수단(1106) 및 수평 보상수단(1107)과 같이 미처리 영역을 탐색 및 보상하나, 수직 스캔라인 단위로 미처리 영역을 탐색 및 보상한다.The vertical search means 1108 and the vertical compensation means 1109 search and compensate for the unprocessed area like the horizontal search means 1106 and the horizontal compensation means 1107, but search and compensate for the unprocessed area by the vertical scan line.

가상시점 미처리영역 보상부(1111)는 깊이정보 영상 합성부(1103)에서 생성되는 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상에 기초하여 가상시점 영상 합성부(1101)에서 생성되는 현재 프레임의 가상시점 영상의 미처리 영역을 보상한다. 가상시점 미처리영역 보상부(1111)는 탐색수단(1113), 판단수단(1115) 및 설정수단(1117)을 포함한다.The virtual view unprocessed region compensator 1111 generates the virtual view image synthesizer 1101 based on the depth information image of the virtual view image of the current and at least one previous frame generated by the depth information image synthesizer 1103. Compensates for the unprocessed area of the virtual view image of the current frame. The virtual viewpoint unprocessed region compensator 1111 includes a search unit 1113, a determination unit 1115, and a setting unit 1117.

탐색수단(1113)은 가상시점 영상 합성부(1101)에서 생성되는 현재 프레임의 가상시점 영상의 미처리 영역 내의 화소 각각에 대응하는 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상의 깊이값을 탐색한다. 판단수단(1115)은 탐색수단(1113)에서 탐색된 현재 및 적어도 하나 이상의 이전 프레 임의 가상시점 영상에 대한 깊이정보 영상의 깊이값의 동일성 여부를 판단한다. 상기 깊이값이 각각 동일하거나 상기 깊이값의 차이가 소정 범위 이내인 경우 동일성이 인정될 수 있다. 설정수단(1117)은 판단수단(1115)의 판단결과 동일성이 인정되는 경우 현재 프레임의 가상시점 영상의 미처리 영역을 상기 현재 프레임의 가상시점 영상의 미처리 영역 내의 화소에 대응하는 이전 프레임의 가상시점 영상의 화소값으로 보상한다. 설정수단(1117)은 판단수단(1115)의 판단결과 동일성이 인정되지 않은 미처리 영역의 경우 상기 미처리 영역 경계의 유효 화소값을 보간하여 상기 미처리 영역을 보상할 수 있다.The search unit 1113 may determine the depth of the depth information image of the virtual view image of the current and at least one previous frame corresponding to each pixel in the unprocessed region of the virtual view image of the current frame generated by the virtual view image synthesis unit 1101. Search for a value. The determining unit 1115 determines whether or not the depth value of the depth information image is identical to the current and at least one previous frame random virtual viewpoint image searched by the searching unit 1113. The identity may be recognized when the depth values are the same or when the difference between the depth values is within a predetermined range. The setting means 1117 may determine that the virtual view image of the previous frame corresponds to a pixel in the unprocessed area of the virtual viewpoint image of the current frame when the sameness is recognized. Compensate with the pixel value of. The setting unit 1117 may compensate for the unprocessed region by interpolating an effective pixel value of the boundary of the unprocessed region in the case of the unprocessed region where the sameness is not recognized as the determination result of the determining unit 1115.

한편, 전술한 바와 같은 본 발명에 따른 가상시점 영상 생성방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체(CD, DVD와 같은 유형적 매체뿐만 아니라 반송파와 같은 무형적 매체)를 포함한다.On the other hand, the virtual view image generating method according to the present invention as described above can be created by a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. And the recording medium includes all types of recording media (intangible medium such as a carrier wave as well as tangible media such as CD and DVD) readable by a computer.

본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 특허청구범위의 균등범위 내에서 다양한 수정 및 변 형이 가능함은 물론이다.Although the present invention has been described by means of limited embodiments and drawings, the present invention is not limited thereto and is intended to be equivalent to the technical idea and claims of the present invention by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible.

도 1은 가상시점 영상을 설명하기 위한 도면,1 is a view for explaining a virtual view image,

도 2 및 도 3은 합성된 가상시점 영상을 도시한 도면,2 and 3 are views illustrating a synthesized virtual view image;

도 4는 본 발명의 일실시예에 따른 가상시점 영상 생성방법을 나타내는 흐름도,4 is a flowchart illustrating a method of generating a virtual viewpoint image according to an embodiment of the present invention;

도 5는 도 4의 가상시점 영상 합성단계(401) 및 깊이정보 영상 합성단계(403)에서 생성되는 이전 프레임 및 현재 프레임의 가상시점 영상(501, 505) 및 깊이정보 영상(503, 507)을 도시한 도면,FIG. 5 illustrates virtual view images 501 and 505 and depth information images 503 and 507 of previous and current frames generated in the virtual view image synthesis step 401 and the depth information image synthesis step 403 of FIG. 4. Figure,

도 6은 도 4의 깊이정보 영상 합성단계(403)를 나타내는 상세 흐름도,6 is a detailed flowchart illustrating a depth information image synthesizing step 403 of FIG. 4;

도 7 및 도 8은 본 발명에 따른 깊이정보 영상 합성단계(403)가 수행되어 미처리 영역이 보상된 가상시점 영상에 대한 깊이정보 영상을 도시한 도면,7 and 8 illustrate a depth information image of a virtual viewpoint image in which an unprocessed region is compensated by performing a depth information image synthesis step 403 according to the present invention;

도 9는 도 4의 가상시점 미처리 영역 보상단계(405)를 나타내는 상세 흐름도,9 is a detailed flowchart illustrating the virtual viewpoint unprocessed region compensation step 405 of FIG. 4;

도 10은 본 발명에 따른 가상시점 영상 생성방법을 적용해 생성한 가상시점 영상과 그렇지 않은 가상시점 영상을 도시한 도면,10 is a view illustrating a virtual view image and a virtual view image generated by applying the virtual view image generating method according to the present invention;

도 11은 본 발명의 일실시예에 따른 가상시점 영상 생성장치의 구성도이다.11 is a block diagram of a virtual viewpoint image generating apparatus according to an embodiment of the present invention.

Claims (10)

복수의 기준시점 카메라에 대한 기준시점 영상을 합성하여 가상시점 카메라에 대한 가상시점 영상을 생성하는 가상시점 영상 합성단계;A virtual viewpoint image synthesizing step of synthesizing reference viewpoint images for a plurality of reference viewpoint cameras to generate a virtual viewpoint image for the virtual viewpoint camera; 상기 복수의 기준시점 카메라에 대한 깊이정보 영상을 합성하여 상기 가상시점 영상에 대한 깊이정보 영상을 생성하고 상기 가상시점 영상에 대한 깊이정보 영상의 미처리 영역인 제1미처리영역을 보상하는 깊이정보 영상 합성단계; 및A depth information image is synthesized by synthesizing depth information images of the plurality of reference view cameras, and generating a depth information image of the virtual view image, and compensating a first unprocessed region which is an unprocessed region of the depth information image of the virtual view image. step; And 상기 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상에 기초하여 상기 현재 프레임의 가상시점 영상의 미처리 영역인 제2미처리영역을 보상하는 가상시점 미처리 영역 보상단계Compensating for the virtual unprocessed region compensation step of compensating for the second unprocessed region which is an unprocessed region of the virtual viewpoint image of the current frame based on the depth information image of the virtual view image of the current and at least one previous frame. 를 포함하는 가상시점 영상 생성방법.Virtual viewpoint image generation method comprising a. 제 1항에 있어서,The method of claim 1, 상기 깊이정보 영상 합성단계는,The depth information image synthesis step, 상기 가상시점 영상에 대한 깊이정보 영상을 합성하는 합성단계;Synthesizing a depth information image of the virtual view image; 상기 제1미처리영역에 대한 유효 깊이값을 수평 스캔라인 단위로 탐색하는 수평 탐색단계; A horizontal search step of searching for an effective depth value for the first unprocessed area in a horizontal scan line unit; 수평 스캔라인 단위에서 상기 제1미처리영역 경계의 유효 깊이값을 갖는 화소간 거리가 최대 변이값보다 작은 경우, 상기 경계의 유효 깊이값을 이용하여 상 기 제2미처리영역을 보상하는 수평 보상단계;A horizontal compensation step of compensating the second unprocessed area by using an effective depth value of the boundary when the distance between pixels having an effective depth value of the first unprocessed area boundary in a horizontal scan line unit is smaller than a maximum shift value; 상기 수평 보상단계 결과 존재하는 미처리영역에 대한 유효 깊이값을 수직 스캔라인 단위로 탐색하는 수직 탐색단계; 및A vertical search step of searching for an effective depth value of the unprocessed area existing as a result of the horizontal compensation step in a vertical scan line unit; And 수직 스캔라인 단위에서 상기 수직 탐색단계의 미처리영역 경계의 유효 깊이값을 갖는 화소간 거리가 최대 변이값보다 작은 경우, 상기 경계의 유효 깊이값을 이용하여 상기 수직 탐색단계의 미처리영역을 보상하는 수직 보상단계When the interpixel distance having the effective depth value of the unprocessed area boundary of the vertical search step in the vertical scan line unit is smaller than the maximum shift value, the vertical compensation of the unprocessed area of the vertical search step is performed using the effective depth value of the boundary. Compensation stage 를 포함하는 가상시점 영상 생성방법.Virtual viewpoint image generation method comprising a. 제 2항에 있어서,3. The method of claim 2, 상기 수평 및 수직 보상단계는The horizontal and vertical compensation step 상기 경계의 유효 깊이값 중 최소값으로 미처리영역을 보상하는Compensating the unprocessed area to the minimum of the effective depth value of the boundary 가상시점 영상 생성방법.Virtual viewpoint image generation method. 제 1항에 있어서,The method of claim 1, 상기 가상시점 미처리 영역 보상단계는The virtual point unprocessed region compensation step 상기 제2미처리영역 내의 화소 각각에 대응하는, 상기 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상의 깊이값을 탐색하는 탐색단계;A search step of searching for a depth value of a depth information image of a virtual viewpoint image of the current and at least one previous frame corresponding to each pixel in the second unprocessed region; 상기 탐색단계에서 탐색된 깊이값 각각의 동일성 여부를 판단하는 판단단계; 및A determination step of determining whether or not each of the depth values searched in the search step is identical; And 상기 판단단계의 결과 동일성이 인정되는 경우, 상기 제2미처리영역 내의 화소 각각에 대응하는 적어도 하나 이상의 이전 프레임의 가상시점 영상의 화소값을 상기 제2미처리영역 내의 화소값으로 설정하는 설정단계A setting step of setting a pixel value of at least one virtual viewpoint image of at least one previous frame corresponding to each pixel in the second unprocessed region to a pixel value in the second unprocessed region when the sameness is recognized as a result of the determining step. 를 포함하는 가상시점 영상 생성방법.Virtual viewpoint image generation method comprising a. 제 4항에 있어서,The method of claim 4, wherein 상기 판단단계는The determining step 상기 깊이값 각각이 같거나 상기 깊이값 각각의 차이가 소정 범위 이내인 경우를 기준으로 동일성 여부를 판단하는Determination of equality on the basis of the case that each of the depth value is the same or the difference between each depth value is within a predetermined range 가상시점 영상 생성방법.Virtual viewpoint image generation method. 복수의 기준시점 카메라에 대한 기준시점 영상을 합성하여 가상시점 카메라에 대한 가상시점 영상을 생성하는 가상시점 영상 합성단계;A virtual viewpoint image synthesizing step of synthesizing reference viewpoint images for a plurality of reference viewpoint cameras to generate a virtual viewpoint image for the virtual viewpoint camera; 상기 복수의 기준시점 카메라에 대한 변이정보 영상을 합성하여 상기 가상시점 영상에 대한 변이정보 영상을 생성하고 상기 가상시점 영상에 대한 변이정보 영상의 미처리 영역을 보상하는 변이정보 영상 합성단계; 및A disparity information image synthesizing step of synthesizing disparity information images of the plurality of reference view cameras to generate disparity information images of the virtual view image, and compensating an unprocessed region of the disparity information image of the virtual view image; And 상기 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 변이정보 영상에 기초하여 상기 현재 프레임의 가상시점 영상의 미처리 영역을 보상하는 가상시점 미처리 영역 보상단계Compensating for the unprocessed area of the virtual view image of the virtual view image of the current frame based on the disparity information image of the virtual view image of the current and at least one previous frame. 를 포함하는 가상시점 영상 생성방법.Virtual viewpoint image generation method comprising a. 복수의 기준시점 카메라에 대한 기준시점 영상을 합성하여 가상시점 카메라에 대한 가상시점 영상을 생성하는 가상시점 영상 합성부;A virtual viewpoint image synthesizer configured to generate a virtual viewpoint image for the virtual viewpoint camera by synthesizing the reference viewpoint images for the plurality of reference viewpoint cameras; 상기 복수의 기준시점 카메라에 대한 깊이정보 영상을 합성하여 상기 가상시점 영상에 대한 깊이정보 영상을 생성하고 상기 가상시점 영상에 대한 깊이정보 영상의 미처리 영역인 제1미처리영역을 보상하는 깊이정보 영상 합성부; 및A depth information image is synthesized by synthesizing depth information images of the plurality of reference view cameras, and generating a depth information image of the virtual view image, and compensating a first unprocessed region which is an unprocessed region of the depth information image of the virtual view image. part; And 상기 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상에 기초하여 상기 현재 프레임의 가상시점 영상의 미처리 영역인 제2미처리영역을 보상하는 가상시점 미처리 영역 보상부A virtual point unprocessed area compensator for compensating a second unprocessed area that is an unprocessed area of the virtual view image of the current frame based on a depth information image of the virtual view image of the current and at least one previous frame. 를 포함하는 가상시점 영상 생성장치.Virtual viewpoint image generating apparatus comprising a. 제 7항에 있어서,The method of claim 7, wherein 상기 깊이정보 영상 합성부는The depth information image synthesizer 상기 가상시점 영상에 대한 깊이정보 영상을 합성하는 합성수단;Synthesizing means for synthesizing a depth information image with respect to the virtual viewpoint image; 상기 제1미처리영역에 대한 유효 깊이값을 수평 스캔라인 단위로 탐색하는 수평 탐색수단; Horizontal search means for searching for an effective depth value for the first unprocessed area in a horizontal scan line unit; 수평 스캔라인 단위에서 상기 제1미처리영역 경계의 유효 깊이값을 갖는 화소간 거리가 최대 변이값보다 작은 경우, 상기 경계의 유효 깊이값을 이용하여 상기 제1미처리영역을 보상하는 수평 보상수단;Horizontal compensation means for compensating the first unprocessed area by using an effective depth value of the boundary when the distance between pixels having an effective depth value of the first unprocessed area boundary in a horizontal scan line unit is smaller than a maximum shift value; 상기 수평 수단 결과 존재하는 미처리영역에 대한 유효 깊이값을 수직 스캔라인 단위로 탐색하는 수직 탐색수단; 및Vertical search means for searching for an effective depth value of the unprocessed region existing as a result of the horizontal means in a vertical scan line unit; And 수직 스캔라인 단위에서 상기 수직 탐색수단의 미처리영역 경계의 유효 깊이값을 갖는 화소간 거리가 최대 변이값보다 작은 경우, 상기 경계의 유효한 깊이값을 이용하여 상기 수직 탐색수단의 미처리영역을 보상하는 수직 보상수단When the interpixel distance having the effective depth value of the unprocessed area boundary of the vertical search means in the unit of vertical scan line is smaller than the maximum shift value, the vertical compensation of the unprocessed area of the vertical search means is performed using the effective depth value of the boundary. Compensation Means 을 포함하는 가상시점 영상 생성장치.Virtual viewpoint image generating apparatus comprising a. 제 8항에 있어서,The method of claim 8, 상기 수평 및 수직 보상수단은The horizontal and vertical compensation means 상기 경계의 유효 깊이값 중 최소값으로 미처리영역을 보상하는Compensating the unprocessed area to the minimum of the effective depth value of the boundary 가상시점 영상 생성장치.Virtual viewpoint image generating device. 제 7항에 있어서,The method of claim 7, wherein 상기 가상시점 미처리 영역 보상부는The virtual point unprocessed area compensation unit 상기 제2미처리영역 내의 화소 각각에 대응하는, 상기 현재 및 적어도 하나 이상의 이전 프레임의 가상시점 영상에 대한 깊이정보 영상의 깊이값을 탐색하는 탐색수단;Search means for searching for a depth value of a depth information image of a virtual viewpoint image of the current and at least one previous frame, corresponding to each pixel in the second unprocessed region; 상기 탐색수단에서 탐색된 깊이값 각각의 동일성 여부를 판단하는 판단수단; 및Determination means for determining whether or not each of the depth values searched by the search means is identical; And 상기 판단수단의 결과 동일성이 인정되는 경우 상기 제2미처리영역 내의 화소 각각에 대응하는 상기 적어도 하나 이상의 이전 프레임의 가상시점 영상의 화소값을 상기 제2미처리영역 내의 화소값으로 설정하는 설정수단Setting means for setting a pixel value of the virtual viewpoint image of the at least one or more previous frames corresponding to each pixel in the second unprocessed region to a pixel value in the second unprocessed region when the result of the determination means is confirmed to be the same. 을 포함하는 가상시점 영상 생성장치.Virtual viewpoint image generating apparatus comprising a.
KR1020080123320A 2008-08-11 2008-12-05 Method for generating vitual view image and apparatus thereof KR101066550B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080078463 2008-08-11
KR20080078463 2008-08-11

Publications (2)

Publication Number Publication Date
KR20100019927A true KR20100019927A (en) 2010-02-19
KR101066550B1 KR101066550B1 (en) 2011-09-21

Family

ID=42090124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080123320A KR101066550B1 (en) 2008-08-11 2008-12-05 Method for generating vitual view image and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101066550B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120026662A (en) * 2010-09-10 2012-03-20 삼성전자주식회사 Apparatus and method for inpainting in occlusion
US8781252B2 (en) 2010-08-16 2014-07-15 Samsung Electronics Co., Ltd. Image processing apparatus and method
US8803947B2 (en) 2010-08-03 2014-08-12 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view
US9135744B2 (en) 2010-12-28 2015-09-15 Kt Corporation Method for filling hole-region and three-dimensional video system using the same
US9147281B2 (en) 2010-08-27 2015-09-29 Samsung Electronics Co., Ltd. Rendering apparatus and method for generating multi-views
US9304194B2 (en) 2011-01-20 2016-04-05 Samsung Electronics Co., Ltd. Apparatus and method for estimating camera motion using depth information, and augmented reality system
US9807340B2 (en) 2014-11-25 2017-10-31 Electronics And Telecommunications Research Institute Method and apparatus for providing eye-contact function to multiple points of attendance using stereo image in video conference system
KR20210016613A (en) * 2018-07-12 2021-02-16 캐논 가부시끼가이샤 Information processing device, information processing method and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336955B1 (en) 2012-06-25 2013-12-04 인텔렉추얼디스커버리 주식회사 Method and system for generating multi-view image
JP6824579B2 (en) * 2017-02-17 2021-02-03 株式会社ソニー・インタラクティブエンタテインメント Image generator and image generation method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100603601B1 (en) 2004-11-08 2006-07-24 한국전자통신연구원 Apparatus and Method for Production Multi-view Contents
KR100776649B1 (en) * 2004-12-06 2007-11-19 한국전자통신연구원 A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method
KR100931311B1 (en) * 2006-12-04 2009-12-11 한국전자통신연구원 Depth estimation device and its method for maintaining depth continuity between frames

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8803947B2 (en) 2010-08-03 2014-08-12 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view
US8781252B2 (en) 2010-08-16 2014-07-15 Samsung Electronics Co., Ltd. Image processing apparatus and method
US9147281B2 (en) 2010-08-27 2015-09-29 Samsung Electronics Co., Ltd. Rendering apparatus and method for generating multi-views
KR20120026662A (en) * 2010-09-10 2012-03-20 삼성전자주식회사 Apparatus and method for inpainting in occlusion
US9135744B2 (en) 2010-12-28 2015-09-15 Kt Corporation Method for filling hole-region and three-dimensional video system using the same
US9304194B2 (en) 2011-01-20 2016-04-05 Samsung Electronics Co., Ltd. Apparatus and method for estimating camera motion using depth information, and augmented reality system
US9807340B2 (en) 2014-11-25 2017-10-31 Electronics And Telecommunications Research Institute Method and apparatus for providing eye-contact function to multiple points of attendance using stereo image in video conference system
KR20210016613A (en) * 2018-07-12 2021-02-16 캐논 가부시끼가이샤 Information processing device, information processing method and program

Also Published As

Publication number Publication date
KR101066550B1 (en) 2011-09-21

Similar Documents

Publication Publication Date Title
KR101066550B1 (en) Method for generating vitual view image and apparatus thereof
Zhu et al. Depth image based view synthesis: New insights and perspectives on hole generation and filling
CN107430782B (en) Method for full parallax compressed light field synthesis using depth information
CN101682794B (en) Method, apparatus and system for processing depth-related information
JP5132690B2 (en) System and method for synthesizing text with 3D content
US20130069942A1 (en) Method and device for converting three-dimensional image using depth map information
US20090129667A1 (en) Device and method for estimatiming depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US20120127267A1 (en) Depth estimation based on global motion
CN104662896A (en) An apparatus, a method and a computer program for image processing
WO2012096530A2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
US8803947B2 (en) Apparatus and method for generating extrapolated view
KR100745691B1 (en) Binocular or multi-view stereo matching apparatus and its method using occlusion area detection
US20130242043A1 (en) Depth video filtering method and apparatus
WO2013068271A2 (en) Method for processing a stereoscopic image comprising an embedded object and corresponding device
KR101066542B1 (en) Method for generating vitual view image and apparatus thereof
US9639944B2 (en) Method and apparatus for determining a depth of a target object
KR101289283B1 (en) A holographic display method using a hybrid image acquisition system
US10554954B2 (en) Stereoscopic focus point adjustment
JPH0981746A (en) Two-dimensional display image generating method
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
KR20140113066A (en) Multi-view points image generating method and appararus based on occulsion area information
US9591290B2 (en) Stereoscopic video generation
US20120154388A1 (en) Stereo image processing method, stereo image processing device and display device
US9693042B2 (en) Foreground and background detection in a video
KR101342783B1 (en) Method for generating virtual view image and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140827

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150827

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160826

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170828

Year of fee payment: 7