KR100989435B1 - Method and apparatus for processing multi-viewpoint image - Google Patents
Method and apparatus for processing multi-viewpoint image Download PDFInfo
- Publication number
- KR100989435B1 KR100989435B1 KR1020090022251A KR20090022251A KR100989435B1 KR 100989435 B1 KR100989435 B1 KR 100989435B1 KR 1020090022251 A KR1020090022251 A KR 1020090022251A KR 20090022251 A KR20090022251 A KR 20090022251A KR 100989435 B1 KR100989435 B1 KR 100989435B1
- Authority
- KR
- South Korea
- Prior art keywords
- multiview
- image
- depth map
- trimap
- camera
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Computer Graphics (AREA)
Abstract
다시점 영상 처리 방법 및 장치가 개시된다. 본 발명에 따른 다시점 영상 처리 방법은, 깊이 카메라로부터 얻어진 깊이맵을 다시점 카메라의 시점으로 3차원 워핑하여 다시점 깊이맵을 얻는 단계; 상기 다시점 깊이맵을 이용하여 상기 다시점 카메라로부터 얻어진 다시점 영상에 대응하는 다시점 트라이맵을 생성하는 단계; 상기 다시점 트라이맵을 이용하여 상기 다시점 영상에 대응하는 다시점 알파맷을 생성하는 단계; 및 상기 다시점 알파맷을 상기 다시점 영상에 적용하여 다시점 전경을 추출하는 단계를 포함하는 것을 특징으로 한다. 이러한 본 발명에 의하면 다시점 영상에 대하여 자동적으로 고품질의 영상 매팅을 수행할 수 있다.Disclosed are a multiview image processing method and apparatus. Multi-view image processing method according to the present invention comprises the steps of obtaining a multi-view depth map by three-dimensional warping the depth map obtained from the depth camera to the viewpoint of the multi-view camera; Generating a multiview trimap corresponding to a multiview image obtained from the multiview camera using the multiview depth map; Generating a multiview alphamat corresponding to the multiview image using the multiview trimap; And extracting a multiview foreground by applying the multiview alphamat to the multiview image. According to the present invention, it is possible to automatically perform high quality image matting on a multiview image.
전경 분리, 영상 매팅, 다시점 영상, 영상 합성 Foreground separation, image matting, multiview image, image synthesis
Description
본 발명은 다시점 영상 처리 방법 및 장치에 관한 것으로 보다 상세하게는 깊이 카메라로부터 얻어진 깊이맵과 다시점 카메라로부터 얻어진 다시점 영상을 이용하여 다시점 전경을 추출할 수 있는 다시점 영상 처리 방법 및 장치에 관한 것이다.The present invention relates to a multiview image processing method and apparatus, and more particularly, to a multiview image processing method and apparatus capable of extracting a multiview foreground using a depth map obtained from a depth camera and a multiview image obtained from a multiview camera. It is about.
멀티미디어 기술의 발달로 최근 실감 미디어에 대한 관심이 높아지고 있다. 그 중 다시점 영상(multi-view image)은 시점이 다른 2 이상의 카메라(다시점 카메라)를 이용하여 획득한 영상들의 집합을 의미한다. 기존의 단일 시점 비디오와는 달리 다시점 비디오는 하나의 장면을 다수의 카메라를 통해 촬영함으로써 3차원의 동적인 영상을 생성할 수 있다. 이러한 다시점 영상은 사용자에게 자유로운 시점 및 넓은 화면을 통한 입체감을 제공할 수 있다. 최근에는 다양한 다시점 비디오 응용분야가 연구되고 있는데, 자유 시점 TV(Freeview TV : FTV), 3-D TV, 감시, 몰입형 원격회의 등에 대한 연구가 활발히 이루어지고 있다. With the development of multimedia technology, interest in realistic media has recently increased. Among them, a multi-view image means a set of images acquired by using two or more cameras (multi-view cameras) having different viewpoints. Unlike conventional single-view video, multi-view video can generate a 3D dynamic image by photographing a scene through multiple cameras. Such a multi-view image may provide a user with a free view and a 3D effect through a wide screen. Recently, a variety of multi-view video applications have been studied, and free-view TV (FTV), 3-D TV, surveillance, and immersive teleconference are being actively researched.
한편, 영화 산업이나 방송국에서는 특수효과를 위해 영상 합성 기술을 필요 로 한다. 특히, 첨단 3차원 컴퓨터 그래픽 기술이 적용된 블록 버스터가 쏟아지는 요즈음은 우수한 영상 합성 기술의 확보가 필수적이라고 해도 과언이 아니다.On the other hand, the film industry and broadcasting stations require image synthesis technology for special effects. In particular, it is no exaggeration to say that it is essential to secure excellent image synthesis technology these days when blockbusters with advanced three-dimensional computer graphics technology are pouring in.
일반적으로 영상은 전경 객체와 배경으로 구분할 수 있다. 전경 객체를 배경으로부터 추출하는 것을 전경 맷(foreground matte)이라고 하며, 이미지의 픽셀 불투명도(opacity)를 나타내는 알파값을 고려하여 원 영상으로부터 배경을 제거한다. 이러한 기술을 영상 매팅(image matting)이라고 한다. 한편, 영상 합성은 알파값을 이용하여 전경 맷을 임의의 배경과 결합하는 것을 의미한다. In general, an image may be divided into a foreground object and a background. Extracting the foreground object from the background is called a foreground matte and removes the background from the original image in consideration of an alpha value representing pixel opacity of the image. This technique is called image matting. Image synthesis, on the other hand, means combining the foreground matt with an arbitrary background using an alpha value.
다시점 영상으로부터 전경을 추출하고, 다른 영상의 배경을 합성하기 위해서는 기본적으로 각 시점의 영상마다 전경을 추출하여야 한다. 종래에는 사용자 혹은 편집자가 직접 개입하여 각 시점의 영상마다 영상 매팅을 수행하는 수동적 매팅 방법이 대부분이었다. 즉, N개의 영상으로 이루어진 다시점 영상의 매팅을 수행하는 경우 일일이 N 번의 영상 매팅을 수행하여야 한다. 따라서 비디오 시퀀스와 같이 처리할 영상이 증가할수록 많은 시간과 노력이 필요하며 따라서 자동적으로 고품질의 영상 매팅을 수행할 수 있는 방법이 요구되고 있다.In order to extract a foreground from a multiview image and synthesize a background of another image, the foreground must be extracted for each image of each viewpoint. In the past, a manual matting method in which a user or an editor directly intervenes to perform image matting for each image of each viewpoint is used. That is, when performing multiview image mating consisting of N images, N image matting should be performed daily. Therefore, as the number of images to be processed like a video sequence increases, more time and effort are required, and thus, a method for automatically performing high quality image matting is required.
본 발명이 이루고자 하는 기술적 과제는 다시점 영상에 대하여 자동적으로 고품질의 영상 매팅을 수행할 수 있는 다시점 영상 처리 방법 및 장치를 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention has been made in an effort to provide a multiview image processing method and apparatus capable of automatically performing high quality image matting on a multiview image.
상기 기술적 과제를 해결하기 위하여 본 발명에 따른 다시점 영상 처리 방법은, (a) 깊이 카메라로부터 얻어진 깊이맵을 다시점 카메라의 시점으로 3차원 워핑하여 다시점 깊이맵을 얻는 단계; (b) 상기 다시점 깊이맵을 이용하여 상기 다시점 카메라로부터 얻어진 다시점 영상에 대응하는 다시점 트라이맵을 생성하는 단계; (c) 상기 다시점 트라이맵을 이용하여 상기 다시점 영상에 대응하는 다시점 알파맷을 생성하는 단계; 및 (d) 상기 다시점 알파맷을 상기 다시점 영상에 적용하여 다시점 전경을 추출하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, the multi-view image processing method according to the present invention comprises the steps of: (a) obtaining a multi-view depth map by three-dimensional warping the depth map obtained from the depth camera to the viewpoint of the multi-view camera; generating a multiview trimap corresponding to a multiview image obtained from the multiview camera using the multiview depth map; (c) generating a multi-view alphamat corresponding to the multi-view image using the multi-view trimap; And (d) extracting a multiview foreground by applying the multiview alphamat to the multiview image.
상기 (b) 단계에서 상기 다시점 트라이맵을 구성하는 각 트라이맵을 생성함에 있어서, 상기 다시점 영상을 구성하는 각 영상과 상기 다시점 깊이맵을 구성하는 각 3차원 워핑된 깊이맵을 가지고, (b1) 상기 3차원 워핑된 깊이맵에서 전경 영역을 결정하고, 상기 전경 영역에서 상기 3차원 워핑으로 인해 발생된 홀을 채우는 단계; 및 (b2) 상기 홀이 채워진 깊이맵으로부터 상기 트라이맵을 생성하는 단계를 포함할 수 있다.In generating the trimaps constituting the multi-view trimap in the step (b), each image constituting the multi-view image and each three-dimensional warped depth map constituting the multi-view depth map, (b1) determining a foreground area in the three-dimensional warped depth map and filling a hole generated by the three-dimensional warping in the foreground area; And (b2) generating the trimap from the depth map filled with the holes.
상기 (b1) 단계는, (b11) 상기 영상에 대하여 컬러 세그멘테이션을 수행하여 세그먼트된 영상을 생성하는 단계; (b12) 상기 세그먼트된 영상의 세그먼트들 중 상기 3차원 워핑된 깊이맵에서의 깊이값이 일정 비율 이상 존재하는 세그먼트들의 집합을 상기 전경 영역으로 결정하는 단계; 및 (b13) 상기 3차원 워핑된 깊이맵의 상기 전경 영역에서 상기 3차원 워핑으로 인해 발생된 홀을 채우는 단계를 포함할 수 있다.The step (b1) may include: (b11) generating a segmented image by performing color segmentation on the image; (b12) determining, as the foreground region, a set of segments among the segments of the segmented image having a depth value in the three-dimensional warped depth map more than a predetermined ratio; And (b13) filling a hole generated due to the three-dimensional warping in the foreground area of the three-dimensional warped depth map.
상기 (b13) 단계는, 상기 홀 주변의 화소들 중에서 이용 가능한 화소들의 깊이값들의 평균을 상기 홀의 깊이값으로 정함으로써 상기 홀을 채울 수 있다.In the step (b13), the hole may be filled by setting an average of depth values of available pixels among the pixels around the hole as the depth value of the hole.
상기 (b2) 단계는, 상기 홀이 채워진 깊이맵에 침식 및 팽창 연산을 적용하여 상기 트라이맵을 생성할 수 있다.In the step (b2), the trimap may be generated by applying an erosion and expansion operation to the depth map filled with the holes.
상기 (a) 단계는, 상기 깊이 카메라의 카메라 파라미터와 상기 다시점 카메라를 구성하는 카메라 각각의 카메라 파라미터를 이용하여 상기 3차원 워핑을 수행할 수 있다. In the step (a), the three-dimensional warping may be performed using camera parameters of the depth camera and camera parameters of each of the cameras constituting the multi-view camera.
상기 다시점 영상 처리 방법은, 상기 추출된 다시점 전경을 다시점 배경과 합성하여 다시점 합성 영상을 생성하는 단계를 더 포함할 수 있다.The multi-view image processing method may further include synthesizing the extracted multi-view foreground with a multi-view background to generate a multi-view composite image.
상기 기술적 과제를 해결하기 위하여 본 발명에 따른 다시점 영상 처리 장치는, 깊이 카메라로부터 얻어진 깊이맵을 다시점 카메라의 시점으로 3차원 워핑하여 다시점 깊이맵을 얻는 3차원 워핑부; 상기 다시점 깊이맵을 이용하여 상기 다시점 카메라로부터 얻어진 다시점 영상에 대응하는 다시점 트라이맵을 생성하는 트라이맵 생성부; 상기 다시점 트라이맵을 이용하여 상기 다시점 영상에 대응하는 다시점 알파맷을 생성하는 알파맷 생성부; 및 상기 다시점 알파맷을 상기 다시점 영상에 적용하여 다시점 전경을 추출하는 전경 추출부를 포함하는 것을 특징으로 한다. In order to solve the above technical problem, a multi-view image processing apparatus according to the present invention includes: a three-dimensional warping unit which obtains a multi-view depth map by three-dimensional warping a depth map obtained from a depth camera to a viewpoint of a multi-view camera; A trimap generation unit generating a multiview trimap corresponding to a multiview image obtained from the multiview camera using the multiview depth map; An alpha matte generator configured to generate a multiview alphamat corresponding to the multiview image using the multiview trimap; And a foreground extracting unit extracting a multi-view foreground by applying the multi-view alphamat to the multi-view image.
상기 트라이맵 생성부는 상기 다시점 트라이맵을 구성하는 각 트라이맵을 생성함에 있어서, 상기 다시점 영상을 구성하는 각 영상과 상기 다시점 깊이맵을 구성하는 각 3차원 워핑된 깊이맵을 가지고, 상기 3차원 워핑된 깊이맵에서 전경 영역을 결정하고 상기 전경 영역에서 상기 3차원 워핑으로 인해 발생된 홀을 채운 다음, 상기 홀이 채워진 깊이맵으로부터 상기 트라이맵을 생성할 수 있다.The trimap generator generates each trimap constituting the multiview trimap, each image constituting the multiview image and each three-dimensional warped depth map constituting the multiview depth map. The foreground region may be determined from the 3D warped depth map, the hole generated due to the 3D warping may be filled in the foreground region, and the trimap may be generated from the depth map filled with the hole.
상기 트라이맵 생성부는, 상기 영상에 대하여 컬러 세그멘테이션을 수행하여 세그먼트된 영상을 생성하는 세그먼트부; 상기 세그먼트된 영상의 세그먼트들 중 상기 3차원 워핑된 깊이맵에서의 깊이값이 일정 비율 이상 존재하는 세그먼트들의 집합을 상기 전경 영역으로 결정하는 전경 영역 결정부; 및 상기 3차원 워핑된 깊이맵의 상기 전경 영역에서 상기 3차원 워핑으로 인해 발생된 홀을 채우는 홀 제거부; 및 상기 홀이 채워진 깊이맵으로부터 상기 트라이맵을 생성하는 트라이맵 생성부를 포함할 수 있다.The trimap generator may include a segment unit configured to generate a segmented image by performing color segmentation on the image; A foreground region determiner configured to determine, as the foreground region, a set of segments in which a depth value in the 3D warped depth map is greater than a predetermined ratio among the segments of the segmented image; And a hole removing unit filling a hole generated by the three-dimensional warping in the foreground area of the three-dimensional warped depth map. And a trimap generator for generating the trimap from the depth map filled with the holes.
상기 홀 제거부는, 상기 홀 주변의 화소값들 중에서 이용 가능한 화소들의 깊이값들의 평균을 상기 홀의 깊이값으로 정함으로써 상기 홀을 채울 수 있다.The hole removing unit may fill the hole by setting an average of depth values of available pixels among the pixel values around the hole as the depth value of the hole.
상기 트라이맵 생성부는, 상기 홀이 채워진 깊이맵에 침식 및 팽창 연산을 적용하여 상기 트라이맵을 생성할 수 있다.The trimap generator may generate the trimap by applying an erosion and expansion operation to the depth map filled with the holes.
상기 3차원 워핑부는, 상기 깊이 카메라의 카메라 파라미터와 상기 다시점 카메라를 구성하는 카메라 각각의 카메라 파라미터를 이용하여 상기 3차원 워핑을 수행할 수 있다.The three-dimensional warping unit may perform the three-dimensional warping by using camera parameters of the depth camera and camera parameters of cameras constituting the multi-view camera.
상기 다시점 영상 처리 장치는, 상기 추출된 다시점 전경을 다시점 배경과 합성하여 다시점 합성 영상을 생성하는 배경 합성부를 더 포함할 수 있다.The multi-view image processing apparatus may further include a background synthesizer configured to generate the multi-view composite image by synthesizing the extracted multi-view foreground with a multi-view background.
상기 기술적 과제를 해결하기 위하여 상기된 본 발명에 따른 다시점 영상 처리 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the above technical problem, there is provided a computer-readable recording medium having recorded thereon a program for executing a multi-view image processing method according to the present invention.
상기된 본 발명에 의하면 깊이 카메라로부터 얻어진 깊이맵을 다시점 카메라의 시점으로 3차원 워핑하여 다시점 깊이맵을 얻고, 다시점 깊이맵을 이용하여 다시점 카메라로부터 얻어진 다시점 영상에 대응하는 다시점 트라이맵을 생성한 후 다시점 트라이맵을 이용하여 다시점 영상에 대응하는 다시점 알파맷을 생성함으로써 다시점 영상에 대하여 자동적으로 고품질의 영상 매팅을 수행할 수 있다.According to the present invention described above, a multi-view depth map is obtained by three-dimensional warping a depth map obtained from a depth camera to a viewpoint of a multi-view camera, and a multi-view corresponding to a multi-view image obtained from a multi-view camera using a multi-view depth map. After generating a trimap, a multiview alphamat corresponding to a multiview image may be generated using a multiview trimap to automatically perform high quality image matting on the multiview image.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, substantially the same components are denoted by the same reference numerals, and redundant description will be omitted. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
도 1은 본 발명의 일 실시예에 따른 다시점 영상 처리 장치의 구성을 나타내는 도면이다. 본 실시예에 따른 다시점 영상 처리 장치는, 다시점 카메라(110)와 깊이 카메라(120), 3차원 워핑부(130), 트라이맵 생성부(140), 알파맷 생성부(150), 전경 추출부(160)를 포함하여 이루어진다.1 is a diagram illustrating a configuration of a multiview image processing apparatus according to an embodiment of the present invention. The multi-view image processing apparatus according to the present embodiment includes a
다시점 카메라(110)는 도시된 바와 같이 복수 개의 카메라들(제1 내지 제n 카메라)로 구성된다. 상기 복수 개의 카메라들의 시점(viewpoint)은 카메라의 위치에 따라 서로 다르며, 이와 같이 서로 다른 시점을 갖는 복수 개의 영상들을 한데 묶어 다시점 영상이라 한다. 다시점 카메라(110)로부터 얻어지는 다시점 영상은 각 영상을 이루는 2차원 상의 픽셀별 색상 정보는 포함하지만 3차원 상의 깊이 정보는 포함하지 않는다.The
깊이 카메라(120)는 3차원 상의 깊이 정보를 가지는 깊이맵을 획득한다. 깊이 카메라(120)는 레이저나 적외선을 객체나 대상 영역에 비추고, 되돌아오는 광선을 취득하여 깊이 정보를 실시간으로 얻을 수 있는 장치로서, 레이저나 적외선을 통해 깊이 정보를 센싱하는 깊이 센서를 구비한다. The
도 2는 다시점 카메라(110)와 깊이 카메라(120)가 배치되는 형태의 예를 입체적으로 나타낸 도면으로서, 도시된 바와 같이 다시점 카메라(110)는 카메라들이 일렬로 배열된 형태로 구성되고, 그들 중 어느 하나(예를 들어 정가운데의 카메라)의 하단(또는 상단)에 깊이 카메라(120)가 놓여질 수 있다. 다시점 카메라(110)의 배열 및 깊이 카메라(120)의 배치는 얻고자 하는 다시점 영상의 각 시점에 따라서 변형될 수 있음은 물론이다. FIG. 2 is a three-dimensional view of an example in which a
도 3은 다시점 카메라(110)로부터 얻어지는 다시점 영상과 깊이 카메라(120)로부터 얻어지는 하나의 깊이맵의 예를 나타낸다. 3 shows an example of a multiview image obtained from the
깊이 카메라(120)로부터 얻어진 깊이맵은 3차원 워핑부(130)로 입력되고, 3차원 워핑부(130)는 상기 깊이맵을 다시점 카메라(110)를 이루는 각 카메라의 시점으로 3차원 워핑하여, n 개의 3차원 워핑된 깊이맵으로 이루어지는 다시점 깊이맵을 얻는다. 여기서 깊이맵의 3차원 워핑은 다시점 카메라(110)를 이루는 각 카메라의 카메라 파라미터와 깊이 카메라(120)의 카메라 파라미터를 이용하게 된다.The depth map obtained from the
도 4는 깊이 카메라(120)로부터 얻어진 깊이맵을 다시점 카메라(110)의 임의의 카메라의 시점으로 3차원 워핑하는 과정을 설명하기 위한 참고도이다. 4 is a reference diagram for explaining a process of three-dimensional warping a depth map obtained from the
카메라는 일반적으로 카메라 고유의 특성인 내부 파라미터와 외부 파라미터를 가지고 있다. 내부 파라미터는 카메라의 초점거리와 이미지 중점 좌표값을 의미하고, 외부 파라미터는 월드 좌표계를 기준으로 하는 자신의 이동(translation)과 회전(rotation)을 의미한다. 내부 파라미터와 외부 파라미터에 따른 카메라의 기반 행렬 P는 다음 수학식에 의해 구해진다.Cameras generally have internal and external parameters that are unique to the camera. Internal parameters refer to the focal length and image center coordinates of the camera, and external parameters refer to their translation and rotation relative to the world coordinate system. The base matrix P of the camera according to the internal and external parameters is obtained by the following equation.
여기서, 우변의 첫 번째 행렬은 내부 파라미터로 이루어지는 행렬이고, 두 번째 행렬은 외부 파라미터로 이루어지는 행렬이다.Here, the first matrix on the right side is a matrix consisting of internal parameters, and the second matrix is a matrix consisting of external parameters.
도 4에 도시된 바와 같이, 우선 깊이 카메라(120)로부터 얻어진 깊이맵()에 깊이 카메라(120)의 기반 행렬의 역행렬()을 적용하여 월드 좌표계로 변환한 후, 변환된 깊이맵에 다시점 카메라(110)를 이루는 한 카메라()의 기반 행렬()을 적용하여 카메라()의 시점으로 투영(projection)한다. As shown in FIG. 4, first, a depth map obtained from the depth camera 120 ( ) Is the inverse of the base matrix of the
이러한 3차원 워핑은 다시점 카메라(110)를 이루는 카메라들 각각에 대하여 수행되며, 그 결과 다시점 영상을 이루는 영상들 각각에 대응되는 n 개의 3차원 워핑된 깊이맵들로 이루어지는 다시점 깊이맵이 얻어진다. 도 5는 도 3에 도시된 깊이맵이 각 카메라의 시점으로 3차원 워핑된 깊이맵을 나타낸다. 도 5를 참조하면, 3차원 워핑으로 인해 깊이값이 정의되지 않은 화소인 다수의 홀들이 발생하였음을 알 수 있다. This three-dimensional warping is performed for each of the cameras forming the
다시 도 1을 참조하면, 다시점 카메라(110)로부터 얻어지는 다시점 영상과 3차원 워핑부(130)로부터의 다시점 깊이맵은 트라이맵 생성부(140)로 입력되고, 트라이맵 생성부(140)는 상기 다시점 깊이맵을 이용하여 상기 다시점 영상을 이루는 영상들 각각에 대응하는 트라이맵들로 이루어지는 다시점 트라이맵을 생성한다.Referring back to FIG. 1, the multi-view image obtained from the
트라이맵 생성부(140)는 다시점 영상을 이루는 각 영상에 대응하는 트라이맵을 생성함에 있어서, 대상 영상과 그에 대응하는 3차원 워핑된 깊이맵을 이용한다. 도 6은 트라이맵 생성부(140)의 구체적인 일 실시예를 나타내는 구성도로서, 이하에서는, 다시점 영상을 이루는 한 대상 영상에 대하여, 그에 대응하는 3차원 워핑된 깊이맵을 가지고 트라이맵을 생성하는 과정을 상세히 설명한다. The
트라이맵 생성부(140)는 도시된 바와 같이, 세그먼트부(141), 전경 영역 결정부(142), 홀 제거부(143), 침식/팽창 연산부(144)를 포함하여 이루어진다.As illustrated, the
세그먼트부(141)는 다시점 영상을 이루는 각 영상에 대하여 컬러 세그멘테이션을 수행하여 세그먼트된 영상을 생성한다. 컬러 세그멘테이션이란 영상을 비슷한 색상으로 이루어진 영역(세그먼트)들로 구분짓는 과정을 의미한다. The
세그먼트부(141)는 컬러 세그멘테이션을 수행하고자 하는 대상 영상에서 인접 화소들끼리의 루미넌스(luminance) 또는 크로미넌스(chrominance) 차이가 임계값 이하인 화소들끼리 세그먼트(segment)를 설정한다. 즉, 세그먼트부(141)는 대상 영상 내에서 유사한 휘도 또는 색상 정보를 가지는 화소들끼리 묶어 영상을 세그먼트들로 분할한다. 이때, 분할된 세그먼트 내부에서는 깊이값이 미세하게 변화하며, 깊이값의 불연속점은 세그먼트의 경계에서 발생한다고 가정할 수 있다. 이러한 가정을 만족시키기 위해 세그먼트는 가능한 크기가 작도록 세분화되는 것이 바람직하며, 이를 위해 임계값을 작게 잡을 수 있다. 임계값이 커지면 유사한 루미넌스 또는 크로미넌스의 범위가 커지므로, 세그먼트의 크기가 증가하게 되어 세그먼트 내에 깊이값의 불연속점이 포함될 확률이 높아지는 문제점이 발생할 수 있다. 세그먼트부(141)에 의해 도 3의 다시점 영상 중 가운데의 영상이 세그먼트된 영상의 예가 도 7에 도시되어 있다.The
깊이 카메라(120)에서 얻어진 깊이맵에서는 일반적으로 깊이 카메라(120)의 설정에 따라 깊이 카메라(120)로부터 거리가 먼 영역에서는 깊이값이 전혀 존재하지 않거나 매우 드문드문하게 존재하고, 깊이 카메라(120)로부터 거리가 가까운 영역에서는 깊이값이 모두 존재하거나 매우 조밀하게 존재한다. 이는 3차원 워핑된 깊이맵에서도 마찬가지이며, 다만 3차원 워핑으로 인하여 깊이값이 정의되지 않는 화소인 홀이 발생하게 된다. 이미 설명한 바와 같이 깊이값의 불연속점은 세그먼트의 경계에서 발생한다고 볼 수 있으므로, 세그먼트들 중 깊이값이 많이 존재하는 영역은 전경 영역으로, 그렇지 않은 영역은 배경 영역으로 판단할 수가 있다. In the depth map obtained from the
따라서 전경 영역 결정부(142)는 세그먼트부(141)에 의해 각 영상이 세그먼트된 결과에 따라 그에 대응하는 각 3차원 워핑된 깊이맵을 세그먼트화하고, 깊이값이 해당 세그먼트에서 일정 비율 이상 존재하는 세그먼트들의 집합을 전경 영역으로 결정한다. 상기 비율은 임의로 적절하게 정할 수 있는데, 예를 들어 깊이값이 70% 이상 존재하는 세그먼트들의 집합을 전경 영역으로 결정하는 것이다. Accordingly, the
이미 설명한 바와 같이, 3차원 워핑된 깊이맵에는 깊이값이 정의되지 않는 홀이 다수개 존재하며, 홀 제거부(143)는 3차원 워핑된 깊이맵의 전경 영역에서 상기 홀을 주변의 화소값들을 이용하여 적절한 깊이값으로 채운다. 전경 영역 이외의 부분은 이제 관심의 대상이 아니므로, 전경 영역에 한하여 홀을 채우는 것이다. As described above, there are a plurality of holes whose depth values are not defined in the three-dimensional warped depth map, and the
본 실시예에서는 전경 영역의 각 홀을 중심으로 하는 3X3 블록을 설정하고, 홀에 인접한 8개 화소들 중에서 이용 가능한 화소들, 즉 깊이값이 존재하는 화소들의 깊이값들의 평균을 해당 홀의 깊이값으로 정한다. 예를 들어, 도 8에 도시된 바와 같이 홀에 해당하는 가운데 화소에 인접한 8개의 화소들 중 깊이값이 존재하는 픽셀들의 깊이값은 200, 212, 207이므로 그들의 평균(200+212+207/3=206.33)을 반올림해서 206을 해당 화소의 깊이값으로 정한다. 이러한 과정을 반복적으로 실행하면, 전경 영역의 모든 홀을 채울 수 있다. 도 9는 도 5에 도시된 3차원 워핑된 깊이맵 중 하나에서 전경 영역을 결정하고, 그 전경 영역의 홀을 모두 채운 결과 얻어진 깊이맵을 나타낸다. In this embodiment, a 3x3 block is set around each hole in the foreground area, and the average of depth values of available pixels among the eight pixels adjacent to the hole, that is, pixels having a depth value, is used as the depth value of the corresponding hole. Decide For example, as shown in FIG. 8, the depth values of the pixels having the depth value among the eight pixels adjacent to the center pixel corresponding to the hole are 200, 212, and 207, and therefore their average (200 + 212 + 207/3). = 206.33) to make 206 the depth value of the pixel. Repeating this process will fill all the holes in the foreground area. FIG. 9 illustrates a depth map obtained by determining a foreground area from one of the three-dimensional warped depth maps shown in FIG. 5 and filling all holes of the foreground area.
다시 도 6을 참조하면, 전경 영역이 구분되고 홀이 모두 채워진 3차원 워핑된 다시점 깊이맵이 침식/팽창 연산부(144)로 입력되고, 침식/팽창 연산부(144)는 입력된 다시점 깊이맵에 침식 및 팽창 연산을 적용하여 다시점 트라이맵(trimap)을 생성한다. 트라이맵은 매팅을 수행하기 위해 필수적인 알파맷(alpha matte)을 얻기 이전의 영상으로, 전경과 배경 그리고 전경인지 배경인지 불확실한 미지 영역으로 구분된 영상이다. 침식/팽창 연산부(144)는 입력받은 다시점 깊이맵을 구성하는 각 깊이맵을 미리 정의된 임계치에 따라서 이진 영상(binary image)으로 만든 후, 이 진 영상의 테두리 부분을 안으로 침식하고 밖으로 확장하여 미지 영역을 생성함으로써 다시점 트라이맵을 생성한다. 예컨대, 배경은 0, 전경은 255, 미지 영역은 128의 화소값을 갖도록 트라이맵을 생성할 수 있다. 그리고 미지 영역의 크기는 미리 정의될 수 있다. Referring back to FIG. 6, a three-dimensional warped multiview depth map in which the foreground area is divided and all of the holes are input to the erosion /
도 10은 상기된 트라이맵 생성부(140)의 동작에 의해서 도 5에 도시된 3차원 워핑된 다시점 깊이맵으로부터 생성된 다시점 트라이맵을 나타낸다. FIG. 10 illustrates a multiview trimap generated from the three-dimensional warped multiview depth map illustrated in FIG. 5 by the operation of the
다시 도 1을 참조하면, 트라이맵 생성부(140)로부터의 다시점 트라이맵은 알파맷 생성부(150)로 입력되고, 알파맷 생성부(150)는 입력된 다시점 트라이맵을 이용하여 다시점 영상에 대응하는 다시점 알파맷을 생성한다. 즉, 트라이맵 생성부(140)는 다시점 트라이맵을 구성하는 각 트라이맵을 이용하여 알파맷을 생성함으로써 다시점 영상을 구성하는 각 영상에 대응하는 알파맷들로 이루어지는 다시점 알파맷을 생성한다. 트라이맵으로부터 알파맷을 생성하는 방법은 이미 알려진 기법들 중 하나를 사용할 수 있으며, 하나의 예를 설명하기로 한다. Referring back to FIG. 1, the multi-view trimap from the
알파맷은 매팅 방정식 I = αF + (1-α)B 에서 사용되는 α(alpha)값으로 이루어진 영상을 의미한다(I, F, B는 각각 합성 영상, 전경, 배경 영상). 매팅 방정식에 의해 전경과 배경의 픽셀이 합성된다. 도시되지 않았으나, 알파맷 생성부(150)는 Cb 변환부, 에지 추출부, 미지 영역 에지 추출부, 에지 레이블링부로 이루어질 수 있다.Alphamat means an image composed of α (alpha) values used in the matting equation I = αF + (1-α) B (I, F, and B are composite images, foreground images, and background images, respectively). The matting equation combines the foreground and background pixels. Although not shown, the
Cb 변환부는 다시점 영상에서 RGB 컬러 공간을 YCbCr 컬러 공간으로 변환하고, 가우시안 필터를 Cb에 적용하여 전경 경계 주위의 노이즈를 감소시키는 역할을 수행한다. 에지 추출부는 Cb 변환부를 통해 변환된 영상에서 경계를 추출한다. 미지영역 에지 추출부는 공유한 트라이맵 미지 영역의 정보와 상기 에지 추출부에서 추출한 다시점 영상의 경계를 바탕으로 각 시점 영상의 미지 영역 에지들을 추출하는 부분이다. 에지 레이블링부는 찾아낸 에지들의 길이를 기준으로 특정 길이 이하의 에지는 삭제하고 나머지 에지들만 이용하여 레이블링을 수행한다. 에지 레이블링부는 레이블링된 에지들의 양끝을 찾고 가장 가까운 끝점끼리 연결하여 폐곡선을 완성한다. 이에 따라 최종적으로 완성된 폐곡선의 안쪽은 전경, 바깥쪽은 배경이 된다.The Cb converter converts the RGB color space into the YCbCr color space in the multiview image, and applies a Gaussian filter to Cb to reduce noise around the foreground boundary. The edge extractor extracts a boundary from the image converted by the Cb converter. The unknown region edge extractor extracts the unknown region edges of each viewpoint image based on the shared trimap unknown region information and the boundary of the multiview image extracted by the edge extractor. The edge labeling unit deletes edges having a predetermined length or less based on the found edge lengths and performs labeling using only the remaining edges. The edge labeling unit finds both ends of the labeled edges and connects the nearest endpoints to complete the closed curve. As a result, the inside of the final closed curve is the foreground and the outside is the background.
이러한 방법으로 다시점 영상의 각 영상에 대응하는 알파맷을 생성함으로써 다시점 알파맷을 완성한다. 도 11에는 도 10에 도시된 다시점 트라이맵으로부터 생성된 다시점 알파맷이 도시되어 있다.In this way, a multiview alphamat is completed by generating an alphamat corresponding to each image of a multiview image. FIG. 11 shows a multiview alphamat generated from the multiview trimap shown in FIG. 10.
알파맷 생성부(150)로부터의 다시점 알파맷은 전경 추출부(160)로 입력되고, 전경 추출부(160)는 다시점 카메라(110)로부터의 다시점 영상에 다시점 알파맷을 적용하여 다시점 전경을 추출한다. 즉, 다시점 영상을 이루는 각 영상에 다시점 알파맷을 이루는 각 알파맷을 적용하여 전경이 추출된 영상들로 이루어지는 다시점 전경을 획득한다. The multiview alphamat from the
도시되지는 않았으나, 본 실시예에 따른 다시점 영상 처리 장치는 다시점 합성 영상을 생성하는 배경 합성부를 더 포함할 수 있다. 배경 합성부는 다시점 전경 추출부(160)로부터 다시점 전경 영상을 입력받고, 다시점 카메라(110)와 동일한 카메라 환경에서 찍은 다시점 배경과 이를 합성하여 다시점 합성 영상을 생성한다. Although not shown, the apparatus for processing a multiview image according to the present embodiment may further include a background synthesis unit generating a multiview composite image. The background synthesizer receives a multiview foreground image from the
도 12는 본 발명의 일 실시예에 따른 다시점 영상 처리 방법을 나타낸 흐름도이다. 본 실시예에 따른 다시점 영상 처리 방법은 이상에서 설명된 다시점 영상 처리 장치에서 처리되는 단계들로 구성된다. 따라서 이하 생략된 내용이라 하더라도 다시점 영상 처리 장치에 관하여 이상에서 기술된 내용은 본 실시예에 따른 다시점 영상 처리 방법에도 적용된다.12 is a flowchart illustrating a multiview image processing method according to an embodiment of the present invention. The multi-view image processing method according to the present embodiment includes steps processed by the multi-view image processing apparatus described above. Therefore, even if omitted below, the above description of the multi-view image processing apparatus is applied to the multi-view image processing method according to the present embodiment.
1210단계에서, 깊이 카메라(120)로부터 얻어진 깊이맵을 다시점 카메라(110)의 시점으로 3차원 워핑하여 다시점 깊이맵을 얻는다.In
1220단계에서, 다시점 깊이맵을 이용하여 다시점 영상에 대응하는 다시점 트라이맵을 생성한다.In
1230단계에서, 다시점 트라이맵을 이용하여 다시점 영상에 대응하는 다시점 알파맷을 생성한다.In
1240단계에서, 다시점 알파맷을 다시점 영상에 적용하여 다시점 전경을 추출한다. 여기서 추출된 다시점 전경을 다시점 카메라(110)와 동일한 카메라 환경에서 찍은 다시점 배경과 합성하여 다시점 합성 영상을 생성할 수 있다.In
도 13은 상기 1220단계의 보다 구체적인 일 실시예를 나타낸 흐름도이다.13 is a flowchart illustrating a more specific embodiment of
1310단계에서, 다시점 영상을 구성하는 각 영상에 대하여 컬러 세그멘테이션을 수행하여 세그먼트된 영상들을 생성한다.In
1320단계에서, 세그먼트된 각 영상에 대하여 세그먼트들 중 깊이값이 일정 비율 이상 존재하는 세그먼트들의 집합을 전경 영역으로 결정한다.In
1330단계에서, 다시점 깊이맵의 해당하는 전경 영역에서 3차원 워핑으로 인 해 발생된 홀을 채운다.In
1340단계에서, 홀이 채워진 다시점 깊이맵으로부터 다시점 트라이맵을 생성한다.In
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. The computer-readable recording medium may be a magnetic storage medium (for example, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (for example, a CD-ROM, DVD, etc.) and a carrier wave (for example, the Internet). Storage medium).
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
도 1은 본 발명의 일 실시예에 따른 다시점 영상 처리 장치의 구성을 나타내는 도면이다.1 is a diagram illustrating a configuration of a multiview image processing apparatus according to an embodiment of the present invention.
도 2는 다시점 카메라(110)와 깊이 카메라(120)가 배치되는 형태의 예를 입체적으로 나타낸 도면이다.2 is a diagram three-dimensionally showing an example of a form in which a
도 3은 다시점 카메라(110)로부터 얻어지는 다시점 영상과 깊이 카메라(120)로부터 얻어지는 하나의 깊이맵의 예를 나타낸다.3 shows an example of a multiview image obtained from the
도 4는 깊이 카메라(120)로부터 얻어진 깊이맵을 다시점 카메라(110)의 임의의 카메라의 시점으로 3차원 워핑하는 과정을 설명하기 위한 참고도이다.4 is a reference diagram for explaining a process of three-dimensional warping a depth map obtained from the
도 5는 도 3에 도시된 깊이맵이 각 카메라의 시점으로 3차원 워핑된 깊이맵을 나타낸다.FIG. 5 illustrates a depth map in which the depth map illustrated in FIG. 3 is three-dimensional warped to a viewpoint of each camera.
도 6은 트라이맵 생성부(140)의 구체적인 일 실시예를 나타내는 구성도이다.6 is a block diagram illustrating a specific embodiment of the
도 7은 세그먼트부(141)에 의해 도 3의 다시점 영상 중 가운데의 영상이 세그먼트된 영상의 예이다.7 is an example of an image in which an image in the center of the multi-view images of FIG. 3 is segmented by the
도 8은 3차원 워핑된 깊이맵에서 홀을 채우는 방법의 예를 설명하기 위한 참고도이다.8 is a reference diagram for explaining an example of a method of filling a hole in a 3D warped depth map.
도 9는 도 5에 도시된 3차원 워핑된 깊이맵 중 하나에서 전경 영역의 홀을 모두 채운 결과 얻어진 깊이맵을 나타낸다. FIG. 9 illustrates a depth map obtained by filling all of the holes of the foreground area in one of the three-dimensional warped depth maps shown in FIG. 5.
도 10은 트라이맵 생성부(140)의 동작에 의해서 도 5에 도시된 3차원 워핑된 다시점 깊이맵으로부터 생성된 다시점 트라이맵을 나타낸다. FIG. 10 illustrates a multiview trimap generated from the 3D warped multiview depth map illustrated in FIG. 5 by the operation of the
도 11은 도 10에 도시된 다시점 트라이맵으로부터 생성된 다시점 알파맷을 나타낸다.FIG. 11 illustrates a multi-view alphamat generated from the multi-view trimap shown in FIG. 10.
도 12는 본 발명의 일 실시예에 따른 다시점 영상 처리 방법을 나타낸 흐름도이다. 12 is a flowchart illustrating a multiview image processing method according to an embodiment of the present invention.
도 13은 도 12의 1220단계의 보다 구체적인 일 실시예를 나타낸 흐름도이다.FIG. 13 is a flowchart illustrating a more specific embodiment of
Claims (17)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090022251A KR100989435B1 (en) | 2009-03-16 | 2009-03-16 | Method and apparatus for processing multi-viewpoint image |
PCT/KR2010/001631 WO2010107235A2 (en) | 2009-03-16 | 2010-03-16 | Method and apparatus for processing a multi-view image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090022251A KR100989435B1 (en) | 2009-03-16 | 2009-03-16 | Method and apparatus for processing multi-viewpoint image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100104088A KR20100104088A (en) | 2010-09-29 |
KR100989435B1 true KR100989435B1 (en) | 2010-10-26 |
Family
ID=42740116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090022251A KR100989435B1 (en) | 2009-03-16 | 2009-03-16 | Method and apparatus for processing multi-viewpoint image |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR100989435B1 (en) |
WO (1) | WO2010107235A2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013157779A1 (en) * | 2012-04-16 | 2013-10-24 | 삼성전자주식회사 | Image processing apparatus for determining distortion of synthetic image and method therefor |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120162412A1 (en) * | 2010-12-22 | 2012-06-28 | Electronics And Telecommunications Research Institute | Image matting apparatus using multiple cameras and method of generating alpha maps |
KR101373603B1 (en) * | 2012-05-04 | 2014-03-12 | 전자부품연구원 | 3D warping method for hole reduction and image processing apparatus using the same |
CN104767987B (en) * | 2015-02-04 | 2017-04-12 | 浙江工商大学 | Full-search viewpoint predicting method based on depth maps |
EP3286737A1 (en) * | 2015-04-23 | 2018-02-28 | Ostendo Technologies, Inc. | Methods for full parallax compressed light field synthesis utilizing depth information |
KR102310789B1 (en) * | 2019-11-07 | 2021-10-07 | 연세대학교 산학협력단 | Apparatus and method for estimating camera pose and depth using images continuously acquired at various viewpoints |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007095073A (en) | 2005-09-29 | 2007-04-12 | Mitsubishi Electric Research Laboratories Inc | Method and system for extracting alpha matte from image acquired of scene |
JP2007257623A (en) | 2006-03-24 | 2007-10-04 | Mitsubishi Electric Research Laboratories Inc | Method and system to determine alpha matte of video acquired for certain scene |
-
2009
- 2009-03-16 KR KR1020090022251A patent/KR100989435B1/en not_active IP Right Cessation
-
2010
- 2010-03-16 WO PCT/KR2010/001631 patent/WO2010107235A2/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007095073A (en) | 2005-09-29 | 2007-04-12 | Mitsubishi Electric Research Laboratories Inc | Method and system for extracting alpha matte from image acquired of scene |
JP2007257623A (en) | 2006-03-24 | 2007-10-04 | Mitsubishi Electric Research Laboratories Inc | Method and system to determine alpha matte of video acquired for certain scene |
Non-Patent Citations (2)
Title |
---|
논문1:대한전자공학회 * |
논문2:한국정보과학회 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013157779A1 (en) * | 2012-04-16 | 2013-10-24 | 삼성전자주식회사 | Image processing apparatus for determining distortion of synthetic image and method therefor |
Also Published As
Publication number | Publication date |
---|---|
WO2010107235A3 (en) | 2011-01-20 |
KR20100104088A (en) | 2010-09-29 |
WO2010107235A2 (en) | 2010-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4644669B2 (en) | Multi-view image generation | |
JP5587894B2 (en) | Method and apparatus for generating a depth map | |
KR100989435B1 (en) | Method and apparatus for processing multi-viewpoint image | |
KR20180132946A (en) | Multi-view scene segmentation and propagation | |
KR102581134B1 (en) | Apparatus and method for generating light intensity images | |
KR102380862B1 (en) | Method and apparatus for image processing | |
KR102113812B1 (en) | Apparatus and method for implementing immersive augmented reality with RGB-D data | |
KR101181199B1 (en) | Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same | |
KR20100109069A (en) | Device for generating visual attention map and method thereof | |
WO2014013673A1 (en) | Moving image generation device and moving image generation method | |
JP2017091298A (en) | Image processing device, image processing method and image processing program | |
TW202037169A (en) | Method and apparatus of patch segmentation for video-based point cloud coding | |
KR100960694B1 (en) | System and Method for matting multi-view image, Storage medium storing the same | |
KR101549929B1 (en) | Method and apparatus of generating depth map | |
KR101458986B1 (en) | A Real-time Multi-view Image Synthesis Method By Using Kinect | |
CN115914606A (en) | Video processing method, system, readable storage medium and equipment terminal | |
Schmeing et al. | Depth image based rendering | |
KR101511315B1 (en) | Method and system for creating dynamic floating window for stereoscopic contents | |
CN102750726A (en) | Depth-of-field achieving method based on Open graphics library (GL) | |
KR20110047949A (en) | Virtual viewpoint image generating device and method | |
KR101801898B1 (en) | Method and apparatus for generating representing image from multi-view image | |
KR101993962B1 (en) | N-View Blending-based Hole Filling Method for Intermediate View Image | |
Phan et al. | Semi-automatic 2D to 3D image conversion using a hybrid random walks and graph cuts based approach | |
JP5254297B2 (en) | Image processing device | |
KR101993961B1 (en) | Hole Filling Method for Arbitrary View Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130930 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20141001 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20151002 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20161004 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |