KR20150078273A - Device and method for generating stereo depth images - Google Patents

Device and method for generating stereo depth images Download PDF

Info

Publication number
KR20150078273A
KR20150078273A KR1020130167507A KR20130167507A KR20150078273A KR 20150078273 A KR20150078273 A KR 20150078273A KR 1020130167507 A KR1020130167507 A KR 1020130167507A KR 20130167507 A KR20130167507 A KR 20130167507A KR 20150078273 A KR20150078273 A KR 20150078273A
Authority
KR
South Korea
Prior art keywords
depth image
image
stereo
depth
hole
Prior art date
Application number
KR1020130167507A
Other languages
Korean (ko)
Other versions
KR101561525B1 (en
Inventor
권순
이상범
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020130167507A priority Critical patent/KR101561525B1/en
Publication of KR20150078273A publication Critical patent/KR20150078273A/en
Application granted granted Critical
Publication of KR101561525B1 publication Critical patent/KR101561525B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Abstract

Disclosed is a method for generating a high speed stereo depth image. According to the method, a stereo image is downsampled to reduce complexity of a depth image generation process, and a low resolution left viewpoint depth image is obtained by applying a stereo matching technology. Then, through viewpoint change and a stratified hole filling method, a low resolution right viewpoint depth image is generated. The obtained low resolution stereo depth image may be restored to an original resolution through an image up-sampling method.

Description

스테레오 깊이 영상 생성 장치 및 방법{DEVICE AND METHOD FOR GENERATING STEREO DEPTH IMAGES}TECHNICAL FIELD [0001] The present invention relates to a stereo depth image generating apparatus and a stereo depth image generating method.

본 발명은 스테레오 깊이 영상(stereo depth images 또는 stereo depth maps) 생성 장치 및 방법에 관한 것으로서, 더욱 상세하게는 영상 업-샘플링(up-sampling)을 이용한 고속 스테레오 깊이 영상을 생성 장치 및 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for generating stereo depth images or stereo depth maps, and more particularly, to an apparatus and method for generating a high-speed stereo depth image using video up-sampling .

3차원 비디오 시스템의 핵심 기술로써 깊이 영상 기반 렌더링(Depth-Image-Based Rendering: DIBR)이 많은 관심을 받고 있다. DIBR 기술은 색상 영상과 그에 대응하는 깊이 영상으로부터 임의의 가상 시점 영상을 생성하는 기술이다. DIBR 기술을 사용하면 사용자가 원하는 시점을 선택해서 시청할 수 있기 때문에 몰입감이 더욱 뛰어나게 된다.Depth-Image-Based Rendering (DIBR) has attracted much attention as a core technology of 3D video systems. DIBR technology is a technique to generate arbitrary virtual viewpoint images from color images and corresponding depth images. With DIBR technology, the user can select and view the desired point of view.

3차원 영상을 획득하는 다양한 방법 가운데 다수의 카메라를 나열해서 여러 시점의 영상을 획득하고, 양안 시차를 이용해서 깊이 영상을 획득하는 수동 센서 방법이 널리 쓰이고 있다. 이 방법은 다시점(muti-view) 색상 영상으로부터 사용자에게 폭넓은 시야각을 제공할 수 있지만 깊이 영상을 획득하기 위해 사용되는 스테레오 정합(stereo matching) 기술이 복잡한 단점이 있다. 그렇기 때문에 획득된 3차원 영상으로부터 DIBR 기술을 가능하게 하기 위해서는 스테레오 깊이 영상을 정확하고 빠르게 탐색하는 것이 필수적이다.
Among various methods of acquiring three-dimensional images, a passive sensor method is widely used in which a plurality of cameras are arranged in order to acquire images at various points of view and acquire depth images using binocular parallax. This method can provide a wide viewing angle to a user from a muti-view color image, but has a complicated disadvantage of a stereo matching technique used to acquire a depth image. Therefore, it is essential to search the stereo depth image accurately and quickly to enable DIBR technology from acquired 3D images.

따라서, 본 발명의 목적은 스테레오 깊이 영상을 생성하는 과정에서 복잡도를 줄일 수 있는 스테레오 깊이 영상 생성 장치 및 방법을 제공하는 데 있다.
Accordingly, it is an object of the present invention to provide an apparatus and method for generating a stereo depth image that can reduce the complexity in the process of generating a stereo depth image.

상기와 같은 목적을 달성하기 위한 본 발명의 일면에 따른 스테레오 깊이 영상 생성 장치는, 좌시점 영상과 우시점 영상을 포함하는 스테레오 영상을 획득하는 영상 획득부와, 상기 스테레오 영상에 대해 스테레오 정합 과정을 수행하여 좌시점 또는 우시점의 깊이 영상을 획득하는 스테레오 정합부와, 생성된 상기 깊이 영상을 시점 변환하는 시점 변환부와, 시점 변환된 깊이 영상을 계층별로 다운 샘플링하여 계층화된 깊이 영상을 획득하고, 획득된 상기 계층화된 깊이 영상 내의 홀 영역을 상위 계층의 깊이 영상 내에서 상기 홀 영역에 대응하는 주변 영역의 깊이값을 참조하여 채우는 계층적 홀 채움부 및 상기 홀 채움 과정을 통해 획득된 홀 채움 깊이 영상을 업샘플링 하여 스테레오 깊이 영상을 생성하는 업샘플링부을 포함한다. According to another aspect of the present invention, there is provided an apparatus for generating a stereo depth image, including: an image acquiring unit acquiring a stereo image including a left view image and a right view image; A stereo matching unit for acquiring a depth image of the left or right viewpoint by performing a down-sampling operation on the viewpoint-converted depth image, A hierarchical hole filling unit filling a hole region in the obtained layered depth image with a depth value of a peripheral region corresponding to the hole region in a depth image of an upper layer, And an up-sampling unit for up-sampling the depth image to generate a stereo depth image.

본 발명의 다른 일면에 따른 스테레오 깊이 영상 생성 방법은, 좌시점 영상과 우시점 영상을 포함하는 스테레오 영상을 획득하는 과정과, 상기 스테레오 영상에 대해 스테레오 정합 과정을 수행하여 좌시점 또는 우시점의 깊이 영상을 획득하는 과정과, 생성된 상기 깊이 영상을 시점 변환하는 시점 변환 과정과, 시점 변환된 깊이 영상을 계층별로 다운 샘플링하여 계층화된 깊이 영상을 획득하고, 획득된 상기 계층화된 깊이 영상 내의 홀 영역을 상위 계층의 깊이 영상 내에서 상기 홀 영역에 대응하는 주변 영역의 깊이값을 참조하여 채우는 홀 채움 과정 및 상기 홀 채움 과정을 통해 획득된 홀 채움 깊이 영상을 업샘플링하여 스테레오 깊이 영상을 생성하는 과정을 포함한다.
According to another aspect of the present invention, there is provided a stereo depth image generation method including: obtaining a stereo image including a left view image and a right view image; performing a stereo matching process on the stereo image, A step of converting the viewpoint of the generated depth image, a step of converting the viewpoint-converted depth image into a hierarchical depth image by downsampling the viewpoint-converted depth image, Filling a depth image of the upper layer with reference to a depth value of a peripheral region corresponding to the hole region, and generating a stereo depth image by upsampling the hole filling depth image obtained through the hole filling process .

본 발명에 의하면, 저해상도로 변환된 스테레오 영상을 이용해서 스테레오 정합을 한번만 수행하고 시점 변환, 계층적 홀 채움, 업샘플링 기술들을 사용해서 스테레오 깊이 영상을 생성함으로써, 스테레오 깊이 영상을 고속으로 획득할 수 있다.
According to the present invention, a stereo depth image can be obtained at a high speed by performing stereo matching only once using a stereo image converted to a low resolution and generating a stereo depth image using viewpoint conversion, hierarchical hole filling, have.

도 1은 본 발명의 일 실시 예에 따른 스테레오 깊이 영상 생성 장치의 구성을 보여주는 블록도이다.
도 2는 도 1에 도시된 시점 변환부에서 수행되는 시점 변환 과정을 보여주는 도면이다.
도 3은 도 1에 도시된 계층적 홀 채움부에서 수행되는 계층적 홀 채움 과정을 보여주는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 스테레오 깊이 영상을 생성하는 방법을 보여주는 순서도이다.
1 is a block diagram illustrating a configuration of a stereo depth image generating apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a viewpoint conversion process performed by the viewpoint conversion unit shown in FIG. 1. Referring to FIG.
FIG. 3 is a view illustrating a hierarchical hole filling process performed in the hierarchical hole filling portion shown in FIG. 1. FIG.
4 is a flowchart illustrating a method of generating a stereo depth image according to an exemplary embodiment of the present invention.

기존의 스테레오 깊이 영상 생성 방법은 좌우 시점 각각에 대해 복잡도가 높은 스테레오 정합 기술을 수행한다. 때문에 깊이 영상을 획득하는 데까지 상당한 시간이 소요된다. The existing stereo depth image generation method performs a stereo matching technique with high complexity for each of the right and left viewpoints. Therefore, it takes considerable time to acquire the depth image.

이에, 본 발명에서는 저해상도로 변환된 스테레오 영상을 이용해서 스테레오 정합 방법을 한번 만 수행하고, 시점 변환, 계층적 홀 채움, 업-샘플링 기술들을 사용해서 스테레오 깊이 영상을 생성하는 방법을 제공한다. 이렇게 함으로써, 스테레오 깊이 영상을 고속으로 획득할 수 있으며, 스테레오 깊이 영상을 사용하는 3차원 비디오 시스템 등 다양한 응용 분야에 해당 기술이 활용될 수 있다.Accordingly, the present invention provides a method of performing a stereo matching method only once using a low-resolution converted stereo image, and generating a stereo depth image using viewpoint conversion, hierarchical hole filling, and up-sampling techniques. By doing so, the stereo depth image can be acquired at high speed, and the corresponding technology can be utilized in various applications such as a 3D video system using a stereo depth image.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 대해 상세히 설명하기로 하며, 그에 앞서, 본 발명에서 사용될 수 있는 기술들 또는 본 명세서 전반에 걸쳐 기재되는 기술적 용어들에 간략히 소개하기로 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. .

깊이 영상Depth image

3 차원 영상의 제작은 기본적으로 양안식(stereo) 영상을 촬영 혹은 제작하는 것으로부터 시작된다. 일반적으로 사람의 양쪽 눈 사이의 평균거리인 6.5cm 정도의 거리를 두고 배치된 두 대의 카메라로부터 촬영된 영상은 시차 정보인 변위(disparity)를 갖게 되며, 이 영상을 양안식 모니터를 통해 보았을 때, 양쪽 눈에 같은 시점의 영상을 제공하는 일반 모니터와는 달리 시청자는 입체감을 느낄 수 있다. 그러나 시청 환경에 강인하며 더 현실감 있는 3 차원 영상의 제작을 위해서는 한 장면에 대하여 여러 시점에서 촬영된 영상인 다-시점(multi-view) 영상이 필요하다. 다-시점 영상은 양안식 영상에 비하여 좀 더 안정적인 입체감을 전달해줄 수 있으며, 비교적 넓은 시청 범위를 제공한다. 또한 다-시점 영상에 대하여 각 시점의 깊이 정보를 생성한 후, 이 정보를 이용하여 시점과 시점 사이의 가상 시점의 영상을 생성하면 시점 간의 부드러운 전환이 가능한 자유시점 입체 영상의 제작도 가능하다. 따라서 고품질의 3 차원 영상 제작을 위해서는 장면의 깊이 정보를 획득하는 일이 무엇보다 중요하다.The production of three-dimensional images basically starts with shooting or producing stereoscopic images. In general, images taken from two cameras placed at a distance of about 6.5 cm, which is the average distance between two eyes of a person, have disparity, which is parallax information. When the image is viewed through a binocular monitor, Unlike ordinary monitors that provide images at the same time in both eyes, viewers can feel the stereoscopic effect. However, multi-view images that are photographed at various viewpoints of one scene are required for producing a more realistic 3D image that is robust to the viewing environment. Multi-view images can deliver a more stable stereoscopic effect than a binocular image and provide a relatively wide viewing range. Also, it is possible to create a free-view stereoscopic image which can generate a smooth transition between viewpoints by generating depth-of-view depth information for a multi-viewpoint image and then generating an image of a virtual viewpoint between the viewpoint and the viewpoint using the information. Therefore, it is important to acquire scene depth information in order to produce a high-quality three-dimensional image.

이러한 장면의 깊이 정보는 카메라로부터 촬영되는 물체와의 거리를 나타내는데, 일반적으로 256 단계를 가지는 흑백 영상(또는 계조(gray) 영상)인 깊이 영상으로 표현된다.The depth information of such a scene represents a distance from an object to be photographed by the camera, and is generally represented by a depth image which is a monochrome image (or a gray image) having 256 steps.

이 깊이 영상은 또 다른 형태인 변위 영상으로도 나타낼 수 있는데, 변위 영상은 두 시점을 기준으로 한 시점 내의 한 화소가 인접 시점의 평행선 상에 위치한 어떤 화소에 상응할 때, 그 화소들 간의 거리를 화소 값으로 갖는 영상으로 정의된다.This depth image can be represented as another type of displacement image. When a pixel within a viewpoint based on two viewpoints corresponds to a certain pixel located on a parallel line of an adjacent viewpoint, the distance between the pixels is Is defined as an image having a pixel value.

장면의 깊이 정보를 구하는 방법은 수동형, 능동형 그리고 혼합형 방식이 있으며, 수동형 방식은 스테레오 정합(stereo matching)이 대표적이며, 두 장의 영상으로부터 깊이 정보를 유추해낸다. 능동형 방식은 깊이 카메라 등의 장비를 이용하여 물리적인 거리를 측정하고, 영상으로 출력하여 깊이 정보를 획득한다. 위의 두 가지 방법은 복잡도와 성능, 비용 등에 대하여 서로 보완적인 관계를 가지고 있다. 혼합형 방식은 이와 같이 상호 보완적인 관계에 있는 두 가지 방식을 동시에 이용함으로써, 복잡도를 줄이면서 고품질의 결과를 생성할 수 있는 방법이다. 아래의 실시 예에서는 위의 수동형 방식 즉, 스테레오 정합을 이용하여 깊이 영상을 생성하는 방법이 예시된다.
There are passive, active, and mixed methods to obtain depth information of a scene. Stereo matching is a typical method of passive method, and depth information is derived from two images. The active method measures the physical distance using a device such as a depth camera and outputs the image to acquire depth information. The above two methods have a complementary relationship with respect to complexity, performance, and cost. The hybrid method is a method that can generate high quality results while reducing the complexity by simultaneously using two mutually complementary methods. In the following embodiment, a passive method, that is, a method of generating a depth image using stereo matching is exemplified.

카메라 매개 변수(Camera parameters ( cameracamera parameterparameter ))

적어도 두 대 이상의 카메라를 사용하여 다-시점 영상을 생성하기 위해서는 카메라간의 위치적 상관관계를 정확하게 정의해야 한다. 특히, 깊이 정보를 이용하여 각 점 별로 화소 간 상관관계를 정의할 때는 각 카메라의 정확한 변수가 이용된다. 다시점 카메라의 카메라 변수를 추정하는 방법을 카메라 보정(camera calibration)이라고 한다. 카메라 변수는 카메라 내부 구조를 나타내는 내부 변수(intrinsic parameter)와 카메라의 방향과 위치를 나타내는 외부 변수(extrinsic parameter)로 구성된다. 카메라 내부 변수는 초점거리, 광축의 위치 등의 변수로 구성된 3x3 행렬이다. 카메라 외부 변수는 카메라가 가리키는 방향을 나타내는 3x3 방향 행렬(rotation matrix)과 카메라의 3차원 위치를 가리키는 3x1 천이 벡터(translation vector)로 이루어진다. 단-시점(single-view) 카메라의 카메라 보정과는 달리 다-시점(muti-view) 카메라의 카메라 보정은 카메라간 위치관계가 명확해야 하므로 보다 세밀한 추정 과정이 필요하며, Camera Calibration Toolbox(http://www.vision.caltech.edu/bougue서, Camera Calibration Toolbox for MATLAB)를 이용하여 각 카메라 매개 변수를 구할 수 있다.
In order to generate a multi-view image using at least two cameras, the positional correlation between the cameras must be precisely defined. Especially, when the correlation between pixels is defined by each point using depth information, accurate parameters of each camera are used. The method of estimating the camera parameters of the multi-view camera is called camera calibration. Camera parameters consist of intrinsic parameters indicating camera internal structure and extrinsic parameters indicating camera direction and position. The camera internal variable is a 3x3 matrix composed of variables such as focal length and position of the optical axis. The camera external variables consist of a 3x3 directional matrix representing the direction pointed by the camera and a 3x1 transition vector pointing to the camera's three-dimensional position. Unlike camera calibration of a single-view camera, camera calibration of a multi-view camera requires a more precise estimation process since the camera-to-camera position relationship must be clear, and the Camera Calibration Toolbox (http: //www.vision.caltech.edu/bougue, Camera Calibration Toolbox for MATLAB).

영상(색상 영상) 전처리 과정Image (color image) preprocessing process

카메라 보정 이후 촬영된 영상에 대해서는 몇 단계의 전처리 과정을 통하여 영상의 품질을 향상시키고 이후 처리 과정에서의 효율을 높일 수 있다. 먼저 색상 영상에 대해서는 스테레오 영상에서 발생하는 기하학 오차(geometric error)와 색상 차이(color difference)를 보정해주는 작업이 필요하다. 기하학 오차는 카메라의 위치 차이, 배치에 존재하는 오차 및 내부 특성의 차이에서 기인하며, 시점간 상응점의 수직 좌표값의 불일치로 나타난다. 또한 두 개의 영상 평면(image plane)이 평행하지 않고 틀어져 있는 형태이기 때문에 변위 값 획득을 위한 기본 조건이 성립되지 않는다. 따라서 양안식 영상 정렬(image rectification)을 통하여 이와 같은 오차를 최소화한다. 양안식 영상 정렬은 두 영상 평면을 평행하고 수평 방향으로의 이동만 존재하도록 변환한다. 또한 카메라 변수를 일치시킴으로써 정렬된 양안식 영상은 수평 방향의 간격만을 가지는 동일한 카메라로부터 촬영된 영상의 특성을 가지게 된다.
For the images taken after camera calibration, the quality of the image can be improved through several preprocessing steps and the efficiency in the subsequent processing can be increased. First, for color images, it is necessary to correct the geometric error and the color difference generated in the stereo image. The geometric errors are caused by differences in camera position, error in placement, and internal characteristics, and are represented by mismatches of the vertical coordinate values of corresponding points between the viewpoints. Also, since the two image planes are not parallel but distorted, the basic condition for obtaining the displacement value is not established. Therefore, this error is minimized through image rectification. Binocular image alignment converts two image planes to parallel and horizontal motion only. Also, by matching the camera variables, the aligned binocular images have characteristics of the images taken from the same camera with only horizontal intervals.

홀 채움(Hole Fill ( holehole fillingfilling ) 과정) process

아래의 실시 예에서는, 생성된 깊이 영상에 대한 시점 변환 과정이 수행되는 데, 예컨대, 좌시점의 깊이 영상이 우시점의 깊이 영상으로 변환될 때, 좌시점에서 가려져 있다가 우시점에서 드러나는 홀(hole) 영역 또는 비 폐색영역(disocclusion)이 나타난다. 여기서, 홀(hole) 영역 또는 비 폐색영역(disocclusion)은 깊이 영상을 시점 변환했을 때, 시점 변환된 깊이 영상에서 깊이값이 비어 있는 상태로 나타내는 적어도 하나의 화소 영역으로 정의될 수 있으며, 이러한 화소 영역들을 채우는 과정을 홀 채움 과정이라 한다. 이 홀 채움 과정은 대표적으로 주변 화소값과의 유사성을 이용하여 깊이값이 비어 있는 화소 영역에 인접한 주변 화소 영역의 깊이값으로 채우는 과정이 있을 수 있다. In the following embodiments, a viewpoint transformation process is performed on the generated depth image. For example, when the depth image of the left viewpoint is transformed into the depth image of the right viewpoint, a hole that is hidden at the left viewpoint, hole region or a disocclusion region. Here, a hole region or a non-occlusion region (disocclusion) may be defined as at least one pixel region in which a depth value is empty in a viewpoint-transformed depth image when a depth image is transformed into a viewpoint, The filling process of regions is called hole filling process. The hole filling process may be a process of filling the depth value of the neighboring pixel region adjacent to the pixel region where the depth value is empty by using the similarity with the neighboring pixel values.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 대해 상세히 설명하기로 한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 용이하게 이해할 수 있도록 제공되는 것이며, 본 발명은 청구항의 기재에 의해 정의된다. 한편, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. And the present invention is defined by the description of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that " comprises, " or "comprising," as used herein, means the presence or absence of one or more other components, steps, operations, and / Do not exclude the addition.

도 1은 본 발명의 일 실시 예에 따른 스테레오 깊이 영상 생성 장치의 내부 구성을 블록도이다.1 is a block diagram of an internal configuration of a stereo depth image generating apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 스테레오 깊이 영상 생성 장치(100)는 저해상도로 변환된 스테레오 영상에 대해 1회의 스테레오 정합 처리 과정만을 수행한 후 시점 변환 과정, 계층적 홀 채움 과정 및 업-샘플링 과정을 포함하는 영상 처리 과정을 통해 스테레오 깊이 영상을 고속으로 생성한다.Referring to FIG. 1, the apparatus 100 for generating a stereo depth image according to an exemplary embodiment of the present invention performs a stereo matching process on a low-resolution converted stereo image, And an up-sampling process to generate a stereo depth image at a high speed.

이를 위해 스테레오 깊이 영상 생성 장치(100)는 영상 획득부(110), 영상 입력부(112), 전처리부(114), 다운-샘플링부(116), 스테레오 정합부(118), 시점 변환부(120), 계층적 홀 채움부(122), 업-샘플링부(124) 및 영상 출력부(126)를 포함한다.To this end, the stereo depth image generation apparatus 100 includes an image acquisition unit 110, an image input unit 112, a preprocessor 114, a down-sampling unit 116, a stereo matching unit 118, a viewpoint transformation unit 120 A hierarchical hole filling unit 122, an up-sampling unit 124, and a video output unit 126. [0033] FIG.

상기 영상 획득부(110)는 임의의 객체를 좌측 시점 또는 우측 시점에서 촬영하여 좌시점 영상(CL)과 우시점 영상(CR)으로 이루어진 스테레오 영상을 획득하는 구성으로서, 적어도 2개의 카메라로 이루어진 스테레오 카메라로 구현될 수 있다. 상기 영상 획득부(110)가 2 대의 카메라로 구성된 경우, 하나의 카메라는 상기 임의의 객체를 우측 시점에서 촬영하여 우시점 영상(CR)을 생성하고, 다른 카메라는 상기 임의의 객체를 좌측 시점에서 촬영하여 좌시점 영상(CL)을 생성한다. 여기서, 상기 CR와 CL에서, C는 Color의 약자이고, 첨자 R과, L은 각각 'Right'와 'Left'의 약자를 의미한다.The image acquiring unit 110 acquires a stereo image composed of a left view image CL and a right view image CR by capturing an arbitrary object at a left or right viewpoint, Camera. When the image acquisition unit 110 is composed of two cameras, one camera captures the arbitrary object at the right viewpoint to generate a right viewpoint image CR, and the other camera captures the arbitrary object at the left viewpoint And generates a left view image CL. Here, in CR and CL, C is an abbreviation of Color, and subscripts R and L denote abbreviations of 'Right' and 'Left', respectively.

상기 영상 입력부(112)는 상기 좌시점 영상(CL)과 상기 우시점 영상(CR)을 입력 받아서 상기 전처리부(114)로 전달하는 구성으로서, 일례로 프레임 버퍼(frame buffer)일 수 있다.The image input unit 112 receives the left view image CL and the right view image CR and transmits the left view image CL and the right view image CR to the preprocessor 114. The image input unit 112 may be a frame buffer.

전처리부(114)는 수동으로 정렬된 스테레오 카메라로부터 획득한 패턴 영상을 이용해서 카메라 매개변수(Camera Parameter: CP)를 획득하고, 획득된 상기 카메라 매개변수(CP)를 이용하여 상기 좌시점 영상(CL)과 상기 우시점 영상(CR)으로 이루어진 스테레오 카메라 영상을 평행형 카메라 배열 영상으로 재정렬한다.The preprocessing unit 114 obtains a camera parameter (CP) using a pattern image acquired from a manually aligned stereo camera, and obtains the left view image (CP) using the obtained camera parameter CL) and the right view image (CR) into a parallel camera array image.

다운-샘플링부(116)(down-sampling unit)는 스테레오 정합부(118)에서 계산량을 줄이기 위해 스테레오 영상을 각각 저해상도로 변환하는 구성으로서, 제1 다운-샘플링부(116-1)와 제2 다운-샘플링부(116-2)를 포함한다. 제1 다운-샘플링부(116-1)은 상기 전처리부(114)에 의해 재정렬된 우시점 영상(CR')을 다운-샘플링 하여 다운 샘플링 된 우시점 영상(CR'')을 출력하고, 상기 제2 다운-샘플링부(116-2)는 상기 전처리부(114)에 의해 재정렬된 좌측 영상(CL')을 다운-샘플링 하여 다운 샘플링 된 좌측 영상(CL'')을 출력한다.The down-sampling unit 116 is a unit for converting a stereo image to a low resolution in order to reduce the amount of calculation in the stereo matching unit 118. The down-sampling unit 116 includes a first down-sampling unit 116-1 and a second down- And a down-sampling unit 116-2. The first down-sampling unit 116-1 down-samples the rearranged right view image CR 'by the preprocessor 114 to output a downsampled right view image CR' ', The second down-sampling unit 116-2 down-samples the rearranged left image CL 'by the preprocessing unit 114 and outputs the downsampled left image CL' '.

스테레오 정합부(118)는 다운-샘플링부(116)에 의해 다운 샘플링 된 우시점 영상(CR'')과 좌시점 영상(CL'') 간의 양안 시차를 이용하여 한번의 스테레오 정합 과정을 통해 좌시점 및 우시점 중 어느 하나의 시점에 대한 깊이 영상을 생성한다. 본 실시 예에서는 좌시점 깊이 영상을 생성하는 것으로 가정하고, 따라서, 우시점 깊이 영상을 생성하기 위한 스테레오 정합 과정은 수행되지 않는다.The stereo matching unit 118 performs a stereo matching process using the binocular parallax between the right view image CR '' and the left view image CL '', which is downsampled by the down-sampling unit 116, And generates a depth image for one of the viewpoints and the right viewpoint. In this embodiment, it is assumed that the left viewpoint depth image is generated, and therefore, the stereo matching process for generating the right viewpoint depth image is not performed.

시점 변환부(120)는 스테레오 정합부(118)에서 생성한 좌시점 깊이 영상의 시점을 우시점 변환하는 구성으로서, 본 실시 예에서는 앞서 설명한 전처리부(114)에서 좌시점 영상(CL)과 우시점 영상(CR)을 평행 배열로 정렬했기 때문에 간단하게 수평 방향으로만 깊이값을 이동한다. 예컨대, 수평 방향이 X축 방향, 수직 방향이 Y축 방향일 때, 도 2에 도시된 바와 같이, 깊이값의 이동은 X축 방향에서 일어나고, Y축 방향에서는 일어나지 않는다. The viewpoint conversion unit 120 is configured to convert the viewpoint of the left viewpoint depth image generated by the stereo matching unit 118 to right viewpoint. In the present embodiment, the pre- Since the view image (CR) is arranged in a parallel arrangement, the depth value is moved simply in the horizontal direction. For example, when the horizontal direction is the X axis direction and the vertical direction is the Y axis direction, the movement of the depth value occurs in the X axis direction and does not occur in the Y axis direction, as shown in FIG.

계층적 홀 채움부(122)는 상기 시점 변환부(120)에 의한 시점 변환 과정에서 좌시점에서 가려져 있다가 우시점에서 드러나는 비폐색 영역(disocclusion)을 인접한 깊이 값들로 채우는 구성으로서, 비폐색 영역은 깊이값의 차이가 큰 경계 영역일수록 커지며, 이를 빠른 시간으로 효과적으로 채우기 위해, 본 실시 예에서는 계층적 홀 채움(hierarchical hole filling) 방식이 이용된다. 이 계층적 홀 채움 방식에 대해서는 도 3을 참조하여 아래에서 상세히 설명하기로 한다.The hierarchical hole filling unit 122 is configured to fill the discocclusion hidden at the left point of view and the discocclusion revealed at the right point in the viewpoint conversion process by the viewpoint conversion unit 120 with adjacent depth values, The greater the difference in value is, the larger the boundary area becomes. The hierarchical hole filling method is used in this embodiment in order to effectively fill it with a fast time. This hierarchical hole filling method will be described in detail below with reference to FIG.

업-샘플링부(124)는 앞서 설명한 다운-샘플링부(116)에서 다운 샘플링 한 좌시점의 깊이 영상(DL)을 원래의 해상도로 복원하는 구성으로서, 시점 변환 과정 및 계층적 홀 채움 과정을 거치지 않고, 다운 샘플링된 좌시점의 깊이 영상(DL)을 원래의 해상도로 복원하는 제1 업-샘플링부(124-1)와 시점 변환 과정 및 계층적 홀 채움 과정을 거친 다운 샘플링된 좌시점의 깊이 영상(DL)을 복원하는 제2 업-샘플링부(124-2)를 포함한다. 이러한 업-샘플링 과정은 좌시점 깊이 영상(DL)의 주변값을 참조하여 복원할 수 있다. 선택적으로, 업-샘플링 과정은 앞서 설명한 전처리부(114)의 전처리 과정을 거친 원래 해상도의 색상영상(CR', CL')에서의 경계 정보를 참조하여 복원할 수 있다. 원래 해상도의 색상영상(CR', CL')에서의 경계 정보를 활용하면 깊이 영상을 복원했을 때 경계를 더욱 정확하게 복원할 수 있다. 본 실시 예에서는 원래 해상도의 색상영상(CR', CL')에서의 경계 정보를 활용한 업-샘플링 과정이 적용되며, 이를 위해, 제1 업-샘플링부(124-1)은 다운 샘플링된 좌시점의 깊이 영상(DL)외에 전처리 과정을 거친 원래 해상도의 좌시점 영상(CL')을 더 입력 받고, 더 입력 받은 원래 해상도의 좌시점 영상(CL')을 이용하여 업-샘플링된(또는 복원된) 좌시점의 깊이 영상(DL')을 출력하고, 제2 업-샘플링부(124-2)는 전처리 과정을 거친 원래 해상도의 우시점 영상(CR')을 더 입력 받고, 원래 해상도의 우시점 영상(CR')을 이용하여 업-샘플링된(또는 복원된) 우시점의 깊이 영상(DL')을 출력한다.The up-sampling unit 124 reconstructs the left-point depth image DL down-sampled by the down-sampling unit 116 described above to the original resolution, and performs a viewpoint conversion process and a hierarchical hole filling process A first up-sampling unit 124-1 for restoring the downsampled left-point depth image DL to the original resolution, a second downsampling unit 124-1 for performing a view- And a second up-sampling unit 124-2 for reconstructing the image DL. This up-sampling process can be restored by referring to the peripheral value of the left viewpoint depth image DL. Alternatively, the up-sampling process can be performed by referring to the boundary information in the color images CR 'and CL' of the original resolution that have undergone the preprocessing process of the preprocessing unit 114 described above. By using the boundary information in the color image (CR ', CL') of the original resolution, the boundary can be restored more accurately when the depth image is restored. In this embodiment, the up-sampling process using the boundary information in the color image CR ', CL' having the original resolution is applied. For this purpose, the first up-sampling unit 124-1 performs a down- Sampled (or restored) image by using the left-view image CL 'of the original resolution, which has been subjected to the preprocessing process, in addition to the depth image DL of the original resolution, The second up-sampling unit 124-2 receives the right-view image CR 'of the original resolution that has undergone the preprocessing process and outputs the right-view image CR' (Or restored) depth image DL 'using the view image CR'.

영상 출력부(126)는 업-샘플링부(124)에 의해 업-샘플링된 좌우시점의 깊이 영상(DL', DR')을 전달받아서, 이를 스테레오 깊이 영상(DI)으로서 고속으로 출력하게 된다.The image output unit 126 receives the left and right depth images DL 'and DR' up-sampled by the up-sampling unit 124 and outputs it as a stereo depth image DI at a high speed.

도 3은 도 1에 도시된 계층적 홀 채움부에서 수행되는 계층적 홀 채움 과정을 설명하기 위한 도면이다.FIG. 3 is a view for explaining a hierarchical hole filling process performed in the hierarchical hole filling unit shown in FIG. 1. FIG.

앞서 설명한 바와 같이, 홀 채움 과정은 비폐색 영역(disocclusion)은 깊이값의 차이가 큰 경계 영역일수록 커지며, 이를 빠른 시간으로 효과적으로 채워야 한다. 이를 위해, 계층적 홀 채움(hierarchical hole filling) 방식이 이용되는 데, 이 계층적 홀 채움 과정은 시점 변환된 깊이 영상의 해상도를 단계별(또는 계층별로)로 낮추고, 낮아진 해상도의 깊이 영상을 참조하여 높은 해상도의 깊이 영상에 존재하는 홀을 채워나가는 방식을 의미한다. As described above, in the hole filling process, the discocclusion increases as the boundary region having a large difference in depth values is filled, and it is necessary to fill it in a short time effectively. For this purpose, a hierarchical hole filling method is used. In this hierarchical hole filling process, the resolution of the viewpoint-converted depth image is lowered step by step (or hierarchically) It means a method of filling a hole existing in a high-resolution depth image.

도 3의 실시 예에서, 과정 ①에서는, 레벨 0에 해당하는 원래 해상도의 색상 영상(30)과 깊이 영상(32)에 대해 제1 다운 샘플링 과정을 통해 해상도를 낮춘 레벨 1의 색상 영상(34)과 깊이 영상(36)을 생성하는 과정이 수행된다. In the embodiment of FIG. 3, in the process (1), the color image (34) of the level 1 whose resolution is lowered through the first downsampling process for the color image (30) and the depth image (32) And the depth image 36 are generated.

과정 ②에서는, 레벨 1의 색상 영상(34)과 깊이 영상(36)에 대해 제2 다운 샘플링 과정을 통해 해상도를 더 낮춘 레벨 2의 색상 영상(38)과 깊이 영상(40)을 생성하는 과정이 수행된다.In step 2, a process of generating a color image 38 and a depth image 40 of a level 2 in which the resolution of the level 1 color image 34 and the depth image 36 is lowered through a second downsampling process .

과정 ③에서는, 레벨 2의 깊이 영상(40)의 홀을 채우는 과정이 수행되는데, 이때, 과정 ③에 의해 생성된 홀 채움 깊이 영상(42)은 레벨 1에서의 홀 채움 깊이 영상을 생성하기 위한 참조 영상으로 이용된다. In the process (3), a process of filling a hole of the depth image 40 of level 2 is performed. At this time, the hole filling depth image 42 generated by the process (3) is a reference for generating a hole filling depth image at the level 1 It is used as an image.

과정 ④에서는, 레벨 1의 깊이 영상(36)을 시점 변환하는 과정이 수행된다.In the process (4), the process of converting the viewpoint of the depth image (36) of level 1 is performed.

과정 ⑤에서는, 레벨 2의 홀 채움 깊이 영상(42)을 참조하여, 상기 과정 ④에 의해 시점 변환된 레벨 1의 깊이 영상(36)에 대한 홀 채움 과정을 수행하여 레벨 1에서의 홀 채움 깊이 영상(46)을 생성하는 과정이 수행된다. In step 5, referring to the hole filling depth image 42 of the level 2, a hole filling process is performed for the depth image 36 of the level 1, (46) is generated.

과정 ⑥에서는, 레벨 0의 깊이 영상(32)에 대한 시점 변환 과정이 수행된다. In step (6), a viewpoint conversion process is performed on the depth image (32) of level 0.

과정 ⑦에서는, 레벨 1의 홀 채움 깊이 영상(46)을 참조하여, 상기 과정 ⑥에 의해 시점 변환된 레벨 0의 깊이 영상(32)에 대한 홀 채움 과정을 수행하여 레벨 0에서의 최종 홀 채움 깊이 영상(50)을 생성하는 과정이 수행된다. In step 7, referring to the hole fill depth image 46 of level 1, a hole filling process is performed on the depth image 32 of level 0 that has been time-shifted by the process 6, A process of generating an image 50 is performed.

한편, ③, ⑤ 및 ⑦의 각 레벨 별 홀 채움 과정에서 색상 영상(30, 34, 38)이 활용되는 데, 전경에 존재하는 홀은 전경에 존재하는 인접 화소의 깊이값으로 홀을 채워야 하고, 배경에 존재하는 홀은 배경에 존재하는 인접 화소의 깊이값으로 홀을 채워야 한다. 깊이 영상만으로는 해당 홀이 전경인지 배경인지를 구분하기 어렵기 때문에 색상 영상이 함께 활용될 필요가 있다. 따라서, ③, ⑤ 및 ⑦의 각 레벨 별 홀 채움 과정에서는 계층별(단계별 또는 레벨별) 다운 샘플링된 색상 영상을 함께 참조하여 홀 채움 과정이 계층별로 수행된다.Meanwhile, the color images 30, 34, and 38 are used in the hole filling process for each level of ③, ⑤ and ⑦. The hole in the foreground must fill the hole with the depth value of the adjacent pixel in the foreground, Holes present in the background should fill the holes with depth values of adjacent pixels present in the background. Since it is difficult to distinguish whether the hole is foreground or background, it is necessary to use color images together. Therefore, in the hole filling process for each level of (3), (5), and (7), the hole filling process is performed for each layer by referring to the downsampled color image for each layer (step or level).

이와 같이, 본 발명의 일 실시 예에 따른 계층별 홀 채움 과정에서는 저해상도의 상위 레벨에서 홀 영역을 산발적으로 채워지고, 산발적으로 채워진 상위 레벨의 홀 채움 깊이 영상을 참조하여 고해상도의 하위 레벨에서의 홀 영역을 다시 채우는 홀 채움 과정을 수행한다. 이 과정을 원 해상도의 레벨까지 반복적으로 수행하면 깊이 영상의 모든 영역에 대해 홀을 채울 수 있게 된다.As described above, in the hole filling process for each layer according to the embodiment of the present invention, the hole area is sporadically filled at the upper level of the low resolution, and the hole filling depth image at the higher level, And performs a hole filling process to refill the area. Repeatedly performing this process up to the level of the original resolution makes it possible to fill the hole for all areas of the depth image.

도 4는 본 발명의 일 실시 예에 따른 스테레오 깊이 영상을 생성하는 방법을 보여주는 순서도이다.4 is a flowchart illustrating a method of generating a stereo depth image according to an exemplary embodiment of the present invention.

도 4를 참조하면, 먼저, S410에서, 스테레오 카메라와 같은 영상 획득 수단을 이용하여 임의의 객체를 촬영한 좌시점 영상과 우시점 영상을 포함하는 스테레오 영상을 획득하는 과정이 수행된다. 획득된 스테레오 영상은 다운 샘플링 과정을 통해 낮은 해상도로 변환된다.Referring to FIG. 4, in step S410, a stereo image including a left view image and a right view image obtained by capturing an arbitrary object using an image acquiring unit such as a stereo camera is performed. The acquired stereo image is converted to a lower resolution through a downsampling process.

이어, S420에서, 상기 다운 샘플링된 스테레오 영상에 대해 스테레오 정합 과정을 수행하여 좌시점 또는 우시점의 깊이 영상을 획득하는 과정이 수행되는 데, 이때, 한번의 상기 스테레오 정합 과정을 통해 상기 좌시점 또는 우시점의 깊이 영상이 획득된다.In step S420, a stereo matching process is performed on the downsampled stereo image to acquire a depth image of a left or right viewpoint. At this time, The depth image of the right viewpoint is obtained.

이어, S430에서, 생성된 상기 깊이 영상을 시점 변환하는 시점 변환 과정이 수행되는데, 예컨대, 상기 깊이 영상을 획득하는 과정에서 좌시점의 깊이 영상을 획득한 경우, 상기 획득된 좌시점의 깊이 영상을 우시점의 깊이 영상으로 시점 변환하고, 상기 깊이 영상을 획득하는 과정에서 우시점의 깊이 영상을 획득한 경우, 상기 획득된 우시점의 깊이 영상을 좌시점의 깊이 영상으로 시점 변환되는 과정이 수행된다.In step S430, a viewpoint transformation process of transforming the viewpoint of the depth image is performed. For example, when the depth image of the left viewpoint is acquired in the process of acquiring the depth image, When the depth image of the right viewpoint is obtained in the process of acquiring the depth image, a process of converting the depth image of the obtained right viewpoint into the depth image of the left viewpoint is performed .

이어, S440에서, 시점 변환된 깊이 영상을 계층별로 다운 샘플링하여 계층화된 깊이 영상을 획득하는 과정이 수행되며, 이러한 계층화된 깊이 영상의 획득 과정은 도 1의 시점 변환부(120) 또는 계층 홀 채움부(122)에서 수행될 수 있으며, 따라서, 도시하지는 않았으나, 시점 변환부(120) 또는 계층 홀 채움부(122)에는 다운 샘플링을 수행하는 블록이 추가로 구비될 수 있다.In step S440, a process of acquiring a layered depth image by downsampling the viewpoint-converted depth image is performed. The process of acquiring the layered depth image is performed by the viewpoint transformation unit 120 or the layer hole filling And a block for performing downsampling may be additionally provided in the viewpoint converting unit 120 or the layer hole filling unit 122 although not shown in the drawing.

이어, S450에서, 획득된 상기 계층화된 깊이 영상 내의 홀 영역을 상위 계층의 깊이 영상 내에서 상기 홀 영역에 대응하는 주변 영역의 깊이값을 참조하여 채우는 홀 채움 과정이 수행된다. 예컨대, 특별히 한정하는 것은 아니지만, 상기 깊이 영상이 제1 해상도를 갖는 제1 계층의 깊이 영상과, 상기 제1 해상도보다 낮은 제2 해상도를 갖는 제2 계층의 깊이 영상 및 상기 제2 해상도보다 낮은 제3 해상도를 갖는 제3 계층의 깊이 영상으로 계층화된 경우를 가정하면, 상기 홀 채움 과정은, 상기 제3 계층의 깊이 영상 내의 홀 영역의 주변 영역의 깊이값으로 상기 홀 영역을 채운 제3 계층의 홀 채움 깊이 영상을 획득하는 과정과, 획득된 상기 제3 계층의 홀 채움 깊이 영상을 참조하여 상기 제2 계층의 깊이 영상 내의 홀 영역을 채운 제2 계층의 홀 채움 깊이 영상을 획득하는 과정 및 획득된 상기 제2 계층의 홀 채움 깊이 영상을 참조하여 상기 제1 계층의 깊이 영상 내의 홀 영역을 채운 제1 계층의 홀 채움 깊이 영상을 획득하는 과정을 포함할 수 있고, 제1 계층의 홀 채움 깊이 영상이 최종 홀 채움 깊이 영상으로 획득된다. In step S450, a hole filling process is performed to fill the hole area in the obtained depth image with reference to the depth value of the peripheral area corresponding to the hole area in the depth image of the upper layer. For example, although not particularly limited, the depth image may include a depth image of a first hierarchical level having a first resolution, a depth image of a second hierarchical level having a second resolution lower than the first resolution, The depth information of the third layer having the depth value of the peripheral region of the hole region in the depth image of the third layer, Acquiring a hole filling depth image of a second hierarchical level filling the hole area in the depth image of the second hierarchy with reference to the obtained hole filling depth image of the third hierarchy; And acquiring a hole filling depth image of the first hierarchy filling the hole in the depth image of the first hierarchy with reference to the hole filling depth image of the second hierarchy And the first-layer hole-filling depth image is obtained as the final hole filling depth image.

S460에서, 상기 최종 획득된 홀 채움 깊이 영상을 상기 S410에서 수행된 다운 샘플링 과정에 의해 나아진 해상도를 원래의 해상도로 복원하기 위해, 업 샘플링 하는 과정이 수행되며, 이렇게 업 샘플링된 홀 채움 깊이 영상은 최종 스테레오 깊이 영상으로 획득된다.In S460, up-sampling is performed to restore the resolution of the final acquired hole-depth image to the resolution originally obtained by the down-sampling process performed in S410, and the up- And is obtained as a final stereo depth image.

이상 설명한 바와 같이, 본 발명에서는, 스테레오 영상을 다운샘플링하고, 스테레오 정합 기술을 적용해서 저해상도의 깊이 영상을 획득한 후, 시점 변환 및 계층적 홀 채움 방법을 통해 저해상도 홀 채움 깊이 영상을 생성한다. 이렇게 얻어진 저해상도 홀 채움 깊이 영상은 업샘플링 과정을 통해 원래의 해상도로 복원되어, 스테레오 깊이 영상으로서 생성된다. 이렇게 함으로써, 스테레오 깊이 영상 생성 과정의 복잡도를 줄일 수 있고, 스테레오 깊이 영상을 고속으로 획득할 수 있게 된다.As described above, in the present invention, a stereo image is down-sampled, a stereo matching technique is applied to obtain a low-resolution depth image, and a low-resolution hole filling depth image is generated through a viewpoint conversion and a hierarchical hole filling method. The low-resolution hole filling depth image thus obtained is restored to its original resolution through an up-sampling process, and is generated as a stereo depth image. By doing so, the complexity of the stereo depth image generation process can be reduced, and the stereo depth image can be acquired at high speed.

이상의 설명으로 당업자는 전술한 실시 예들을 이해하고 구현할 수 있다. 특히 방법에서의 블록들 모두 또는 그 일부는 프로그램에 의해 명령되는 관련 하드웨어로 구현될 수도 있다. 프로그램은 컴퓨터 판독 가능한 저장 매체에 저장될 수도 있다. 프로그램을 실행할 때, 상술한 방법 실시 예에서 하나의 블록 또는 이들의 조합이 포함될 수도 있다.
In view of the above, those skilled in the art can understand and implement the above-described embodiments. In particular, all or some of the blocks in the method may be implemented in the associated hardware that is commanded by the program. The program may be stored in a computer-readable storage medium. When executing the program, one block or a combination thereof may be included in the method embodiment described above.

Claims (11)

좌시점 영상과 우시점 영상을 포함하는 스테레오 영상을 획득하는 과정;
상기 스테레오 영상에 대해 스테레오 정합 과정을 수행하여 좌시점 또는 우시점의 깊이 영상을 획득하는 과정;
생성된 상기 깊이 영상을 시점 변환하는 시점 변환 과정;
시점 변환된 깊이 영상을 계층별로 다운 샘플링하여 계층화된 깊이 영상을 획득하고, 획득된 상기 계층화된 깊이 영상 내의 홀 영역을 상위 계층의 깊이 영상 내에서 상기 홀 영역에 대응하는 주변 영역의 깊이값을 참조하여 채우는 홀 채움 과정; 및
상기 홀 채움 과정을 통해 획득된 홀 채움 깊이 영상을 업샘플링하여 스테레오 깊이 영상을 생성하는 과정
을 포함하는 스테레오 깊이 영상을 생성하는 방법.
A step of acquiring a stereo image including a left view image and a right view image;
Performing a stereo matching process on the stereo image to acquire a depth image of a left viewpoint or a right viewpoint;
A viewpoint transformation step of transforming the viewpoint of the generated depth image;
The depth-converted depth image is downsampled for each layer to obtain a layered depth image, and the acquired hole region in the layered depth image is referred to as a depth value of a surrounding region corresponding to the hole region in the depth image of the upper layer Filling process; And
A process of generating a stereo depth image by upsampling the hole filling depth image obtained through the hole filling process
And generating a stereo depth image.
제1항에 있어서, 상기 깊이 영상을 획득하는 과정은,
상기 스테레오 정합 과정을 한번 수행하여 상기 좌시점 또는 우시점의 깊이 영상을 획득하는 것인 스테레오 깊이 영상을 생성하는 방법.
The method of claim 1, wherein the obtaining of the depth image comprises:
And performing a stereo matching process once to acquire a depth image of the left or right viewpoint.
제1항에 있어서, 상기 시점 변환 과정은,
상기 깊이 영상을 획득하는 과정에서 좌시점의 깊이 영상을 획득한 경우, 상기 획득된 좌시점의 깊이 영상을 우시점의 깊이 영상으로 시점 변환하고,
상기 깊이 영상을 획득하는 과정에서 우시점의 깊이 영상을 획득한 경우, 상기 획득된 우시점의 깊이 영상을 좌시점의 깊이 영상으로 시점 변환하는 것인 스테레오 깊이 영상을 생성하는 방법.
The method according to claim 1,
The depth image of the left viewpoint is converted into the depth image of the right viewpoint when the depth image of the left viewpoint is acquired in the process of acquiring the depth image,
Wherein when the depth image of the right viewpoint is acquired in the process of acquiring the depth image, the depth image of the obtained right viewpoint is converted into viewpoint depth image of the left viewpoint.
제1항에 있어서, 상기 홀 채움 과정에서, 상기 깊이 영상이 제1 해상도를 갖는 제1 계층의 깊이 영상과, 상기 제1 해상도보다 낮은 제2 해상도를 갖는 제2 계층의 깊이 영상 및 상기 제2 해상도보다 낮은 제3 해상도를 갖는 제3 계층의 깊이 영상으로 계층화된 경우,
상기 홀 채움 과정은,
상기 제3 계층의 깊이 영상 내의 홀 영역의 주변 영역의 깊이값으로 상기 홀 영역을 채운 제3 계층의 홀 채움 깊이 영상을 획득하는 과정;
획득된 상기 제3 계층의 홀 채움 깊이 영상을 참조하여 상기 제2 계층의 깊이 영상 내의 홀 영역을 채운 제2 계층의 홀 채움 깊이 영상을 획득하는 과정; 및
획득된 상기 제2 계층의 홀 채움 깊이 영상을 참조하여 상기 제1 계층의 깊이 영상 내의 홀 영역을 채운 제1 계층의 홀 채움 깊이 영상을 획득하는 과정
을 포함하는 스테레오 깊이 영상을 생성하는 방법.
2. The method of claim 1, wherein in the hole filling step, the depth image includes a first layer depth image having a first resolution, a second layer depth image having a second resolution lower than the first resolution, Layered depth image having a third resolution lower than the resolution of the third layer,
In the hole filling process,
Acquiring a hole filling depth image of a third hierarchical level filling the hole area with a depth value of a peripheral area of the hole area in the depth image of the third hierarchical level;
Acquiring a hole filling depth image of a second layer filling the hole area in the depth image of the second hierarchy with reference to the obtained hole filling depth image of the third hierarchy; And
Acquiring a hole filling depth image of the first hierarchy filling the hole in the depth image of the first hierarchy with reference to the obtained hole filling depth image of the second hierarchy
And generating a stereo depth image.
제4항에 있어서, 상기 스테레오 깊이 영상을 생성하는 과정은,
상기 제1 계층의 홀 채움 깊이 영상을 업샘플링하여 상기 스테레오 깊이 영상을 생성하는 것인 스테레오 깊이 영상을 생성하는 방법.
The method of claim 4, wherein the step of generating the stereo depth image comprises:
And generating the stereo depth image by upsampling the first-layer hall-fill depth image.
제1항 내지 제5항 중 어느 한 항에 있어서, 상기 스테레오 영상을 획득하는
과정 이후, 획득된 상기 스테레오 영상을 다운 샘플링 하는 과정을 더 포함하고,
상기 깊이 영상을 획득하는 과정은,
다운 샘플링된 상기 스테레오 영상에 대해 스테레오 정합 과정을 수행하는 것인 스테레오 깊이 영상을 생성하는 방법.
6. The method according to any one of claims 1 to 5,
Further comprising the step of downsampling the acquired stereo image,
The step of acquiring the depth image comprises:
And performing a stereo matching process on the downsampled stereo image.
좌시점 영상과 우시점 영상을 포함하는 스테레오 영상을 획득하는 영상 획득부;
상기 스테레오 영상에 대해 스테레오 정합 과정을 수행하여 좌시점 또는 우시점의 깊이 영상을 획득하는 스테레오 정합부;
생성된 상기 깊이 영상을 시점 변환하는 시점 변환부;
시점 변환된 깊이 영상을 계층별로 다운 샘플링하여 계층화된 깊이 영상을 획득하고, 획득된 상기 계층화된 깊이 영상 내의 홀 영역을 상위 계층의 깊이 영상 내에서 상기 홀 영역에 대응하는 주변 영역의 깊이값을 참조하여 채우는 계층적 홀 채움부; 및
상기 홀 채움 과정을 통해 획득된 홀 채움 깊이 영상을 업샘플링하여 스테레오 깊이 영상을 생성하는 업샘플링부;
을 포함하는 스테레오 깊이 영상 생성 장치.
An image acquiring unit acquiring a stereo image including a left view image and a right view image;
A stereo matching unit for performing a stereo matching process on the stereo image to acquire a left or right depth image;
A point-of-view conversion unit for converting point-in-time of the generated depth image;
The depth-converted depth image is downsampled for each layer to obtain a layered depth image, and the acquired hole region in the layered depth image is referred to as a depth value of a surrounding region corresponding to the hole region in the depth image of the upper layer A layered hole filling part for filling the hole; And
An up-sampling unit for up-sampling the hole filling depth image obtained through the hole filling process to generate a stereo depth image;
And a stereo depth image generating unit.
제7항에 있어서, 상기 스테레오 정합부는,
상기 스테레오 정합 과정을 한번 수행하여 상기 좌시점 또는 우시점의 계층화된 깊이 영상을 획득하는 것인 스테레오 깊이 영상 생성 장치.
8. The stereoscopic image display device according to claim 7,
And the stereo depth image is obtained by performing the stereo matching process once to obtain the layered depth image of the left or right viewpoint.
제7항에 있어서, 상기 시점 변환부는,
상기 스테레오 정합부에서 좌시점의 깊이 영상을 획득한 경우, 상기 획득된 좌시점의 깊이 영상을 우시점의 깊이 영상으로 시점 변환하고,
상기 스테레오 정합부에서 우시점의 깊이 영상을 획득한 경우, 상기 획득된 우시점의 깊이 영상을 좌시점의 깊이 영상으로 시점 변환하는 것인 스테레오 깊이 영상 생성 장치.
8. The apparatus according to claim 7,
Wherein when the depth image of the left viewpoint is acquired by the stereo matching unit, the acquired depth image of the left viewpoint is converted into a depth image of the right viewpoint,
Wherein when the depth image of the right viewpoint is acquired by the stereo matching unit, the depth image of the obtained right viewpoint is converted into viewpoint depth image of the left viewpoint.
제1항에 있어서, 상기 계층적 홀 채움부가
상기 깊이 영상을 제1 해상도를 갖는 제1 계층의 깊이 영상과, 상기 제1 해상도보다 낮은 제2 해상도를 갖는 제2 계층의 깊이 영상 및 상기 제2 해상도보다 낮은 제3 해상도를 갖는 제3 계층의 깊이 영상으로 계층화하는 경우,
상기 제3 계층의 깊이 영상 내의 홀 영역의 주변 영역의 깊이값으로 상기 홀 영역을 채운 제3 계층의 홀 채움 깊이 영상을 획득하고, 획득된 상기 제3 계층의 홀 채움 깊이 영상을 참조하여 상기 제2 계층의 깊이 영상 내의 홀 영역을 채운 제2 계층의 홀 채움 깊이 영상을 획득하고, 획득된 상기 제2 계층의 홀 채움 깊이 영상을 참조하여 상기 제1 계층의 깊이 영상 내의 홀 영역을 채운 제1 계층의 홀 채움 깊이 영상을 획득하는 것인 스테레오 깊이 영상 생성 장치.
2. The semiconductor device according to claim 1,
The depth image is divided into a first layer depth image having a first resolution and a second layer depth image having a second resolution lower than the first resolution and a third layer having a third resolution lower than the second resolution, When layered into a depth image,
A hole filling depth image of a third hierarchical level filling the hole region with a depth value of a peripheral region of the hole region in the depth image of the third hierarchical level is obtained, A depth-first image of the second layer filling the hole region in the depth image of the first layer, a hole-filling depth image of the second layer filling the hole region in the depth image of the second layer, And acquiring a hole depth depth image of the layer.
제10항에 있어서, 상기 업샘플링부는,
상기 제1 계층의 홀 채움 깊이 영상을 업샘플링하여 상기 스테레오 깊이 영상을 생성하는 것인 스테레오 깊이 영상 생성 장치.
11. The apparatus of claim 10, wherein the up-
Wherein the stereo depth image generator generates the stereo depth image by upsampling the first-layer hole depth image.
KR1020130167507A 2013-12-30 2013-12-30 Device and method for generating stereo depth images KR101561525B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130167507A KR101561525B1 (en) 2013-12-30 2013-12-30 Device and method for generating stereo depth images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130167507A KR101561525B1 (en) 2013-12-30 2013-12-30 Device and method for generating stereo depth images

Publications (2)

Publication Number Publication Date
KR20150078273A true KR20150078273A (en) 2015-07-08
KR101561525B1 KR101561525B1 (en) 2015-10-20

Family

ID=53790845

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130167507A KR101561525B1 (en) 2013-12-30 2013-12-30 Device and method for generating stereo depth images

Country Status (1)

Country Link
KR (1) KR101561525B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190032440A (en) * 2016-07-21 2019-03-27 인터디지털 브이씨 홀딩스 인코포레이티드 A method for generating hierarchical depth data of a scene

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100806201B1 (en) * 2006-10-30 2008-02-22 광주과학기술원 Generating method for three-dimensional video formation using hierarchical decomposition of depth image, and device for the same, and system and storage medium therefor
KR100918862B1 (en) * 2007-10-19 2009-09-28 광주과학기술원 Method and device for generating depth image using reference image, and method for encoding or decoding the said depth image, and encoder or decoder for the same, and the recording media storing the image generating the said method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190032440A (en) * 2016-07-21 2019-03-27 인터디지털 브이씨 홀딩스 인코포레이티드 A method for generating hierarchical depth data of a scene
US11127146B2 (en) 2016-07-21 2021-09-21 Interdigital Vc Holdings, Inc. Method for generating layered depth data of a scene
US11803980B2 (en) 2016-07-21 2023-10-31 Interdigital Vc Holdings, Inc. Method for generating layered depth data of a scene

Also Published As

Publication number Publication date
KR101561525B1 (en) 2015-10-20

Similar Documents

Publication Publication Date Title
US8116557B2 (en) 3D image processing apparatus and method
JP5858381B2 (en) Multi-viewpoint image composition method and multi-viewpoint image composition system
JP5561781B2 (en) Method and system for converting 2D image data into stereoscopic image data
Zhao et al. Depth no-synthesis-error model for view synthesis in 3-D video
Kang et al. An efficient image rectification method for parallel multi-camera arrangement
WO2012176431A1 (en) Multi-viewpoint image generation device and multi-viewpoint image generation method
CN102325259A (en) Method and device for synthesizing virtual viewpoints in multi-viewpoint video
US9154765B2 (en) Image processing device and method, and stereoscopic image display device
CN102905145B (en) Stereoscopic image system, image generation method, image adjustment device and method thereof
US20130169748A1 (en) System and method for adjusting perceived depth of stereoscopic images
CN102316354A (en) Parallelly processable multi-view image synthesis method in imaging technology
KR101561525B1 (en) Device and method for generating stereo depth images
KR101634225B1 (en) Device and Method for Multi-view image Calibration
Knorr et al. From 2D-to stereo-to multi-view video
Tanimoto et al. Frameworks for FTV coding
KR101378910B1 (en) An Intermediate View Image Generation Method for an Virtual Arbitrary View-Point Hologram Service
Ramachandran et al. Multiview synthesis from stereo views
CN104463958A (en) Three-dimensional super-resolution method based on disparity map fusing
KR20140022300A (en) Method and apparatus for creating multi view image
KR20170077331A (en) Arbitrary View Image Generation Method and System
KR20140113066A (en) Multi-view points image generating method and appararus based on occulsion area information
Redert et al. 3-D scene reconstruction with viewpoint adaptation on stereo displays
US9888222B2 (en) Method and device for generating stereoscopic video pair
Kovacs et al. 3D capturing using multi-camera rigs, real-time depth estimation and depth-based content creation for multi-view and light-field auto-stereoscopic displays
Kim et al. Object-based stereoscopic conversion of MPEG-4 encoded data

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180918

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190924

Year of fee payment: 5