KR20100008677A - Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same - Google Patents

Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same Download PDF

Info

Publication number
KR20100008677A
KR20100008677A KR1020080069262A KR20080069262A KR20100008677A KR 20100008677 A KR20100008677 A KR 20100008677A KR 1020080069262 A KR1020080069262 A KR 1020080069262A KR 20080069262 A KR20080069262 A KR 20080069262A KR 20100008677 A KR20100008677 A KR 20100008677A
Authority
KR
South Korea
Prior art keywords
image
depth
depth value
segment
depth map
Prior art date
Application number
KR1020080069262A
Other languages
Korean (ko)
Inventor
호요성
이상범
오관정
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020080069262A priority Critical patent/KR20100008677A/en
Priority to US12/260,986 priority patent/US8351685B2/en
Priority to JP2008292306A priority patent/JP2009123219A/en
Publication of KR20100008677A publication Critical patent/KR20100008677A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE: A depth map estimation apparatus and method, an intermediate image production method using the same, and a multi-point video encoding method are provided to obtain a depth map strong against external affects. CONSTITUTION: A 3D warping unit(30) performs 3D warping of each segment set through a segment setup unit(20) into the view point of a reference image adjacent to a subject image. An initial depth value search unit(40) estimates the depth value of the subject image based on the reference image, and searches one depth value for each segment. A depth value refining part(50) obtains the final depth value by refining the initial depth value output from the initial depth value search unit.

Description

깊이맵 추정장치와 방법, 이를 이용한 중간 영상 생성 방법 및 다시점 비디오의 인코딩 방법{Device and Method for estimating death map, Method for making intermediate view and Encoding multi-view using the same}Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same

본 발명은 깊이맵 추정장치와 방법, 이를 이용한 중간 영상 생성 방법 및 다시점 비디오의 인코딩 방법에 관한 것이다. 보다 상세하게는 화소의 유사도를 기준으로 세그멘트로 영역을 분할하고, 3차원 워핑 기법과 확장된 경사도 맵이 반영된 자체 적응 함수를 이용하여 세그멘트 단위의 초기 깊이맵을 얻은 후, 신뢰확산 방법을 세그멘트 단위로 수행하여 초기 깊이맵을 정제함으로써, 오차를 줄이고 복잡도를 감소시키며 외부 영향에 강인한 깊이맵을 얻을 수 있고, 이러한 깊이맵으로 중간 영상을 생성하고 다시점 비디오의 부호화에 활용함으로써 부드러운 시점 전환과 향상된 부호화 효율을 얻을 수 있는 깊이맵 추정장치와 방법, 이를 이용한 중간 영상 생성 방법 및 다시점 비디오의 인코딩 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating a depth map, a method for generating an intermediate image using the same, and a method for encoding a multiview video. More specifically, the region is divided into segments based on the similarity of the pixels, an initial depth map of the segment unit is obtained by using a three-dimensional warping technique and a self-adaptive function in which an extended gradient map is reflected, and then the reliability diffusion method is performed by the segment unit. By refining the initial depth map, we can reduce the error, reduce the complexity, and obtain the depth map that is robust to external influences. A depth map estimating apparatus and method for obtaining encoding efficiency, an intermediate image generation method using the same, and a method for encoding a multiview video are provided.

디지털 기술이 고도로 발전하고, 방송과 통신의 융합으로 방송 매체가 다양해짐에 따라 디지털 기술의 특성을 이용한 방송 관련 부가 서비스들이 새롭게 선보이고 있다. 현재 TV의 발전 방향은 고화질과 대화면으로 가고 있으나, TV 화면 자 체가 2차원이기 때문에 현재의 화면을 통해서는 입체감을 느낄 수 없다. As digital technology is highly developed and broadcasting media are diversified due to convergence of broadcasting and communication, broadcasting-related additional services using the characteristics of digital technology are newly introduced. Currently, the direction of TV development is going to be high quality and large screen, but since the TV screen itself is two-dimensional, the three-dimensional feeling cannot be felt through the current screen.

삼차원 비디오 처리기술은 차세대 정보통신 서비스 분야의 핵심 기술로서, 정보산업 사회로의 발달과 더불어 기술개발 경쟁이 치열한 최첨단 기술이다. 이러한 삼차원 비디오 처리기술은 멀티미디어 응용에서 고품질의 영상 서비스를 제공하기 위해 필수적인 요소이며, 오늘날에는 이러한 정보통신 분야뿐만 아니라 방송, 의료, 교육, 군사, 게임, 가상현실 등 그 응용분야가 매우 다양화되고 있다. 게다가, 삼차원 비디오 처리기술은 여러 분야에서 공통적으로 요구하는 차세대 실감 삼차원 멀티미디어의 핵심 기반기술로도 자리잡아 선진국을 중심으로 이에 대한 연구가 활발히 진행되고 있다.Three-dimensional video processing technology is a core technology in the next-generation information and communication service field, and it is a cutting-edge technology with competition for technology development with the development of the information industry society. Such three-dimensional video processing technology is an essential element to provide high quality video services in multimedia applications. Today, the application fields such as broadcasting, medical, education, military, games, virtual reality, as well as information and communication fields are diversified. have. In addition, three-dimensional video processing technology has become a core foundation technology of next-generation realistic three-dimensional multimedia, which is commonly required in many fields, and researches on it are being conducted actively in advanced countries.

일반적으로 삼차원 비디오는 다음과 같은 두 가지 관점에서 정의내릴 수 있다. 첫번째로, 삼차원 비디오는 영상에 깊이에 대한 정보를 적용시켜 영상의 일부가 화면으로부터 돌출되는 느낌을 사용자가 느낄 수 있도록 구성되는 비디오로 정의될 수 있다. 두번째로, 삼차원 비디오는 사용자에게 다양한 시점을 제공하여 이로부터 사용자가 영상에서 현실감을 느낄 수 있도록 구성되는 비디오로 정의될 수 있다. 이러한 삼차원 비디오는 획득 방식, 깊이감(depth impression), 디스플레이 방식 등에 따라 양안식, 다안식, IP(Integral Photography), 다시점(옴니(omni), 파노라마), 홀로그램 등으로 분류할 수 있다. 그리고, 이러한 삼차원 비디오를 표현하는 방법으로는 크게 영상 기반 표현법(Image-Based Representation)과 메쉬 기반 표현법(Mesh-Based Representation)이 있다.In general, three-dimensional video can be defined from two perspectives. First, a 3D video may be defined as a video configured to apply a depth information to an image so that a user may feel a part of the image protruding from the screen. Secondly, the 3D video may be defined as a video configured to provide a user with various viewpoints so that the user can feel a reality in the image. The 3D video may be classified into a binocular, a polycular, an integral photography (IP), a multiview (omni, a panorama), a hologram, and the like according to an acquisition method, a depth impression, a display method, and the like. The three-dimensional video is represented by image-based representation and mesh-based representation.

최근 들어 이러한 삼차원 비디오를 표현하는 방법으로 깊이영상 기반 렌더 링(DIBR; Death Image-Based Rendering)이 각광을 받고 있다. 깊이영상 기반 렌더링은 관련된 각 화소마다 깊이나 차이각 등의 정보를 가진 참조 영상들을 이용하여 다른 시점에서의 장면들을 창출하는 방법을 말한다. 이러한 깊이영상 기반 렌더링은 삼차원 모델의 표현하기 어렵고 복잡한 형상을 용이하게 렌더링할 뿐만 아니라, 일반적인 영상 필터링과 같은 신호처리 방법의 적용을 가능하게 하며, 고품질의 삼차원 비디오를 생성할 수 있게 하는 장점을 가지고 있다. 이러한 깊이영상 기반 렌더링은 깊이 카메라 및 멀티뷰 카메라를 통하여 획득되는 깊이 영상과 텍스쳐 영상을 이용한다. Recently, Death Image-Based Rendering (DIBR) has been in the spotlight as a method of expressing such three-dimensional video. Depth-based rendering refers to a method of creating scenes at different viewpoints using reference images having information such as depth or difference angle for each pixel. This depth image based rendering not only renders difficult and complex shapes of the 3D model, but also enables the application of signal processing methods such as general image filtering, and has the advantage of generating high quality 3D video. have. The depth image based rendering uses a depth image and a texture image acquired through a depth camera and a multi-view camera.

깊이영상은 3차원 공간상에 위치하는 객체와 그 객체를 촬영하는 카메라 사이의 거리를 흑백의 단위로 나타내는 영상이다. 이러한 깊이영상은 깊이정보와 카메라 파라미터를 통하여 3차원 복원기술 또는 3차원 워핑(warping) 기술에 많이 이용된다. 또한, 깊이영상은 자유시점 TV와 3차원 TV에 응용된다. 자유시점 TV는 정해진 하나의 시점에서만 영상을 감상하지 않고 사용자의 선택에 따라 임의의 시점에서 영상을 시청할 수 있게 하는 TV를 말한다. 3차원 TV는 기존 2차원 TV에 깊이영상을 더하여 실감영상을 구현하며, 최근 활발하게 연구개발이 이루어지고 있다.The depth image is an image representing a distance between an object located in a three-dimensional space and a camera photographing the object in black and white units. Such depth images are widely used in 3D reconstruction technology or 3D warping technology through depth information and camera parameters. In addition, depth images are applied to free-view TVs and 3D TVs. A free view TV refers to a TV that enables a user to watch an image at an arbitrary point of time according to a user's selection without viewing the image only at a predetermined point in time. 3D TV realizes realistic image by adding depth image to existing 2D TV, and research and development is actively performed recently.

이와 같은 자유시점 TV와 3차원 TV에서 부드러운 시점 전환을 위해서는 보다 향상된 중간영상을 생성하여야 하며, 이를 위해 정확한 깊이맵을 추정하는 것이 중요하다. 깊이맵을 추정하기 위하여 일반적으로 스테레오 정합(Stereo Matching) 알고리즘이 사용되고 있다. 그러나, 기존의 스테레오 정합 알고리즘은 깊이값의 불연속점을 가지는 화소 주변에서 많은 오차가 발생되며, 이러한 오차는 중간영상 생성 시 객체의 경계가 중복되거나 불분명해지는 문제점을 야기하게 된다. 또한, 기존의 스테레오 정합 알고리즘은 변이값을 구하기 위해 주변 영상에서 수평 방향으로만 탐색을 하기 때문에 병렬 카메라 구성에서 얻은 영상 또는 교정(rectification) 과정을 거친 영상만을 입력으로 가질 수 있다. 따라서, 이러한 방법에 의하면 병렬 카메라 구성뿐만 아니라 원호 카메라 구성과 같은 다양한 카메라 구성을 갖는 다시점 영상에 대한 깊이맵을 추정하는 데에는 한계가 있다는 문제점이 있다. 더욱이, 기존의 스테레오 정합 알고리즘에 의하면 화소 단위로 변이값을 탐색하여 스테레오 영상에는 적합하나, 스테레오 영상에 비해 상대적으로 데이터량이 많은 다시점 영상의 경우에는 화소 단위로 변이값을 탐색할 경우 많은 오차를 포함할 뿐만 아니라, 복잡도가 증가하게 되는 문제점이 있다.In order to smoothly change the viewpoint in such a free-view TV and 3D TV, an improved intermediate image should be generated, and it is important to estimate an accurate depth map. In order to estimate the depth map, a stereo matching algorithm is generally used. However, in the conventional stereo matching algorithm, many errors are generated around pixels having a discontinuity point of depth, and this error causes a problem that an object boundary overlaps or becomes unclear when generating an intermediate image. In addition, since the conventional stereo matching algorithm searches only the horizontal direction in the surrounding image to obtain the shift value, only the image obtained by the parallel camera configuration or the image undergoing the rectification process can be input. Therefore, according to this method, there is a problem in estimating a depth map for a multi-view image having various camera configurations such as a circular camera configuration as well as a parallel camera configuration. Moreover, according to the conventional stereo matching algorithm, it is suitable for stereo images by searching for the variance value in pixel units. However, in the case of multi-view images, which have a relatively large amount of data compared to the stereo image, there are many errors when searching for variance values in pixel units. In addition to the inclusion, there is a problem that the complexity is increased.

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 특히 오차를 줄이고 복잡도를 감소시키며 외부 영향에 강인한 깊이맵을 얻을 수 있고, 이러한 깊이맵으로 중간 영상을 생성하고 다시점 비디오의 부호화에 활용함으로써 부드러운 시점 전환과 향상된 부호화 효율을 얻을 수 있는 깊이맵 추정장치와 방법, 이를 이용한 중간 영상 생성 방법 및 다시점 비디오의 인코딩 방법을 제공하는 데 그 목적이 있다.The present invention has been devised to solve the above problems, and in particular, it is possible to obtain a depth map that reduces errors, reduces complexity, and is robust against external influences, and generates intermediate images using such depth maps and uses them for encoding multiview video. Accordingly, an object of the present invention is to provide a depth map estimation apparatus and method for obtaining smooth viewpoint switching and improved encoding efficiency, an intermediate image generation method, and a multi-view video encoding method.

본 발명에서는 3차원 워핑(warping)과 신뢰확산(Belief Propagation) 방법을 이용하여 세그먼트 단위로 깊이값을 추정하되, 다음의 사항이 제안된다.In the present invention, while estimating the depth value in units of segments using a three-dimensional warping and a trust propagation method, the following are proposed.

① MGRAD에 가중치가 부여된 정합함수① Matching function weighted to MGRAD

다시점 영상은 여러 대의 카메라로 촬영된 영상이므로 시점 간의 색상 차이가 존재하게 된다. 이러한 시점간의 색상차를 정합함수에 고려하기 위해 MGRAD의 비율을 조절하는 가중치 ω가 추가된다.Since the multi-view image is captured by multiple cameras, there is a color difference between the viewpoints. In order to consider the color difference between these viewpoints in the matching function, a weight ω that adjusts the ratio of MGRAD is added.

C(x, y, d) = CMAD(x, y, d) + ω×CMGRAD(x, y, d)C (x, y, d) = C MAD (x, y, d) + ω x C MGRAD (x, y, d)

이때, 가중치 ω는 비교하려는 두 시점의 평균 루미넌스 값의 차이로 인해 결정된다.In this case, the weight ω is determined due to the difference between the average luminance values of the two time points to be compared.

Figure 112008051224578-PAT00001
Figure 112008051224578-PAT00001

DCC는 중간시점의 평균 루미넌스 값이고, DCref는 비교할 시점의 평균 루미넌스 값이다.DC C is the mean luminance value at the midpoint, and DC ref is the average luminance value at the time of comparison.

이와 같이 정합함수를 설정함으로써 기존의 MAD 함수에 경사도 맵을 이용하는 MGRAD를 추가하되, MGRAD의 비중을 결정할 가중치를 자동으로 설정한다.By setting the matching function as described above, the MGRAD using the gradient map is added to the existing MAD function, but the weight to determine the specific gravity of the MGRAD is automatically set.

② 시간적 상관도를 고려하는 정합함수② Matching function considering temporal correlation

기존의 깊이맵 추정 기법들은 영상 매 프레임에 대해 독립적으로 깊이맵을 탐색하기 때문에 깊이맵의 시간적 일관성이 떨어지고, 또한 정제 과정을 거친다고 하더라도 여전히 깊이값 오차가 발생하게 된다.Existing depth map estimation methods search depth maps independently for each frame of the image, and thus the temporal consistency of the depth maps is inferior, and even if the refinement process is performed, depth error still occurs.

본 발명에서는 초기 깊이맵을 탐색하는 과정에서 깊이맵의 시간적인 상관도 및 깊이값의 신뢰도를 향상시키기 위해, 자체적응 함수에 이전 프레임에서 탐색한 깊이값을 고려하는 가중치 함수 Ctemp(x, y, d)를 추가한다.In the present invention, in order to improve the temporal correlation and the reliability of the depth value in the process of searching the initial depth map, the weighting function C temp (x, y) that considers the depth value searched in the previous frame to the self-adaptive function. , add d).

C(x, y, d) = CMAD(x, y, d) + ω×CMGRAD(x, y, d) + Ctemp(x, y, d)C (x, y, d) = C MAD (x, y, d) + ω x C MGRAD (x, y, d) + C temp (x, y, d)

여기서,

Figure 112008051224578-PAT00002
here,
Figure 112008051224578-PAT00002

λ는 가중치 함수의 기울기, Dprev(x, y)는 이전 프레임의 깊이값λ is the slope of the weight function, D prev (x, y) is the depth value of the previous frame

이와 같이 인접한 프레임간의 상응 화소에 대한 깊이값을 고려하여 가중치를 조절하게 된다.As such, the weight is adjusted in consideration of the depth value of the corresponding pixel between adjacent frames.

본 발명에 의하면 유사한 화소들끼리 세그멘트를 구성하여 대상 영상의 영역 을 분할한 후 3차원 워핑을 적용하여 깊이값을 탐색함으로써 변이맵에서 깊이맵으로 변환하는 과정에서 발생하는 깊이값의 오차를 줄이고 복잡도를 감소시키며, 확장된 경사도 맵을 추가한 자체 적응 함수를 이용하여 깊이값을 탐색함으로써 카메라간 색상 불일치 등 외부 영향에 강인한 깊이맵을 얻을 수 있는 효과가 있다.According to the present invention, a segment is formed between similar pixels to segment an area of a target image, and then 3D warping is applied to search for a depth value, thereby reducing the error of the depth value generated in the process of converting from a disparity map to a depth map and reducing complexity. By using the self-adaptive function that adds the extended gradient map to the depth value, the depth map robust to external influences such as color mismatch between cameras can be obtained.

또한, 본 발명에 의하면 하나의 세그멘트에 대한 깊이값 탐색 과정에서 좌영상과 우영상 모두에 대해 정합 함수를 적용하여 한쪽 영상만을 사용할 때 발생할 수 있는 폐색 영역의 문제점을 해결함으로써 보다 정확한 깊이값을 얻을 수 있는 효과가 있다.In addition, according to the present invention, by applying a matching function to both the left image and the right image in the depth value search process for one segment, a more accurate depth value can be obtained by solving the problem of the occlusion area that may occur when only one image is used. It can be effective.

또한, 본 발명에 의하면 초기 깊이맵에 대하여 세그멘트 단위의 신뢰확산 방법을 이용하여 이를 정제함으로써 배경 내에 존재하는 화소들의 색상 유사성으로 인해 발생할 수 있는 오류를 제거하고 기존의 깊이맵 추정 기법으로 획득한 깊이맵에 비해 상대적으로 명확한 객체 경계를 얻을 수 있는 효과가 있다.In addition, according to the present invention, by resolving the initial depth map using a segment-based reliability diffusion method, an error that may occur due to color similarity of pixels existing in the background is removed, and a depth acquired by the existing depth map estimation technique. Compared to the map, it is possible to obtain a relatively clear object boundary.

또한, 본 발명에 의하면 깊이맵의 정확도를 향상시킴으로써 보다 향상된 화질의 중간 영상을 얻을 수 있어 3차원 TV, 자유 시점 TV 등에서 보다 부드러운 시점 전환을 가능하게 하는 효과가 있다.In addition, according to the present invention, by improving the accuracy of the depth map, an intermediate image with improved image quality can be obtained, thereby enabling smoother viewpoint switching in 3D TV, free view TV, and the like.

또한, 본 발명에 의하면 보다 향상된 중간 영상을 통하여 다시점 비디오의 인코딩시 보다 공간적 상관도가 높은 참조 영상을 제공함으로써 부호화 효율을 향상시킬 수 있는 효과가 있다.In addition, according to the present invention, the encoding efficiency can be improved by providing a reference image having a higher spatial correlation when encoding a multiview video through an improved intermediate image.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명 한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible, even if shown on different drawings. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the following will describe a preferred embodiment of the present invention, but the technical idea of the present invention is not limited thereto and may be variously modified and modified by those skilled in the art.

먼저, 본 발명의 바람직한 실시예에 따른 깊이맵 추정 장치 및 깊이맵 추정 방법에 대해 설명한다.First, a depth map estimation apparatus and a depth map estimation method according to a preferred embodiment of the present invention will be described.

도 1은 본 발명의 바람직한 실시예에 따른 깊이맵 추정 장치의 블록도이며, 도 6은 본 발명의 바람직한 실시예에 따른 깊이맵 추정 방법의 흐름도이다. 1 is a block diagram of a depth map estimation apparatus according to a preferred embodiment of the present invention, Figure 6 is a flowchart of a depth map estimation method according to a preferred embodiment of the present invention.

본 발명의 바람직한 실시예에 따른 깊이맵 추정 장치는, 도 1을 참조하면, 다시점 영상 저장부(10), 세그멘트 설정부(20), 3차원 워핑부(30), 초기 깊이값 탐색부(40), 및 깊이값 정제부(50)를 포함한다. Referring to FIG. 1, a depth map estimation apparatus according to an exemplary embodiment of the present invention may include a multiview image storage unit 10, a segment setting unit 20, a three-dimensional warping unit 30, and an initial depth value search unit ( 40 and a depth value refiner 50.

또한, 본 발명의 바람직한 실시예에 따른 깊이맵 추정 방법은, 도 5를 참조하면, 다시점 비디오 카메라를 통해 입력된 다시점 영상을 저장하는 단계(S10), 10단계를 통해 저장된 다시점 영상 중 깊이맵을 추정하고자 하는 대상 영상에서 인접 화소들끼리의 루미넌스(luminance) 차이가 임계값 이하인 화소들끼리 세그멘트(segment)를 설정하는 단계(S20), 20단계를 통해 설정된 각 세그멘트에 대하여 대상 영상에 인접한 참조 영상의 시점으로 3차원 워핑(warping)을 수행하여, 워핑 된 대상 영상을 얻는 단계(S30), 참조 영상을 기준으로 상기 워핑된 대상 영상의 깊이값을 추정하되, 세그멘트별로 하나의 깊이값을 추정하는 단계(S40), 및 40단계를 통해 산출된 깊이값을 정제하되, 20단계를 통해 설정된 세그먼트를 단위로 하는 신뢰확산(Belief Propagation)방법을 이용하는 단계(S50)를 포함하여 이루어진다. 본 발명의 바람직한 실시예에 따른 깊이맵 추정 장치에 대한 설명에서 깊이맵 추정 방법이 충분히 설명될 것이므로, 이하에서는 깊이맵 추정 장치에 대해서만 설명하기로 한다.Also, in the depth map estimation method according to the preferred embodiment of the present invention, referring to FIG. 5, a multiview image stored through a multiview video camera (S10) is stored in step 10. In the target image for which the depth map is to be estimated, a segment is set between pixels whose luminance difference between adjacent pixels is less than or equal to a threshold value (S20). 3D warping to a viewpoint of an adjacent reference image to obtain a warped target image (S30), estimating a depth value of the warped target image based on a reference image, but one depth value for each segment In step (S40) and refine the depth value calculated in step 40, but using a confidence propagation (Belief Propagation) method in units of segments set in step 20 It comprises a (S50). Since the depth map estimation method will be fully described in the description of the depth map estimation apparatus according to the preferred embodiment of the present invention, only the depth map estimation apparatus will be described below.

다시점 영상 저장부(10)는 다시점 비디오 카메라를 통해 입력된 다시점 영상을 저장하는 역할을 수행한다. 다시점 영상 저장부(10)에는 시점 방향으로 최소한 비디오 카메라의 개수만큼의 영상이 저장되고, 이러한 각 시점에 대하여 시간 방향으로 연속적인 영상이 저장되어 있다.The multiview image storage unit 10 stores a multiview image input through a multiview video camera. The multi-view image storage unit 10 stores at least as many images as the number of video cameras in the view direction, and stores consecutive images in the time direction for each of these views.

세그멘트 설정부(20)는 다시점 영상 저장부(10)에 저장된 다시점 영상 중 깊이맵을 추정하고자 하는 영상(이하, "대상 영상")에서 인접 화소들끼리의 루미넌스(luminance) 또는 크로미넌스(chrominance) 차이가 임계값 이하인 화소들끼리 세그멘트(segment)를 설정하는 역할을 수행한다. 즉, 세그멘트 설정부(20)는 대상 영상 내에서 유사한 휘도 또는 색상 정보를 가지는 화소들끼리 묶어 영상을 세그멘트들로 분할한다. 이때, 분할된 세그멘트 내부에서는 깊이값이 미세하게 변화하며, 깊이값의 불연속점은 세그멘트의 경계에서 발생한다고 가정한다. 이러한 가정을 만족시키기 위해 세그멘트는 가능한 크기가 작도록 세분화되는 것이 바람직하며, 이를 위해 임계값을 작게 잡는 것이 바람직하다. 임계값이 커지면 유사한 루미넌스의 범위가 커지므로, 세그멘트의 크기가 증가하게 되어 세그멘트 내에 깊이값의 불연속점이 포함될 확률이 높아지는 문제점이 발생할 수 있다. 예컨대, 임계값은 0으로 잡을 수 있다. 세그멘트 설정부(20)에 의해 비슷한 화소들끼리 세그멘트로 분할된 영상의 예가 도 2에 도시되어 있다.The segment setting unit 20 performs luminance or chrominance between adjacent pixels in an image (hereinafter, referred to as a “target image”) to estimate a depth map among multiview images stored in the multiview image storage unit 10. (chrominance) serves to set segments between pixels whose difference is less than or equal to a threshold. That is, the segment setting unit 20 divides the image into segments by grouping pixels having similar luminance or color information in the target image. At this time, it is assumed that the depth value changes slightly inside the segment, and the discontinuity point of the depth value is generated at the boundary of the segment. In order to satisfy this assumption, the segment is preferably subdivided as small as possible, and for this purpose, it is desirable to make the threshold small. As the threshold increases, the range of similar luminance increases, which may increase the size of the segment, thereby increasing the probability of including the discontinuity point of the depth value in the segment. For example, the threshold can be set to zero. An example of an image in which similar pixels are divided into segments by the segment setting unit 20 is illustrated in FIG. 2.

3차원 워핑부(30)는 세그멘트 설정부(20)를 통해 설정된 각 세그멘트에 대하여 대상 영상에 인접한 참조 영상의 시점으로 3차원 워핑(warping)을 수행하여, "워핑된 대상 영상"을 얻는 역할을 수행한다. 기존의 스테레오 정합 알고리즘은 변이를 구하기 위해 주변 영상에서 수평 방향으로만 탐색을 하기 때문에 병렬 카메라 구성에서 얻은 영상 혹은 교정(rectification) 과정을 거친 영상만을 입력으로 가질 수 있으므로, 원호 카메라 구성 등 다양한 카메라 구성을 갖는 다시점 영상에 대한 깊이맵을 추정하는 데에는 한계가 존재한다. 이러한 문제점을 해결하기 위해 3차원 워핑부(30)는 깊이맵을 구하고자 하는 시점에서의 대상 영상 중 특정 세그멘트를 3차원 워핑을 통하여 주변 영상으로 투영(projection)하여 워핑된 대상 영상을 생성한다. 따라서, 3차원 워핑부(30)는 카메라 구성과 독립적으로 깊이맵을 추정할 수 있도록 하여 상기에서 언급한 바와 같은 카메라 구성에 구애되지 않도록 한다. 3차원 워핑부(30)에 의해 수행되는 3차원 워핑 과정 및 그에 따라 생성된 워핑된 대상 영상과 참조 영상을 이용한 깊이값 탐색 방법이 도 3에 도시되어 있다. 도 3에서 좌측의 속이 찬 노란색 영역은 깊이맵을 구하고자 하는 대상 영상의 특정 세그멘트이고, 우측의 속이 찬 노란색 영역은 참조 영상의 대응되는 세그멘트이며, 우측의 속이 빈 노란색 영역은 워핑된 대상 영상의 특정 세그멘트에 해당한다.The 3D warping unit 30 performs a 3D warping on each segment set by the segment setting unit 20 to the viewpoint of the reference image adjacent to the target image to obtain a “warped target image”. Perform. The conventional stereo matching algorithm searches only the horizontal direction from the surrounding images to find the variation, so only the images obtained from the parallel camera configuration or the processed images can be input as inputs. There is a limit in estimating the depth map for a multiview image with. In order to solve this problem, the 3D warping unit 30 generates a warped target image by projecting a specific segment of the target image at the time to obtain the depth map to the surrounding image through 3D warping. Therefore, the three-dimensional warping unit 30 can estimate the depth map independently of the camera configuration so as not to be bound by the camera configuration as mentioned above. 3 illustrates a 3D warping process performed by the 3D warping unit 30 and a depth value search method using the warped target image and the reference image generated accordingly. In FIG. 3, the solid yellow area on the left is a specific segment of the target image for which the depth map is to be obtained, the solid yellow area on the right is a corresponding segment of the reference image, and the hollow yellow area on the right is a warped target image. Corresponds to a specific segment.

초기 깊이값 탐색부(40)는 상기 참조 영상을 기준으로 상기 워핑된 대상 영상의 깊이값을 추정하되, 상기 세그멘트별로 하나의 깊이값을 탐색하는 역할을 수행한다. 다시점 영상은 스테레오 정합 테스트 영상에 비해 상대적으로 크고 데이터량이 많으므로 기존의 스테레오 정합 알고리즘과 같이 화소 단위로 변이값을 탐색하는 경우 많은 오차를 포함하게 될 뿐만 아니라 복잡도도 증가하게 된다. 따라서, 초기 깊이값 탐색부(40)는 화소 단위 대신 세그멘트 단위로 깊이값을 탐색한다. The initial depth value searcher 40 estimates a depth value of the warped target image based on the reference image, and searches for one depth value for each segment. Since multi-view images are relatively large and have a large amount of data compared to stereo matching test images, when searching for the variance value by pixel as in the conventional stereo matching algorithm, not only the error but also the complexity increases. Thus, the initial depth value searcher 40 searches for the depth value in segments instead of pixels.

참조 영상 세그멘트에 대한 대상 영상 세그멘트의 깊이값을 탐색하기 위해서는 정합 함수를 필요로 한다. 일반적으로 사용되는 정합 함수로는 SD(Squared intensity Difference)와 AD(Absolute intensity Difference) 등이 있다. 그러나, 이러한 일반적인 정합 함수들은 카메라간 색상의 불일치에 민감하다는 단점이 존재한다. 따라서, 초기 깊이값 탐색부(40)에서는 AD 함수에 경사도 맵(gradient map)을 이용한 함수를 추가한 자체 적응 함수(Self Adaptation Function)를 이용하여 초기 깊이값을 탐색한다. 자체 적응 함수는 아래 수학식 1로 주어진다.In order to search the depth value of the target image segment with respect to the reference image segment, a matching function is required. Commonly used matching functions include Squared Intensity Difference (SD) and Absolute Intensity Difference (AD). However, there is a drawback that these general matching functions are sensitive to color mismatch between cameras. Therefore, the initial depth value searcher 40 searches for the initial depth value by using a Self Adaptation Function in which a function using a gradient map is added to the AD function. The self-adaptive function is given by Equation 1 below.

Figure 112008051224578-PAT00003
Figure 112008051224578-PAT00003

여기서, ω는 0보다 크고 1보다 작은 가중치, x, y는 상기 대상 영상의 세그먼트 내 화소의 위치, d는 변위, CMAD는 각 측정 변위에 따른 세그먼트의 루미넌스 차이값의 평균(Mean Absolute Difference), CMGRAD는 각 측정 변위에 따른 세그먼트 의 그레디언트 차이값의 평균을 의미한다.Where ω is a weight greater than 0 and less than 1, x and y are positions of pixels in a segment of the target image, d is displacement, and C MAD is an average of luminance difference values of segments according to each measurement displacement (Mean Absolute Difference). , C MGRAD means the average of the gradient difference of the segment according to each measured displacement.

또한, CMAD는 기존의 AD 함수로서 아래 수학식 2와 같이 주어진다.In addition, C MAD is a conventional AD function is given by Equation 2 below.

Figure 112008051224578-PAT00004
Figure 112008051224578-PAT00004

또한, CMGRAD는 네 방향을 고려한 경사도 맵에 대한 함수로서 아래 수학식 3과 같이 주어진다.In addition, C MGRAD is a function of the gradient map considering four directions is given by Equation 3 below.

Figure 112008051224578-PAT00005
Figure 112008051224578-PAT00005

여기서, M은 세그먼트 내의 화소의 개수, Sk는 해당 세그먼트, I1(x, y)는 상기 대상 영상에서 (x, y)위치에 존재하는 화소의 루미넌스값, I2(x', y')는 상기 참조 영상에서 (x', y')위치에 존재하는 화소의 루미넌스값, ∇x, ∇y, ∇-x, ∇-y는 각각 +x방향, +y방향, -x방향, -y방향의 경사도 맵을 의미한다.Here, M is the number of pixels in the segment, S k is the corresponding segment, I 1 (x, y) is the luminance value of the pixel at the (x, y) position in the target image, I 2 (x ', y' ) Is the luminance value of the pixel at the position (x ', y') in the reference image, ∇ x , ∇ y , ∇ -x , ∇ -y are + x direction, + y direction, -x direction,- It means the slope map in the y direction.

본 발명의 바람직한 실시예에 따른 자체 적응 함수는 카메라간 색상의 불일치와 같은 외부 요인에 영향을 받지 않도록 하기 위해 +x방향과 +y방향의 경사도 맵을 사용한 것을 +x방향, +y방향, -x방향, 및 -y방향으로 확장하여 4방향 모두에 대한 경사도 맵을 사용함으로써 경사도 맵의 강인성을 높인다. The self-adaptive function according to the preferred embodiment of the present invention uses the gradient maps in the + x direction and the + y direction so as not to be influenced by external factors such as color mismatch between cameras. The rigidity of the gradient map is enhanced by using the gradient map for all four directions extending in the x direction and the -y direction.

또한, 본 발명의 바람직한 실시예에 따른 자체 적응 함수는 다음의 사항이 추가로 고려될 수 있다.In addition, the self-adaptation function according to the preferred embodiment of the present invention may further be considered.

① MGRAD에 가중치가 부여된 정합함수① Matching function weighted to MGRAD

다시점 영상은 여러 대의 카메라로 촬영된 영상이므로 시점 간의 색상 차이가 존재하게 된다. 이러한 시점간의 색상차를 정합함수에 고려하기 위해 MGRAD의 비율을 조절하는 가중치 ω가 추가된다.Since the multi-view image is captured by multiple cameras, there is a color difference between the viewpoints. In order to consider the color difference between these viewpoints in the matching function, a weight ω to adjust the ratio of MGRAD is added.

C(x, y, d) = CMAD(x, y, d) + ω×CMGRAD(x, y, d)C (x, y, d) = C MAD (x, y, d) + ω x C MGRAD (x, y, d)

이때, 가중치 ω는 비교하려는 두 시점의 평균 루미넌스 값의 차이로 인해 결정된다.In this case, the weight ω is determined due to the difference between the average luminance values of the two time points to be compared.

Figure 112008051224578-PAT00006
Figure 112008051224578-PAT00006

DCC는 중간시점의 평균 루미넌스 값이고, DCref는 비교할 시점의 평균 루미넌스 값이다.DC C is the mean luminance value at the midpoint, and DC ref is the average luminance value at the time of comparison.

이와 같이 정합함수를 설정함으로써 기존의 MAD 함수에 경사도 맵을 이용하는 MGRAD를 추가하되, MGRAD의 비중을 결정할 가중치를 자동으로 설정한다.By setting the matching function as described above, the MGRAD using the gradient map is added to the existing MAD function, but the weight to determine the specific gravity of the MGRAD is automatically set.

② 시간적 상관도를 고려하는 정합함수② Matching function considering temporal correlation

기존의 깊이맵 추정 기법들은 영상 매 프레임에 대해 독립적으로 깊이맵을 탐색하기 때문에 깊이맵의 시간적 일관성이 떨어지고, 또한 정제 과정을 거친다고 하더라도 여전히 깊이값 오차가 발생하게 된다.Existing depth map estimation methods search depth maps independently for each frame of the image, and thus the temporal consistency of the depth maps is inferior, and even if the refinement process is performed, depth error still occurs.

본 발명에서는 초기 깊이맵을 탐색하는 과정에서 깊이맵의 시간적인 상관도 및 깊이값의 신뢰도를 향상시키기 위해, 자체적응 함수에 이전 프레임에서 탐색한 깊이값을 고려하는 가중치 함수 Ctemp(x, y, d)를 추가한다.In the present invention, in order to improve the temporal correlation and the reliability of the depth value in the process of searching the initial depth map, the weighting function C temp (x, y) that considers the depth value searched in the previous frame to the self-adaptive function. , add d).

C(x, y, d) = CMAD(x, y, d) + ω×CMGRAD(x, y, d) + Ctemp(x, y, d)C (x, y, d) = C MAD (x, y, d) + ω x C MGRAD (x, y, d) + C temp (x, y, d)

여기서,

Figure 112008051224578-PAT00007
here,
Figure 112008051224578-PAT00007

λ는 가중치 함수의 기울기, Dprev(x, y)는 이전 프레임의 깊이값λ is the slope of the weight function, D prev (x, y) is the depth value of the previous frame

이와 같이 인접한 프레임간의 상응 화소에 대한 깊이값을 고려하여 가중치를 조절하게 된다.As such, the weight is adjusted in consideration of the depth value of the corresponding pixel between adjacent frames.

또한, 초기 깊이값 탐색부(40)는 주변 참조 영상으로 좌영상과 우영상 모두를 사용할 수 있다. 즉, 초기 깊이값 탐색부(40)는 하나의 세그멘트에 대한 깊이값 탐색 과정에서 좌영상과 우영상 모두에 대하여 정합 함수를 적용하여 보다 정확한 깊이값을 얻을 수 있다. 기존의 스테레오 정합 알고리즘과 같이 한쪽 영상만을 사용하여 깊이값을 탐색하는 경우, 특정 부분이 가려지는 폐색 영역(occlusion)이 발생할 수 있는 문제점이 있다. 그러나, 초기 깊이값 탐색부(40)는 대상 영상에서 존재하는 객체가 좌영상에서 다른 객체에 의해 가려지는 경우, 좌영상 대신 우영상을 이용함으로써 폐색 영역의 발생을 방지하여 정확한 깊이값을 탐색할 수 있도록 한다.In addition, the initial depth value searcher 40 may use both the left image and the right image as the peripheral reference image. That is, the initial depth value searcher 40 may obtain a more accurate depth value by applying a matching function to both the left image and the right image during the depth value search process for one segment. When searching for a depth value using only one image, as in the conventional stereo matching algorithm, an occlusion may occur in which a specific part is covered. However, when the object existing in the target image is covered by another object in the left image, the initial depth search unit 40 may search for the correct depth value by preventing the occurrence of the occlusion area by using the right image instead of the left image. To help.

깊이값 정제부(50)는 초기 깊이값 탐색부(40)를 통해 산출된 초기 깊이값을 정제하여 오차를 줄임으로써 최종 깊이값을 얻는 역할을 수행한다. 초기 깊이값 탐색부(40)를 통해 얻어진 초기 깊이값은 경우에 따라 오차를 가질 수 있다. 예를 들어, 영상 내부의 배경에 대한 깊이값을 탐색하는 경우, 배경 내에 존재하는 화소들의 색상 차이는 그리 크지 않은 것이 일반적이므로, 잘못된 깊이값을 탐색하였음에도 불구하고 최소의 오차를 발생시킴으로써 이를 정확한 깊이값으로 인식하게 되는 상황이 발생할 수 있다. 이러한 문제점을 해결하기 위한 방법으로 그래프 컷(graph cut), 동적 프로그래밍(dynamic programming)과 같은 정제(refinement) 방법들이 존재하나, 성능 면에서 다소 떨어진다는 문제점이 있다. 깊이값 정제부(50)에서는 세그멘트 단위의 신뢰확산(Belief Propagation) 방법을 이용하여 초기 깊이맵의 오차(특히, 배경에서의 오차)를 줄이게 된다.The depth value refiner 50 performs a role of obtaining a final depth value by reducing an error by refining the initial depth value calculated by the initial depth value searcher 40. The initial depth value obtained through the initial depth value searcher 40 may have an error in some cases. For example, when searching for a depth value of a background inside an image, the color difference between pixels existing in the background is generally not so large. Situations that can be perceived as values can occur. As a method for solving this problem, there are refinement methods such as graph cut and dynamic programming, but there is a problem in that the performance is slightly reduced. The depth refiner 50 reduces an error (especially, an error in the background) of the initial depth map by using a trust propagation method in units of segments.

도 4a는 화소 단위의 신뢰확산 방법을 도시한 개념도이다. 도 4a의 화소 단위 신뢰확산 방법은 최근 다른 정제 방법에 비해 우수한 성능을 가진 것으로 평가받고 있으며, 상하좌우의 인접 화소들에게 메시지를 보내어 주변 화소들의 깊이값을 고려하도록 한다(P. F. Felzenszwalb, D. P. Huttenlocher, "Efficient Belief Propagation for Early Vision"). 즉, 현재 화소에서 주변 화소로 메시지를 보낼 때(굵은 화살표), 주변 화소에서 현재 화소로의 메시지(점선 화살표)들을 이용한다. 화소 단위의 신뢰확산 방법은 특정 화소에 라벨(label)을 할당하는 비용인 데 이터 비용(data cost)과, 두 이웃한 화소에 라벨을 할당하는 비용인 불연속 비용(discontinuity cost)이 고려된 에너지 함수를 도입하고, 격자 그래프(Grid Graph)를 이용하여 메시지의 갱신을 반복한다.4A is a conceptual diagram illustrating a method of spreading confidence in units of pixels. The pixel-by-pixel confidence diffusion method of FIG. 4A has recently been evaluated as having superior performance compared to other refinement methods, and sends a message to adjacent pixels on the top, bottom, left, and right sides to consider the depth value of neighboring pixels (PF Felzenszwalb, DP Huttenlocher, "Efficient Belief Propagation for Early Vision"). That is, when sending a message from the current pixel to the surrounding pixel (bold arrow), the message from the neighboring pixel to the current pixel (dashed arrow) is used. The pixel-based confidence diffusion method is an energy function that considers data cost, which is the cost of assigning a label to a specific pixel, and discontinuity cost, which is the cost of assigning a label to two neighboring pixels. Is introduced and the message update is repeated using the Grid Graph.

도 4b는 세그멘트 단위의 신뢰확산 방법을 도시한 개념도이다.4B is a conceptual diagram illustrating a method of spreading confidence in segments.

깊이값 정제부(50)에서 수행하는 세그멘트 단위의 신뢰확산 방법은 상기에서 언급한 화소 단위의 신뢰확산 방법을 기반으로 하되, 메시지를 보내는 단위가 화소 대신 세그멘트라는 차이가 있다. 깊이값 정제부(50)는 현재 세그멘트에서 주변 세그멘트로 메시지를 보낼 때(굵은 화살표), 주변 세그멘트에서 현재 세그멘트로의 메시지(점선 화살표)들을 이용한다. 즉, 초기 깊이값 탐색부(40)를 통하여 세그멘트 단위로 초기 깊이값을 추정하였으므로, 이러한 초기 깊이값을 정제하기 위해 세그멘트 단위의 신뢰확산 방법을 사용한다. 깊이값 정제부(50)는 세그멘트 단위의 신뢰확산 방법을 적용하여 초기 깊이값을 정제함으로써 오차를 줄이게 된다.The confidence diffusion method of the segment unit performed by the depth value refiner 50 is based on the above-described confidence diffusion method of the pixel unit, but there is a difference that a unit for sending a message is a segment instead of a pixel. When the depth value refiner 50 sends a message from the current segment to the surrounding segment (bold arrow), the depth refiner 50 uses the message (dashed arrow) from the surrounding segment to the current segment. That is, since the initial depth value is estimated in the segment unit through the initial depth value search unit 40, in order to refine the initial depth value, a confidence diffusion method in the segment unit is used. The depth value refiner 50 reduces the error by applying the reliability diffusion method in the unit of segment to refine the initial depth value.

도 5a에 초기 깊이맵의 일례를, 도 5b에 최종 깊이맵의 일례를 도시하였다. 도 5a와 도 5b를 참조하면 둘 다 종래의 깊이맵 추정 기법으로 획득한 깊이맵에 비해 객체의 경계가 비교적 명확함을 알 수 있으며, 초기 깊이맵에 비해 최종 깊이맵은 정제 과정을 통해서 오차(특히, 배경부분)가 상당 부분 줄어든 것을 알 수 있다. An example of an initial depth map is shown in FIG. 5A, and an example of a final depth map is shown in FIG. 5B. Referring to FIGS. 5A and 5B, it can be seen that the boundary of the object is relatively clear compared to the depth map obtained by the conventional depth map estimation technique. Compared to the initial depth map, the final depth map has an error (especially through a refinement process). , The background part) is significantly reduced.

다음으로, 본 발명의 바람직한 실시예에 따른 중간 영상 생성 방법에 대해 설명한다. Next, an intermediate image generating method according to a preferred embodiment of the present invention will be described.

본 발명의 바람직한 실시예에 따른 중간 영상 생성 방법은 깊이 영상 기반 렌더링(Depth Image-Based Rendering : DIBR) 기법에 의해 중간 시점의 영상을 생성한다. DIBR 기법은 텍스쳐(texture) 영상과 텍스쳐 영상의 각 화소에 대응하는 거리 정보로 이루어진 깊이 영상을 사용하여 임의의 시점에서의 영상을 렌더링하는 기법이다. 직교 좌표계를 이용하여 색상 및 깊이 영상을 3차원 메쉬(mesh)로 장면 모델링한 후에, 가상 카메라를 이용하여 임의의 시점에서의 영상을 렌더링한다. 이때, 사용되는 깊이 영상은 깊이 카메라를 이용하여 직접적으로 획득할 수도 있으나, 상술한 방법으로 생성된 깊이 영상을 이용하는 것이 바람직하다. 여기서, 중간 영상 생성 방법을 특별히 한정하는 것은 아니며, 다시점 비디오 카메라로부터 획득한 다시점 영상과 상기 방법에 의해 획득한 깊이맵을 통해 일반적인 DIBR 기법을 이용하여 중간 영상을 생성함으로써 보다 향상된 화질의 중간 영상을 얻을 수 있다.In the intermediate image generating method according to the preferred embodiment of the present invention, an intermediate view image is generated by a depth image-based rendering (DIBR) technique. The DIBR technique is a technique of rendering an image at an arbitrary time point using a depth image composed of a texture image and distance information corresponding to each pixel of the texture image. After scene and modeling the color and depth image in a three-dimensional mesh (mesh) using a Cartesian coordinate system, a virtual camera is used to render the image at any point in time. In this case, the depth image used may be directly obtained by using a depth camera, but it is preferable to use the depth image generated by the above-described method. Here, the intermediate image generation method is not particularly limited, and the intermediate image is improved by generating the intermediate image using a general DIBR technique through the multiview image obtained from the multiview video camera and the depth map obtained by the method. You can get a video.

또한, 깊이 영상과 텍스쳐 영상으로부터 다시점 영상을 생성하기 위해 여러 가지 전처리 방법이 제안된 바 있다. 일례로, Zhang은 비대칭 가우시안 필터를 깊이 영상 전체에 적용한 다음, 3차원 워핑과 홀 채움(hole-filling)을 차례로 적용하여 비폐색 영역을 제거함으로써 비폐색 영역과 대칭 가우시안 필터에 의해 발생하는 기하학적 접음을 줄이고 중간 영상의 화질을 향상시켰다. In addition, various preprocessing methods have been proposed to generate a multiview image from a depth image and a texture image. For example, Zhang applies an asymmetric Gaussian filter to the entire depth image, then applies three-dimensional warping and hole-filling to remove the non-occluded regions, thereby reducing the geometric folds caused by the non-occluded and symmetric Gaussian filters. Improved the quality of intermediate images.

또한, DIBR 기법과 더불어 3차원 메쉬 구조를 이용하는 계층적 자연 텍스쳐 메쉬 스트림(Hierarchical Natural-textured Mesh Stream : HNTMS)이 제안된 바 있으며, 이에 의하면 깊이 영상과 텍스쳐 영상을 입력으로 사용하여 3차원 실사 동영 상을 순차적으로 렌더링한다. 본 발명의 바람직한 실시예에 따른 중간 영상 생성 방법에서 이러한 기법들을 선택적으로 적용할 수 있다.In addition, a hierarchical natural-textured mesh stream (HNTMS) using a three-dimensional mesh structure has been proposed in addition to the DIBR technique. Render the images sequentially. In the intermediate image generating method according to the preferred embodiment of the present invention, these techniques may be selectively applied.

다음으로, 본 발명의 바람직한 실시예에 따른 인코딩 방법에 대해 설명한다. Next, an encoding method according to a preferred embodiment of the present invention will be described.

도 7은 본 발명의 바람직한 실시예에 따른 인코딩 방법의 흐름도이다.7 is a flowchart of an encoding method according to a preferred embodiment of the present invention.

본 발명의 바람직한 실시예에 따른 인코딩 방법은, 도 6을 참조하면, 대상 영상 입력 단계(S100), 중간 영상을 참조 영상 리스트에 추가하는 단계(S200), 움직임 벡터를 산출하는 단계(S300), 참조 영상에 대한 대상 영상의 차분을 계산하는 단계(S400), DCT 처리 단계(S500), 양자화 단계(S600), 및 엔트로피 부호화 단계(S700)를 포함하여 이루어진다. In the encoding method according to the preferred embodiment of the present invention, referring to FIG. 6, a target image input step (S100), an intermediate image is added to a reference image list (S200), a motion vector is calculated (S300), Computing the difference of the target image with respect to the reference image (S400), DCT processing step (S500), quantization step (S600), and entropy encoding step (S700).

100 단계는 다시점 비디오의 부호화할 대상 영상을 입력받는 단계이다. 복수의 비디오 카메라로부터 전송선을 통해 전달받은 비디오 피드는 캡쳐 버퍼(capture buffer)가 이를 캡쳐한 후 일시적으로 저장한다. In step 100, a target image to be encoded of a multiview video is received. Video feeds received through transmission lines from multiple video cameras are temporarily stored by the capture buffer after capturing them.

200 단계는 중간 영상을 생성하고, 이를 참조 영상 리스트에 추가하는 단계이다. 이때, 중간 영상의 생성은 상술한 본 발명의 바람직한 실시예에 따른 중간 영상 합성 방법에 의해 이루어지는 것이 바람직하다. 다시점 비디오의 부호화 효율은 부호화하고자 하는 대상 영상과 유사한 참조 영상이 존재할 경우, 그리고 보다 향상된 화질의 참조 영상이 존재할 경우에 보다 우수해지기 때문이다. In step 200, an intermediate image is generated and added to the reference image list. In this case, the generation of the intermediate image is preferably performed by the intermediate image synthesis method according to the above-described preferred embodiment of the present invention. This is because the encoding efficiency of the multiview video is better when there is a reference picture similar to the target picture to be encoded and when there is a reference picture with a higher quality.

다시점 비디오의 부호화에 중간 영상을 이용하는 이유는 다음과 같다. 예를 들어, B화면을 부호화할 때 좌우 시점의 화면이 이미 부호화 되었다면 이들 영상을 참조하여 중간 시점의 영상을 생성할 수 있다. 이렇게 생성된 중간 영상은 부호화할 대상 영상과 시점이 동일하므로 매우 상관도가 높은 영상이다. 따라서, 중간 영상을 부호화 과정의 참조 영상으로 이용한다면 대상 영상과의 높은 상관도로 인해 부호화 효율을 향상시킬 수 있다. The reason for using an intermediate image for encoding a multiview video is as follows. For example, when the B screen is encoded, if the screens of the left and right views are already encoded, the images of the intermediate views may be generated with reference to these images. The generated intermediate image is a highly correlated image because the viewpoint is the same as the target image to be encoded. Therefore, when the intermediate image is used as a reference image of the encoding process, encoding efficiency can be improved due to a high correlation with the target image.

300 단계는 참조 영상 리스트의 참조 영상을 바탕으로 대상 영상의 움직임 벡터를 산출하는 단계이다. 이때, 대상 영상은 100 단계에서 입력된 영상이고, 참조 영상은 깊이맵으로부터 생성된 중간 영상을 포함하여 참조 영상 리스트에 저장되어 있는 영상이다. 이와 같은 참조 영상을 이용하여 대상 영상의 움직임을 예상하고, 대상 영상의 해당 블록에 대한 움직임 벡터를 산출한다. In operation 300, a motion vector of the target image is calculated based on the reference image of the reference image list. In this case, the target image is an image input in step 100, and the reference image is an image stored in the reference image list including the intermediate image generated from the depth map. The motion of the target image is estimated using the reference image, and a motion vector of a corresponding block of the target image is calculated.

400 단계는 300 단계를 통해 산출된 움직임 벡터만큼 움직임 보상된 상기 참조 영상에 대한 상기 대상 영상의 차이값을 구하는 단계이다. 400 단계에서는 움직임 벡터를 이용하여 참조 영상에 대하여 움직임 보상을 수행함으로써 예측 영상을 구성하고, 대상 영상과 예측 영상의 차이값 행렬을 산출한다. In operation 400, a difference value of the target image with respect to the reference image that is motion compensated by the motion vector calculated in operation 300 is obtained. In operation 400, a prediction image is formed by performing motion compensation on a reference image using a motion vector, and a difference matrix between the target image and the prediction image is calculated.

500 단계는 차이값 행렬을 이산 코사인 변환하여 DCT(Discrete Cosine Transformation) 계수를 얻는 단계이다. Step 500 is a step of obtaining discrete cosine transform (DCT) coefficients by discrete cosine transforming the difference matrix.

600 단계는 500 단계를 통해 얻은 DCT 계수를 양자화한다.Step 600 quantizes the DCT coefficients obtained through step 500.

700 단계는 600 단계를 통해 양자화된 DCT 계수를 CAVLC(Context Adaptive Variable Length Codes) 또는 CABAC(Context Adaptive Binary Arithmetic Coding) 등의 방법으로 엔트로피 코딩을 수행하는 단계이다. 엔트로피 코딩된 피드는 버퍼 등을 통해 외부의 네트워크로 전송된다.In step 700, entropy coding is performed on a quantized DCT coefficient by using a method such as Context Adaptive Variable Length Codes (CAVLC) or Context Adaptive Binary Arithmetic Coding (CABAC). Entropy coded feeds are sent to the external network via a buffer or the like.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions may be made by those skilled in the art without departing from the essential characteristics of the present invention. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by the embodiments and the accompanying drawings. . The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

본 발명은 세그멘트 단위로 초기 깊이값을 산출하고, 신뢰확산 방법을 적용하여 이를 세그멘트 단위로 정제하여 최종 깊이맵을 산출하며 이를 이용하여 향상된 화질의 중간 영상을 얻음으로써 입체 TV, 자유 시점 TV, 감시 카메라 영상 등에 널리 이용될 수 있다.The present invention calculates the initial depth value in the unit of segment, refines it by the segment by applying the reliability diffusion method, calculates the final depth map, and obtains the intermediate image of the improved image quality by using the stereoscopic TV, free viewpoint TV, surveillance It can be widely used for camera images.

도 1은 본 발명의 바람직한 실시예에 따른 깊이맵 추정 장치의 블록도, 1 is a block diagram of a depth map estimation apparatus according to an embodiment of the present invention;

도 2는 도 1 중 세그멘트 설정부를 통해 영역 분할된 일례를 도시한 도면, FIG. 2 is a diagram illustrating an example of region division through a segment setting unit of FIG. 1; FIG.

도 3은 도 1 중 3차원 워핑부에서 수행되는 3차원 워핑의 개념도,3 is a conceptual diagram of three-dimensional warping performed in the three-dimensional warping unit of FIG.

도 4a는 종래의 화소 단위 신뢰확산 방법의 개념도,4A is a conceptual diagram of a conventional pixel-by-pixel reliability diffusion method;

도 4b는 도 1 중 깊이값 정제부에서 수행되는 세그멘트 단위의 신뢰확산 방법의 개념도,4B is a conceptual diagram of a method of spreading reliability in units of segments performed by the depth refiner of FIG. 1;

도 5a 및 도 5b는 각각 초기 깊이맵과 최종 깊이맵의 일례를 도시한 도면,5A and 5B show examples of an initial depth map and a final depth map, respectively;

도 6은 본 발명의 바람직한 실시예에 따른 깊이맵 추정 방법의 흐름도,6 is a flowchart of a depth map estimation method according to a preferred embodiment of the present invention;

도 7은 본 발명의 바람직한 실시예에 따른 인코딩 방법의 흐름도이다.7 is a flowchart of an encoding method according to a preferred embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

10 - 다시점 영상 저장부 20 - 세그멘트 설정부10-Multiview image storage unit 20-Segment setting unit

30 - 3차원 워핑부 40 - 초기 깊이값 탐색부30-3D warping unit 40-Initial depth search unit

50 - 깊이값 정제부50-Depth Refiner

Claims (2)

(a) 화소의 유사도를 기준으로 세그멘트로 영역을 분할하는 단계;(a) dividing the region into segments based on the similarity of the pixels; (b) 3차원 워핑 기법과 확장된 경사도 맵이 반영된 자체 적응 함수를 이용하여 세그멘트 단위의 초기 깊이맵을 얻는 단계; 및(b) obtaining an initial depth map in units of segments by using a three-dimensional warping technique and a self-adaptive function in which an extended gradient map is reflected; And (c) 신뢰확산 방법을 세그멘트 단위로 수행하여 초기 깊이맵을 정제하는 단계(c) purifying the initial depth map by performing a confidence diffusion method in segments; 를 포함하는 것을 특징으로 하는 깊이맵 추정 방법.Depth map estimation method comprising a. 화소의 유사도를 기준으로 세그멘트로 영역을 분할하는 분할부;A divider dividing the region into segments based on the similarity of the pixels; 3차원 워핑 기법과 확장된 경사도 맵이 반영된 자체 적응 함수를 이용하여 세그멘트 단위의 초기 깊이맵을 얻는 획득부; 및An acquisition unit obtaining an initial depth map in units of segments by using a three-dimensional warping technique and a self-adaptive function in which an extended gradient map is reflected; And 신뢰확산 방법을 세그멘트 단위로 수행하여 초기 깊이맵을 정제하는 정제부Refiner that refines initial depth map by performing confidence diffusion method in segment units 를 포함하는 것을 특징으로 하는 깊이맵 추정 장치.Depth map estimation device comprising a.
KR1020080069262A 2007-11-16 2008-07-16 Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same KR20100008677A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020080069262A KR20100008677A (en) 2008-07-16 2008-07-16 Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same
US12/260,986 US8351685B2 (en) 2007-11-16 2008-10-29 Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
JP2008292306A JP2009123219A (en) 2007-11-16 2008-11-14 Device and method for estimating depth map, method for generating intermediate image, and method for encoding multi-view video using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080069262A KR20100008677A (en) 2008-07-16 2008-07-16 Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same

Publications (1)

Publication Number Publication Date
KR20100008677A true KR20100008677A (en) 2010-01-26

Family

ID=41817259

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080069262A KR20100008677A (en) 2007-11-16 2008-07-16 Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same

Country Status (1)

Country Link
KR (1) KR20100008677A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130057586A (en) 2011-11-24 2013-06-03 에스케이플래닛 주식회사 Apparatus and method for generating depth map, stereo-scopic image conversion apparatus and method usig that
WO2013108944A1 (en) * 2012-01-19 2013-07-25 광운대학교 산학협력단 Method for generating intermediate view-point depth image based on disparity increment of stereo depth images
KR101373603B1 (en) * 2012-05-04 2014-03-12 전자부품연구원 3D warping method for hole reduction and image processing apparatus using the same
KR101386651B1 (en) * 2012-09-13 2014-04-17 전자부품연구원 Multi-View video encoding and decoding method and apparatus thereof
US8873573B2 (en) 2011-05-13 2014-10-28 Electronics And Telecommunications Research Institute Transmission scheduling apparatus and method in wireless multi-hop network
KR101491556B1 (en) * 2008-12-02 2015-02-09 삼성전자주식회사 Device and method for depth estimation
US9047681B2 (en) 2011-07-07 2015-06-02 Samsung Electronics Co., Ltd. Depth image conversion apparatus and method
US9378583B2 (en) 2010-07-02 2016-06-28 Samsung Electronics Co., Ltd. Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume
KR20160086802A (en) 2016-07-11 2016-07-20 에스케이플래닛 주식회사 Apparatus and Method for generating Depth Map, stereo-scopic image conversion apparatus and method usig that
KR20160114929A (en) * 2015-03-25 2016-10-06 (주)이더블유비엠 Compensation method and apparatus for depth image based on outline
US9582928B2 (en) 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
CN107105294A (en) * 2012-03-30 2017-08-29 夏普株式会社 Picture coding device, picture decoding apparatus, method for encoding images and picture decoding method
US10257506B2 (en) 2012-12-28 2019-04-09 Samsung Electronics Co., Ltd. Method of obtaining depth information and display apparatus
KR20200070611A (en) 2018-12-10 2020-06-18 (주)테슬라시스템 Formation and Application Method of Virtual Camera Image for Smartphone

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101491556B1 (en) * 2008-12-02 2015-02-09 삼성전자주식회사 Device and method for depth estimation
US9378583B2 (en) 2010-07-02 2016-06-28 Samsung Electronics Co., Ltd. Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume
US9582928B2 (en) 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
US8873573B2 (en) 2011-05-13 2014-10-28 Electronics And Telecommunications Research Institute Transmission scheduling apparatus and method in wireless multi-hop network
US9047681B2 (en) 2011-07-07 2015-06-02 Samsung Electronics Co., Ltd. Depth image conversion apparatus and method
KR20130057586A (en) 2011-11-24 2013-06-03 에스케이플래닛 주식회사 Apparatus and method for generating depth map, stereo-scopic image conversion apparatus and method usig that
WO2013108944A1 (en) * 2012-01-19 2013-07-25 광운대학교 산학협력단 Method for generating intermediate view-point depth image based on disparity increment of stereo depth images
CN107105294A (en) * 2012-03-30 2017-08-29 夏普株式会社 Picture coding device, picture decoding apparatus, method for encoding images and picture decoding method
KR101373603B1 (en) * 2012-05-04 2014-03-12 전자부품연구원 3D warping method for hole reduction and image processing apparatus using the same
KR101386651B1 (en) * 2012-09-13 2014-04-17 전자부품연구원 Multi-View video encoding and decoding method and apparatus thereof
US10257506B2 (en) 2012-12-28 2019-04-09 Samsung Electronics Co., Ltd. Method of obtaining depth information and display apparatus
KR20160114929A (en) * 2015-03-25 2016-10-06 (주)이더블유비엠 Compensation method and apparatus for depth image based on outline
KR20160086802A (en) 2016-07-11 2016-07-20 에스케이플래닛 주식회사 Apparatus and Method for generating Depth Map, stereo-scopic image conversion apparatus and method usig that
KR20200070611A (en) 2018-12-10 2020-06-18 (주)테슬라시스템 Formation and Application Method of Virtual Camera Image for Smartphone

Similar Documents

Publication Publication Date Title
KR100902353B1 (en) Device and Method for estimating death map, Method for making intermediate view and Encoding multi-view using the same
US8351685B2 (en) Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
KR20100008677A (en) Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same
JP6633694B2 (en) Multi-view signal codec
EP2491722B1 (en) Depth map generation techniques for conversion of 2d video data to 3d video data
JP7036599B2 (en) A method of synthesizing a light field with compressed omnidirectional parallax using depth information
US9525858B2 (en) Depth or disparity map upscaling
EP2061005A2 (en) Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
KR20130053452A (en) Calculating disparity for three-dimensional images
JP2014103689A (en) Method and apparatus for correcting errors in three-dimensional images
KR20110134142A (en) Method and apparatus for transforming stereoscopic image by using depth map information
US9451233B2 (en) Methods and arrangements for 3D scene representation
Farid et al. Panorama view with spatiotemporal occlusion compensation for 3D video coding
WO2015056712A1 (en) Moving image encoding method, moving image decoding method, moving image encoding device, moving image decoding device, moving image encoding program, and moving image decoding program
KR20160147448A (en) Depth map coding method using color-mesh-based sampling and depth map reconstruction method using the color and mesh information
Kim et al. Edge-preserving directional regularization technique for disparity estimation of stereoscopic images
Li et al. Joint view filtering for multiview depth map sequences
Kim et al. Efficient disparity vector coding for multiview sequences
Doan et al. Efficient view synthesis based error concealment method for multiview video plus depth
Farid et al. A panoramic 3D video coding with directional depth aided inpainting
Lee et al. Temporally consistent depth map estimation for 3D video generation and coding
Lin et al. Sprite generation for hole filling in depth image-based rendering
Aflaki et al. Unpaired multiview video plus depth compression
KR20050030725A (en) Apparatus and method for converting object-based video data into stereoscopic video
Ozkalayci et al. Multi-view video coding via dense depth estimation

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination