KR100914171B1 - Apparatus and method for depth based image rendering on mobile broadcasting - Google Patents
Apparatus and method for depth based image rendering on mobile broadcasting Download PDFInfo
- Publication number
- KR100914171B1 KR100914171B1 KR1020080018581A KR20080018581A KR100914171B1 KR 100914171 B1 KR100914171 B1 KR 100914171B1 KR 1020080018581 A KR1020080018581 A KR 1020080018581A KR 20080018581 A KR20080018581 A KR 20080018581A KR 100914171 B1 KR100914171 B1 KR 100914171B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth image
- depth
- filter
- gradient
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
Description
본 발명은 휴대 방송에서의 3차원 서비스를 위한 이동 단말기에서의 깊이 영상 기반 렌더링에 관한 것으로, 보다 상세하게는 깊이 영상 기반 렌더링에 있어서, 불연속성 보존 필터와 경사도 방향 기반 적응 평활화 필터를 사용하여 깊이 영상의 왜곡을 감소하는 필터링 방법 및 장치에 관한 것이다.The present invention relates to a depth image based rendering in a mobile terminal for a 3D service in a mobile broadcast. More particularly, in a depth image based rendering, a depth image using a discontinuity preservation filter and a gradient direction based adaptive smoothing filter is provided. A filtering method and apparatus for reducing distortion of a.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2007-S-004-01, 과제명: 무안경 개인형 3D 방송기술개발].The present invention is derived from the research conducted as part of the IT growth engine technology development project of the Ministry of Information and Communication and the Ministry of Information and Telecommunications Research and Development. [Task Management Number: 2007-S-004-01] Development].
3D 입체 영상은 현실 세계인 3차원 세계의 리얼리티를 전달할 수 있는 영상매체이며, 임장감(Presence feeling), 실재감, 자연감, 선명성 등의 장점을 갖고 있다.3D stereoscopic image is an image medium that can convey the reality of the three-dimensional world, which is a real world, and has advantages such as presence feeling, presence, naturalness, and clarity.
3D 입체 영상은 다수의 디스플레이 수단을 사용하여 좌, 우의 양 쪽 눈에 각각 서로 다른 2차원의 영상을 보게 하거나 하나의 입체 영상 디스플레이수단에서 일정 시간 간격으로 서로 다른 2차원의 상을 교차 디스플레이함으로써 하나 이상의 시점을 가지는 다시점 영상을 사용자에게 디스플레이하여 사용자의 뇌가 물체에서 반사되어 나온 두 빛을 정확히 서로 합성 처리해 3차원 영상의 원근감과 실재감을 재생하도록 한다.The 3D stereoscopic image can be viewed by using a plurality of display means to view different two-dimensional images on both eyes of the left and right eyes, or by cross-displaying different two-dimensional images at predetermined time intervals on one stereoscopic image display means. The multi-view image having the above viewpoints is displayed to the user so that the user's brain accurately synthesizes the two lights reflected from the object to reproduce the perspective and reality of the 3D image.
3D 입체 영상을 생성하는 방법에는 양안 영상 2장을 수신하여 3차원 영상을 생성하는 스테레오 정합 (stereo matching) 방법과 영상 1장과 영상을 형성하는 각 각의 픽셀들의 깊이 값을 수신하고, 영상에 깊이 값을 입력하여 서로 다른 2차원의 영상을 생성하는 깊이 영상 기반 렌더링 기법이 있다.The method for generating a 3D stereoscopic image includes a stereo matching method for receiving two binocular images and generating a three-dimensional image, a depth value of one image and each pixel forming the image, There is a depth image based rendering technique that inputs depth values to generate different two-dimensional images.
깊이 영상 기반 렌더링 기법은 스테레오 정합 (stereo matching) 방법과 비교할 때 전송하는 정보량이 적으므로 전송 효율이 크게 증가하고 단말기에서 사용자의 의도에 맞게 3차원 서비스를 이용할 수 있다는 장점이 있어 이동 통신을 사용하는 단말기에서 많이 사용되고 있다. 그러나 휴대 방송은 데이터서비스를 위한 유효 비트율이 매우 낮기 때문에 깊이 영상의 전송 효율을 보다 높이는 것이 필요하다.Depth image-based rendering technique uses less information compared to stereo matching, which greatly increases the transmission efficiency and enables the user to use 3D service according to the user's intention. It is widely used in terminals. However, since portable broadcasting has a very low effective bit rate for data services, it is necessary to improve transmission efficiency of depth images.
일반적으로 깊이 영상의 전처리 방법으로써 평활화를 이용한 방법들이 제시되어 왔으며 가우시안 평활화 필터가 가장 널리 이용되어 오고 있다. 그러나 가우시안 평활화 필터는 깊이 영상의 왜곡으로 인해 생성된 양안 영상에서의 왜곡을 초래함은 물론 입체감이 객체의 경계와 일치감을 형성하지 못해 저하되다는 문제점이 있었다. In general, smoothing methods have been proposed as preprocessing methods for depth images, and Gaussian smoothing filters have been most widely used. However, the Gaussian smoothing filter not only causes distortion in the binocular image generated due to the distortion of the depth image, but also has a problem that the three-dimensional effect is deteriorated because it does not form a sense of conformity with the boundary of the object.
상기 가우시안 평활화 필터의 문제를 해결하기 위해 비대칭 필터가 소개되었 지만 역시 깊이 영상의 왜곡으로 인해 깊이 정보를 제대로 이용하기가 힘들고 가우시안 평활화 필터와 마찬가지로 입체감이 저하되는 문제점이 있었다.In order to solve the problem of the Gaussian smoothing filter, an asymmetric filter has been introduced, but it is also difficult to properly use the depth information due to the distortion of the depth image, and there is a problem that the three-dimensional effect is lowered like the Gaussian smoothing filter.
본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 깊이 영상에 경사도 크기에 의한 불연속성 보존 필터를 적용함으로써, 깊이 영상의 왜곡을 최소화면서 입체감 형성에 큰 영향을 주지 않는 부분들을 평활화하여 전송에 요구되는 비트율을 감소시키는 깊이 영상 기반 렌더링 방법 및 그 장치를 제공한다. 본 발명은 깊이 영상에 경사도 크기에 의한 불연속성 보존 필터를 적용함으로써, 렌더링시 발생하는 홀의 개수를 감소시키는 깊이 영상 기반 렌더링 방법 및 그 장치를 제공한다.The present invention has been made to improve the prior art as described above, by applying a discontinuity preservation filter according to the size of the gradient to the depth image, to minimize the distortion of the depth image, while smoothing the parts that do not significantly affect the formation of three-dimensional effect Provided are a depth image based rendering method and apparatus for reducing a bit rate required by a. The present invention provides a depth image-based rendering method and apparatus for reducing the number of holes generated during rendering by applying a discontinuity preservation filter by a gradient size to a depth image.
본 발명은 우 시점 영상은 왼쪽에서부터, 좌 시점 영상은 오른쪽에서부터 동시에 와핑을 하여 홀이 발생하는 숫자를 감소시키는 깊이 영상 기반 렌더링 방법 및 그 장치를 제공한다.The present invention provides a depth image-based rendering method and apparatus for reducing the number of occurrences of a hole by simultaneously warping the right view image from the left and the left view image from the right.
본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 송신기는 깊이 영상의 경사도 크기에 대응하여 상기 깊이 영상을 평활화하여 전송하는 경사도 크기에 의한 불연속성 보존 필터 및; 기준 영상과 상기 깊이 영상을 전송하는 전송부를 포함한다.Depth image-based rendering transmitter according to an embodiment of the present invention includes a discontinuity preservation filter by the gradient size for smoothing and transmitting the depth image corresponding to the gradient size of the depth image; It includes a transmission unit for transmitting a reference image and the depth image.
본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 수신기는 기준 영상과 깊이 영상을 수신하는 수신부 및; 상기 기준 영상과 상기 깊이 영상을 사용하여 양안 시차를 갖는 우 시점 영상과 좌 시점 영상을 동시에 생성하고, 상기 우 시점 영 상과 상기 좌 시점 영상으로 양안식 입체 영상을 합성하는 동시 처리 모듈을 포함한다.Depth image-based rendering receiver according to an embodiment of the present invention includes a receiving unit for receiving the reference image and the depth image; And simultaneously generating a right eye view image and a left eye view image having binocular disparity using the reference image and the depth image, and synthesizing a binocular stereoscopic image from the right view image and the left view image. .
본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 전송 방법은 깊이 영상의 경사도 크기에 대응하여 상기 깊이 영상을 평활화하는 단계; 상기 평활화 된 깊이 영상의 경사도를 계산하고, 상기 경사도 크기가 미리 정의된 값보다 높을 경우에만 경사도 방향에 따른 필터의 특성을 상기 평활화 된 깊이 영상에 적용하여 적응 평활화하는 단계 및; 기준 영상과 상기 적응 평활화 된 깊이 영상을 인코딩하여 전송하는 단계를 포함한다.Depth image-based rendering transmission method according to an embodiment of the present invention comprises the steps of: smoothing the depth image corresponding to the size of the gradient of the depth image; Calculating an inclination of the smoothed depth image and adaptive smoothing by applying a characteristic of a filter according to an inclination direction to the smoothed depth image only when the inclination magnitude is higher than a predefined value; And encoding and transmitting a reference image and the adaptive smoothed depth image.
본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 수신 방법은 인코딩 된 기준 영상과 깊이 영상을 수신하는 단계; 상기 깊이 영상과 상기 기준영상를 디코딩하여 복원하는 단계 및; 상기 복원된 깊이 영상과 상기 복원된 기준영상으로 좌, 우 시점 영상을 동시에 생성하고, 상기 좌, 우 시점 영상을 합성하여 양안식 입체 영상을 생성하는 단계를 포함한다.Depth image-based rendering receiving method according to an embodiment of the present invention comprises the steps of receiving an encoded reference image and the depth image; Decoding and reconstructing the depth image and the reference image; And simultaneously generating left and right view images using the reconstructed depth image and the reconstructed reference image, and synthesizing the left and right view images.
본 발명에 따르면, 깊이 영상에 경사도 크기에 의한 불연속성 보존 필터를 적용함으로써 깊이 영상의 왜곡을 최소화면서 입체감 형성에 큰 영향을 주지 않는 부분들을 평활화하여 전송에 요구되는 비트율을 감소시킬 수 있다.According to the present invention, by applying the discontinuity preservation filter according to the magnitude of the gradient to the depth image, it is possible to reduce the bit rate required for transmission by smoothing the portions that do not significantly affect the formation of the stereoscopic effect while minimizing distortion of the depth image.
본 발명에 따르면, 깊이 영상에 경사도 크기에 의한 불연속성 보존 필터를 적용함으로써 렌더링시 발생하는 홀의 개수를 감소시킬 수 있다.According to the present invention, the number of holes generated during rendering may be reduced by applying a discontinuity preservation filter based on the magnitude of the gradient to the depth image.
본 발명에 따르면, 우 시점 영상은 왼쪽에서부터, 좌 시점 영상은 오른쪽에 서부터 동시에 와핑을 하여 홀이 발생하는 숫자를 감소시킬 수 있다.According to the present invention, the right view image may be warped simultaneously from the left and the left view image may be simultaneously warped from the right to reduce the number of holes.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 그리고 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention; If it is determined that the gist of the present invention may be unnecessarily obscured, detailed description thereof will be omitted.
도1은 본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 장치의 구성도이다. 1 is a block diagram of a depth image based rendering apparatus according to an exemplary embodiment of the present invention.
본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 장치는 도1에 도시된 바와 같이 깊이 영상(Depth Stream)의 전처리를 수행하여 전송 용량와 깊이 영상의 왜곡을 감소시키는 전처리 모듈(110)과, 기준 영상(Reference Stream)과 전처리 모듈(110)에서 전처리가 된 깊이 영상을 부호화하여 전송하는 인코딩 모듈(120)을 포함하는 송신기(100) 및, 인코딩 모듈(120)로부터 부호화된 정보를 수신하여 기준영상과 깊이 영상으로 복호화하는 디코딩 모듈(210)과 디코딩 모듈(210)에서 복호화한 기준 영상과 깊이 영상 정보를 이용해 깊이 영상 기반 렌더링의 4단계를 동시에 수행하여 입체 영상을 생성하는 동시 처리 모듈(220)를 포함하는 수신기(200)로 구성된다.As shown in FIG. 1, the depth image based rendering apparatus according to an embodiment of the present invention performs a preprocessing of a depth image to reduce transmission capacity and distortion of the depth image, and a reference image. A
전처리 모듈(110)은 사용자가 입체감을 느끼게 하는 주 요소인 깊이 영상에서의 불연속성 및 깊이 영상의 특징을 보존하면서 평활화하는 경사도(Gradient) 크기에 의한 불연속성 보존 필터(111)와 경사도 방향에 기반한 적응 평활화 필터(115)를 포함하고, 불연속성 보존 필터(111)를 통과한 깊이 영상에 경사도 방향 에 기반한 적응 평활화 필터(115)를 순차적으로 적용한다.The
불연속성 보존 필터(111)와 경사도 방향에 기반한 적응 평활화 필터(115)는하기된 수학식1,2,3을 공통적으로 사용하게 된다. The discontinuity preservation filter 111 and the
여기에서 N(x,y)는 정규화 요소이고, D(x, y)는 깊이 영상 값이다. Here, N (x, y) is a normalization factor and D (x, y) is a depth image value.
전처리 모듈(110)은 수학식 1에 도시된 바와 같이 필터의 특성을 반영하는 w(x,y)에 의해 결정된 3*3선형 필터를 t회 반복적으로 적용하며, 이 때 수학식 2 에 의해 각 단계에서 평활화된 값이 입력 영상보다 작아지는 것을 방지한다. 평활화된 값이 입력 영상보다 작아지게 되면 반복 횟수가 늘어남에 따라 깊이 영상의 다이내믹 레인지가 줄어들게 되고 주로 객체의 경계에서 형성되는 불연속성 경계에서 객체의 안과 밖으로 평활화가 진행되게 되어 입체감을 떨어뜨리는 주요 원인이 된다. As shown in Equation 1, the preprocessing
적응 평활화 필터는 필터특성이 반복 횟수가 늘어남에 따라 확산되는 효과를 가지며 따라서 w(x,y)가 큰 방향으로는 평활화 작용이 확산되고 w(x,y)가 작은 방향으로는 평활화 작용이 억제되고 영상의 특징이 보존된다. The adaptive smoothing filter has the effect of spreading the filter characteristics as the number of repetitions increases, so that smoothing action is spread in the direction where w (x, y) is large and smoothing action is suppressed in the direction where w (x, y) is small. And the characteristics of the image are preserved.
경사도 크기에 의한 불연속성 보존 필터(111)는 w(x,y)를 결정하기 위한 1단계로 하기된 수학식 4를 적용하여 공간적 경사도를 측정한다. The discontinuity preservation filter 111 based on the magnitude of the gradient measures the spatial gradient by applying Equation 4 described below as a step for determining w (x, y).
이때 각 편 미분 값 와 는 하기된 수학식 5를 적용하여 계산되며, 하기된 수학식 5 이외에도 소벨(Sobel) 연산자 등을 이용하여 계산할 수 있다.In this case, the derivative value of each part Wow Is calculated by applying Equation 5 below, and can be calculated using the Sobel operator in addition to Equation 5 below.
이때. I(x, y)는 기준 영상 값이다.At this time. I (x, y) is a reference image value.
경사도 크기에 의한 불연속성 보존 필터(111)는 w(x,y)를 결정하기 위한 2단계로 수학식 4로 계산된 공간적 경사도에 하기된 수학식 6를 적용하여 경사도 벡터의 크기를 계산한다.The discontinuity preservation filter 111 based on the magnitude of the gradient size calculates the magnitude of the gradient vector by applying the following Equation 6 to the spatial gradient calculated by Equation 4 in two steps for determining w (x, y).
경사도 크기에 의한 불연속성 보존 필터(111)는 w(x,y)를 결정하기 위한 3단계로 수학식 6으로 계산된 경사도 벡터의 크기에 하기된 수학식 7을 적용하여 w(x,y)를 계산한다.The discontinuity preservation filter 111 based on the magnitude of the gradient has three steps for determining w (x, y), and applies w (x, y) to the magnitude of the gradient vector calculated by Equation 6 below. Calculate
수학식 7에서 S는 보존되어야 할 깊이의 불연속성을 정의한다. In Equation 7, S defines the discontinuity of the depth to be preserved.
수학식 7에서 w(x,y)를 결정하기 위한 전달함수 g는 하기된 수학식8에 대응하여 계산된다.The transfer function g for determining w (x, y) in Equation 7 is calculated corresponding to Equation 8 described below.
이때 K는 자신보다 높은 값을 가지는 깊이 영상의 불연속성을 활성화 하도록 하는 기준 값이다.In this case, K is a reference value for activating the discontinuity of the depth image having a higher value than itself.
경사도 크기에 의한 불연속성 보존 필터(111)는 수학식 8의 전달함수를 수학식 7에 적용하여 w(x,y)를 계산하고, 계산된 w(x,y)를 수학식 1,2,3에 적용하여 불연속성 보존 필터를 수행함으로써 깊이 영상의 왜곡을 최소화 하면서 입체감 형 성에 큰 영향을 주지 않는 부분들을 평활화하여 전송에 요구되는 비트율을 감소시킬 수 있다. The discontinuity preservation filter 111 based on the magnitude of the gradient calculates w (x, y) by applying the transfer function of Equation 8 to Equation 7, and calculates the calculated w (x, y) by Equation 1,2,3. By applying the filter to discontinuity preservation filter, it is possible to reduce the bit rate required for transmission by smoothing the parts that do not greatly affect the stereoscopic shape while minimizing the distortion of the depth image.
전처리 모듈(110)은 경사도 크기에 의한 불연속성 보존 필터(111)를 적용한 깊이 영상이 입력 깊이 영상의 왜곡을 최소화면서 입체감 형성에 큰 영향을 주지 않는 부분들을 평활화하여 전송에 요구되는 비트율을 감소하였으나, 입체감 형성에 중요한 역할을 하는 깊이의 불연속성이 잘 보존되어 있어 렌더링시 발생하는 홀의 개수는 원본 깊이 영상과 비슷하므로 경사도 크기에 의한 불연속성 보존 필터(111)를 적용한 영상에 경사도 방향에 의한 적응 평활화 필터(115)를 적용한다.The
경사도 방향에 의한 적응 평활화 필터(115)는 w(x,y)를 결정하기 위한 1단계로 하기 수학식 9를 적용하여 경사도 방향을 계산한다. The
경사도 방향에 의한 적응 평활화 필터(115)는 w(x,y)를 결정하기 위한 2단계로 1단계에서 계산된 경사도 방향을 하기 수학식 10에 적용하여 w(x,y)가 결정된다.In the
경사도 방향에 의한 적응 평활화 필터(115)는 수학식 11에 도시된 바와 같 이 경사도 크기가 미리 정의된 값보다 높을 경우에만 경사도 방향에 따른 w(x,y)가 계산됨으로써 경사도 크기에 의한 불연속성 보존 필터(111)를 적용한 영상에서 렌더링시 홀이 생성되는 영역에서만 경사도 방향을 적용해 홀 영역을 감소시킨다.As shown in Equation 11, the
경사도 방향에 의한 적응 평활화 필터(115)는 렌더링이 가로 방향에서의 시점 변화만을 고려하여 홀도 가로 방향의 깊이 불연속 지점에서만 발생하므로 수학식 10에서와 같이 경사도 방향이 가로 방향에 가까울 수록 필터의 가중치가 높아지도록 한다.Since the
전처리 모듈(110)은 경사도 크기에 의한 불연속성 보존 필터(111)를 적용한 영상에 경사도 방향에 의한 적응 평활화 필터(115)를 적용함으로써 도2에 도시된 바와 같이 가우시안 평활화 필터를 적용할 경우에 비하여 엣지의 좌우 왜곡을 감소시킬 수 있다. 또한, 최대 연산에 의한 평활화에서의 제약 조건으로 인해 깊이를 가진 객체의 안쪽으로 평활화가 진행되는 것을 막게 되어 평활화 후에 깊이 영상에서 객체의 크기가 줄어들지 않게 되므로 사용자에게 객체의 외곽선과 일치된 입체감을 느낄 수 있도록 한다.The
동시 처리 모듈(220)은 도3에 도시된 바와 같이 기준 영상과 깊이 영상을 이용해서 양안 시차를 갖는 우 시점 영상을 생성하는 우영상 수평 시차 계산부(221), 기준 영상과 깊이 영상을 이용해서 양안 시차를 갖는 좌 시점 영상을 생성하는 좌영상 수평 시차 계산부(222), 좌, 우 시점 영상 생성시 홀이 발생하였는가를 검사하는 비폐색 영역 검사 모듈(224), 비폐색 영역이 발생하면 홀을 채워 보정하는 비 폐색 영역 보간 모듈(226) 및 좌, 우 시점 영상을 이를 3차원 디스플레 이에서 출력하기 위해 기준영상보다 두 배의 크기를 갖는 양안식 입체 영상을 합성하는 입체 영상 생성 모듈(228)을 포함한다.As shown in FIG. 3, the
우영상 수평 시차 계산부(221)는 수신한 기준 영상과 깊이 영상에 하기된 수학식 11을 적용하여 기준 영상의 좌표(x,y)에 대응하는 양안식 입체 영상의 우 시점 수평 좌표값 을 계산한다. The right image horizontal
좌영상 수평 시차 계산부(222)는 수신한 기준 영상과 깊이 영상에 하기된 수학식 12을 적용하여 기준 영상의 좌표(x,y)에 대응하는 양안식 입체 영상의 좌 시점 수평 좌표값 을 계산한다. The left image horizontal
여기서 X는 기준 영상의 수평크기, f는 초점거리, D(x,y)는 해당 좌표에서의 깊이 값, 는 좌, 우 시점 사이의 거리를 나타낸다. Where X is the horizontal size of the reference image, f is the focal length, and D (x, y) is the depth value at that coordinate, Represents the distance between left and right viewpoints.
그리고, 우영상 수평 시차 계산부(221)는 폐색 호환 일탈 순서(occlusion compatible warp order)에 따라 도4에 도시된 바와 같이 기준 영상의 왼쪽부터 와 핑을 시작하여 우 시점 영상을 생성하고, 좌영상 수평 시차 계산부(222)는 폐색 호환 일탈 순서(occlusion compatible warp order)에 따라 도4에 도시된 바와 같이 기준 영상의 오른쪽부터 와핑을 시작하여 좌 시점 영상을 생성한다. The right image
각 화소를 와핑하면 깊이 값의 크기에 따라 각 화소가 이동되는 거리가 달라지게 되고 이 때문에 시점 영상의 한 화소에 기준 영상에서 두 개 이상의 화소가 집중되는 경우가 생겨나게 되는 비 폐색 영역인 홀이 발생하면 두 화소 중에서 깊이 값이 큰 화소가 어떤 것인지 판단하여 깊이 값이 큰 화소를 할당 하여야 하는데 동시 처리 모듈(220)에서는 우 시점 영상은 왼쪽에서부터, 좌 시점 영상은 오른쪽에서부터 와핑을 하므로 깊이 값이 큰 화소가 나중에 그려지기 때문에 자동적으로 깊이 값이 작은 화소는 지워지게 되어 홀이 발생하는 숫자가 감소하게 된다.When each pixel is warped, the distance that each pixel is moved varies depending on the size of the depth value. Thus, a hole, which is a non-occluded region, in which two or more pixels are concentrated in one pixel of the viewpoint image is generated. In this case, it is necessary to determine which pixel has a large depth value among the two pixels and allocate a pixel having a large depth value. In the
비폐색 영역 검사 모듈(224)은 기준 영상의 주어진 좌표에 대해 좌, 우 시점 영상을 동시에 생성하는 과정에서 전 단계에서의 좌표와 현재 생성된 좌표의 거리에 따라 비 폐색 영역인 홀이 발생하였는가를 판단하고, 홀이 발생하지 않은 좌 시점 영상과 우 시점 영상을 입체 영상 생성 모듈(228)로 전송한다.The non-occluded
비 폐색 영역 보간 모듈(226)은 홀이 발생하였을 경우에 선형 보간법을 이용하여 보간하여 입체 영상 생성 모듈(228)로 전송한다.The non-occluded
입체 영상 생성 모듈(228)은 좌 시점 영상과 우 시점 영상을 홀수 열과, 짝수 열로 구분되도록 수신하여 홀수 열은 오른쪽 눈, 짝수 열은 왼쪽 눈으로 시청가능 하도록 도5에 도시된 바와 같이 구성하여 양안식 입체 영상을 합성한다. The stereoscopic
동시 처리 모듈(220)은 우영상 수평 시차 계산부(221), 좌영상 수평 시차 계산부(222), 비폐색 영역 검사 모듈(224), 비 폐색 영역 보간 모듈(226) 및 입체 영상 생성 모듈(228)이 양안식 입체 영상 저장을 위한 메모리만을 이용해 동시에 수행하도록 하여 불 필요한 메모리 사용을 억제하고 단 한번의 기준 영상의 검색만을 필요로 하도록 한다.The
본 발명에 따른 깊이 영상 기반 렌더링 장치는 시스템 특성에 따라 다른 형태로 적용될 수 있다. The depth image based rendering apparatus according to the present invention may be applied in other forms according to system characteristics.
본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 장치는 도1에 도시된 바와 같이 송신기(100)가 경사도 크기에 의한 불연속성 보존 필터(111)와 경사도 방향 기반의 적응 평활화 필터(115)를 포함하여 수신기(200)에서 깊이 영상의 전처리를 수행하지 않으므로 수신기(200)가 제한된 계산 능력을 지는 소형 단말기인 경우에 적합한 시스템이다.Depth image-based rendering apparatus according to an embodiment of the present invention, as shown in Figure 1, the
본 발명의 다른 실시예에 따른 깊이 영상 기반 렌더링 장치는 도6에 도시된 바와 같이 송신기(100)가 깊이 정보에 경사도 크기에 의한 불연속성 보존 필터를 적용하는 불연속성 보존 필터 모듈(130)을 포함하고, 수신기(200)가 디코딩 모듈(210)에서 복원된 깊이 정보에 경사도 방향 기반의 적응 평활화 필터를 적용하는 적응 평활화 필터 모듈(230)를 포함하여 사용자에 의해 주어진 파라미터에 따라 평활화 정도를 다르게 수행할 수 있으므로 수신기(200)가 계산 능력이 높은 단말기인 경우에 적합한 시스템이다.The depth image-based rendering apparatus according to another embodiment of the present invention includes a discontinuity
도7은 본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 방법의 순서도이다. 7 is a flowchart of a depth image based rendering method according to an embodiment of the present invention.
단계(S100)에서 송신기(100)는 외부로부터 기준 영상(Reference Stream)과 깊이 영상(Depth Stream)을 수신한다.In operation S100, the
단계(S200)에서 송신기(200)는 상기 단계(S100)에서 수신한 깊이 영상에 경사도 크기에 의한 불연속성 보존 필터를 적용하여 깊이 영상의 왜곡을 최소화면서 입체감 형성에 큰 영향을 주지 않는 부분들을 평활화하여 전송에 요구되는 비트율을 감소시킨다.In operation S200, the
단계(S300)에서 송신기(200) 상기 단계(S200)에서 경사도 크기에 의한 불연속성 보존 필터(111)를 적용한 깊이 영상에 경사도 방향에 의한 적응 평활화 필터(115)를 적용하여 렌더링시 발생하는 홀의 개수를 감소시킨다.In step S300, the
단계(S400)에서 인코딩 모듈(120)은 상기 단계(S300)에서 경사도 방향에 의한 적응 평활화 필터(115)를 적용한 깊이 영상과 상기 단계(S100)에서 수신한 기준영상을 유무선 네트워크를 통하여 전송하기 적합한 포멧으로 인코딩한다.In step S400, the
단계(S500)에서 송신기(100)는 상기 단계(S400)에서 인코딩한 깊이 영상과 기준영상을 수신기(200)로 전송한다.In operation S500, the
단계(S600)에서 디코딩 모듈(210)는 송신기(100)로부터 수신한 깊이 영상과 기준영상를 디코딩하여 복원한다.In operation S600, the
단계(S700)에서 동시 처리 모듈(220)은 상기 단계(S600)에서 복원된 깊이 영상과 기준영상을 이용해서 양안 시차를 갖는 좌, 우 시점 영상을 동시에 생성하면서 좌,우 시점 영상에 홀이 발생하면 보정하여 양안식 입체 영상을 합성하며 상세한 단계는 도8을 사용하여 후술한다.In step S700, the
단계(S800)에서 수신기(200)는 상기 단계(S700)에서 합성된 양안식 입체 영상을 외부에 제공하여 디스플레이 한다.In step S800, the
도8은 도7의 영상 동시 처리 단계의 상세 순서도이다. 8 is a detailed flowchart of the image simultaneous processing step of FIG.
단계(S710)에서 동시 처리 모듈(220)은 상기 단계(S600)에서 복원된 깊이 영상과 기준영상을 수신한다.In operation S710, the
단계(S720)에서 우영상 수평 시차 계산부(221)는 기준 영상의 왼쪽부터 와핑을 시작하여 우 시점 영상을 생성하고, 좌영상 수평 시차 계산부(222)는 기준 영상의 오른쪽부터 와핑을 시작하여 좌 시점 영상을 생성한다.In operation S720, the right image
단계(S730)에서 비폐색 영역 검사 모듈(224)은 기준 영상의 주어진 좌표에 대해 좌, 우 시점 영상을 동시에 생성하는 과정에서 전 단계에서의 좌표와 현재 생성된 좌표의 거리에 따라 비 폐색 영역인 홀이 발생하였는가를 판단한다.In operation S730, the non-occluded
단계(S740)에서 비 폐색 영역 보간 모듈(226)은 발생한 홀을 선형 보간법을 이용하여 보간한다.In step S740, the non-occluded
단계(S750)에서 입체 영상 생성 모듈(228)은 좌 시점 영상과 우 시점 영상을 홀수 열과, 짝수 열로 구분되도록 구성하여 양안식 입체 영상을 합성한다.In operation S750, the stereoscopic
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.In the present invention as described above has been described by the specific embodiments, such as specific components and limited embodiments and drawings, but this is provided to help a more general understanding of the present invention, the present invention is not limited to the above embodiments. For those skilled in the art, various modifications and variations are possible from these descriptions.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and all the things that are equivalent to or equivalent to the claims as well as the following claims will belong to the scope of the present invention. .
도1은 본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 장치의 구성도이다. 1 is a block diagram of a depth image based rendering apparatus according to an exemplary embodiment of the present invention.
도2는 전처리하지 않은 영상과, 가우시안 평활화를 적용한 영상 및 본 발명에 따른 전처리를 적용한 영상을 나타내는 상태도이다.2 is a state diagram showing an image without preprocessing, an image to which Gaussian smoothing is applied, and an image to which preprocessing according to the present invention is applied.
도3은 도1의 동시 처리 모듈의 상세 구성도이다.3 is a detailed block diagram of the simultaneous processing module of FIG.
도4는 본 발명에 따른 와핑 순서를 나타내는 상태도이다.4 is a state diagram showing a warping sequence according to the present invention.
도5는 본 발명에 따라 합성된 양안식 입체 영상의 구성도이다.5 is a block diagram of a binocular stereoscopic image synthesized according to the present invention.
도6은 본 발명의 다른 실시예에 따른 깊이 영상 기반 렌더링 장치의 구성도이다.6 is a configuration diagram of a depth image based rendering apparatus according to another exemplary embodiment of the present invention.
도7은 본 발명의 일실시예에 따른 깊이 영상 기반 렌더링 방법의 순서도이다. 7 is a flowchart of a depth image based rendering method according to an embodiment of the present invention.
도8은 도7의 영상 동시 처리 단계의 상세 순서도이다. 8 is a detailed flowchart of the image simultaneous processing step of FIG.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080018581A KR100914171B1 (en) | 2008-02-28 | 2008-02-28 | Apparatus and method for depth based image rendering on mobile broadcasting |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080018581A KR100914171B1 (en) | 2008-02-28 | 2008-02-28 | Apparatus and method for depth based image rendering on mobile broadcasting |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100914171B1 true KR100914171B1 (en) | 2009-08-28 |
Family
ID=41210289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080018581A KR100914171B1 (en) | 2008-02-28 | 2008-02-28 | Apparatus and method for depth based image rendering on mobile broadcasting |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100914171B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101179829B1 (en) | 2010-12-06 | 2012-09-04 | 성균관대학교산학협력단 | Apparatus and method for depth image based rendering |
KR101475936B1 (en) * | 2013-05-03 | 2014-12-23 | 고려대학교 산학협력단 | 3d media distribution system |
KR102613032B1 (en) * | 2022-11-16 | 2023-12-12 | 주식회사 지디에프랩 | Control method of electronic apparatus for providing binocular rendering based on depth map matching field of view of user |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100478767B1 (en) | 1998-08-20 | 2005-03-24 | 애플 컴퓨터, 인크. | Graphic processing with deferred shading |
KR100806201B1 (en) | 2006-10-30 | 2008-02-22 | 광주과학기술원 | Generating method for three-dimensional video formation using hierarchical decomposition of depth image, and device for the same, and system and storage medium therefor |
-
2008
- 2008-02-28 KR KR1020080018581A patent/KR100914171B1/en not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100478767B1 (en) | 1998-08-20 | 2005-03-24 | 애플 컴퓨터, 인크. | Graphic processing with deferred shading |
KR100806201B1 (en) | 2006-10-30 | 2008-02-22 | 광주과학기술원 | Generating method for three-dimensional video formation using hierarchical decomposition of depth image, and device for the same, and system and storage medium therefor |
Non-Patent Citations (2)
Title |
---|
IEEE Trans. on Broadcasting, Vol.51, Issue 2, 2005.06., Liang Zhang et al. , "Stereoscopic image generation based on depth images for 3D TV", pp.191-199* |
Signal Processing Image Communication, Vol.22, Issue 2, 2007.02., P. Kauff et al., "Depth map creation and image-based rendering for advanced 3DTV services providing interoperability and scalability",* |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101179829B1 (en) | 2010-12-06 | 2012-09-04 | 성균관대학교산학협력단 | Apparatus and method for depth image based rendering |
KR101475936B1 (en) * | 2013-05-03 | 2014-12-23 | 고려대학교 산학협력단 | 3d media distribution system |
KR102613032B1 (en) * | 2022-11-16 | 2023-12-12 | 주식회사 지디에프랩 | Control method of electronic apparatus for providing binocular rendering based on depth map matching field of view of user |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101492876B1 (en) | 3d video control system to adjust 3d video rendering based on user prefernces | |
US8116557B2 (en) | 3D image processing apparatus and method | |
CN102474644B (en) | Stereo image display system, parallax conversion equipment, parallax conversion method | |
De Silva et al. | Display dependent preprocessing of depth maps based on just noticeable depth difference modeling | |
JP6147275B2 (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
WO2010116614A1 (en) | Image display device, image generation device, image display method, image generation method, and non-transitory computer-readable medium in which program is stored | |
CN102905145B (en) | Stereoscopic image system, image generation method, image adjustment device and method thereof | |
EP2608549B1 (en) | Method and apparatus for adjusting depth-related information map according to quality measurement result of the depth-related information map | |
KR100914171B1 (en) | Apparatus and method for depth based image rendering on mobile broadcasting | |
Smirnov et al. | Methods for depth-map filtering in view-plus-depth 3D video representation | |
JP4600993B2 (en) | Free viewpoint video generation system | |
US20120170841A1 (en) | Image processing apparatus and method | |
EP2822279B1 (en) | Autostereo tapestry representation | |
Jung et al. | Depth image based rendering for 3D data service over T-DMB | |
US10972713B2 (en) | 3DTV at home: Eulerian-Lagrangian stereo-to-multi-view conversion | |
Ruijters et al. | IGLANCE: transmission to medical high definition autostereoscopic displays | |
Ni et al. | Improving the quality of depth image based rendering for 3D video systems | |
Smirnov et al. | A memory-efficient and time-consistent filtering of depth map sequences | |
Li et al. | Joint view filtering for multiview depth map sequences | |
Wang et al. | A novel approach for depth image based rendering, based on non-linear transformation of depth values | |
KR101179829B1 (en) | Apparatus and method for depth image based rendering | |
JP4419139B2 (en) | Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program | |
Liu et al. | 3D video rendering adaptation: a survey | |
Ding et al. | Depth map pre-processing algorithm for compression based on 3D-HEVC scheme | |
Xu et al. | Real-time 3D video synthesis from binocular stereo camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120730 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130729 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140728 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150728 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160726 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |